АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Практична робота № 1

Читайте также:
  1. II. Методична робота.
  2. VIIІ. Самостійна робота.
  3. Архівація даних. Робота з програмами - архіваторами Win Zip, Win Rar та ін.
  4. Будова і робота фільтрів.
  5. Вимоги безпеки при виконанні робіт на повітряних лініях (робота на опорах)
  6. ГЛАВА 1. СОЦІАЛЬНА РОБОТА ЯК ПРАКТИЧНА ДІЯЛЬНІСТЬ
  7. Дана робота може бути використана класними керівниками 5-11 класів загальноосвітніх шкіл.
  8. Дипломна (магістерська) робота на тему: «Психологічне становлення соціометричного статусу школяра в учнівському колективі»
  9. ДИПЛОМНА РОБОТА
  10. ДРУГА ВСЕУКРАЇНСЬКА НАУКОВО-ПРАКТИЧНА КОНФЕРЕНЦІЯ
  11. І. Методична робота.
  12. ІІ. Практична частина

Державний заклад «Київський коледж зв’язку»

 

   

 

ТЕОРІЯ ІНФОРМАЦІЇ ТА КОДУВАННЯ

 

 

Методичні вказівки

По виконанню практичних робіт

 

для студентів коледжу, що навчаються за напрямом

6.050102 – «Комп’ютерна інженерія»

 

 

Київ 2012


Укладач:

Куліковська Ю.А. – викладач 2-ої категорії циклової комісії прикладної математики, моделювання та програмування, ДЗ «ККЗ».

 

 

Рецензент:

Котенко Н.О. – викладач 1-ої категорії циклової комісії прикладної математики, моделювання та програмування, ДЗ «ККЗ».

Збірник лабораторних робіт розглянуто та схвалено на засіданні циклової комісії ПММП

Протокол № ____ від ____________ 2012 р.

 

Голова комісії ___________________ (Котенко Н.О.)

 

 

Затверджено заступником директора з НВР __________ Коновалов О.Ю.

«____»____________2012р.


 

ЗМІСТ

 

Практична робота № 1 Визначення кількісних характеристик інформації. 4

Практична робота № 2 Визначення кількісних характеристик інформації в дискретному джерелі інформації. 9

Практична робота № 3 Застосування кодів. 13

Практична робота № 4 Кодування кодами, що виявляють помилки. 16

Практична робота № 5 Кодування кодами, що виправляють помилки.. 18

ДОДАТКОВА ЛІТЕРАТУРА

 

ДОДАТКИ

Додаток А. Двійкові логарифми цілих чисел

Додаток Б. Таблиця значень функції – p log 2 p

Додаток В. Десяткові коди країн, що використовуються при штриховому кодуванні

 

 


Практична робота № 1.

 

Тема: Визначення кількості інформації в повідомленнях та ентропії в джерелах повідомлень. Визначення ентропії, часткової та загальної умовної ентропії, ентропії об’єднання та безумовної ентропії джерел інформації.

Мета: навчитися визначати кількісні характеристики інформації, застосовувати набуті теоретичні знання на практиці, вдосконалити свої уміння та навики.

Прилади та обладнання: конспект лекцій, роздатковий матеріал.

Методичні вказівки: повторити матеріал лекцій; [2], ст.10-30.

Завдання:

1. Отримати чисельні значення ентропії, продуктивності та надмірності немарковського дискретного джерела інформації з алфавітом X потужності M = 4.Значення ймовірностей p (xi) виникнення символів та їх тривалостей t i (в мілісекундах, мс) для різних варіантів наведені у таблиці 1.

Таблиця 1

№ варіанта p (x 1) p (x 2) p (x 3) p (x 4) t 1 t 2 t 3 t 4
  0,33 0,08 0,15 0,44 1,2 0,2 0,8 0,5
  0,21 0,16 0,03 0,6 5,4 1,5 2,3 1,2
  0,15 0,27 0,34 0,24        
  0,05 0,08 0,11 0,76 8,6 3,4 5,8 0,9
  0,62 0,28 0,04 0,06 0,3 0,4 0,6 0,8
  0,17 0,41 0,23 0,19 2,6 1,1 0,5 7,3
  0,55 0,15 0,06 0,24 3,3 5,1 1,2 1,2
  0,08 0,35 0,27 0,30 0,1 0,3 0,5 0,8
  0,22 0,33 0,05 0,40 2,2 1,8 0,5 3,0
  0,62 0,12 0,08 0,18 1,8 0,8 0,6 0,5
  0,26 0,14 0,50 0,10 3,7 2,1 1,2 1,5
  0,14 0,33 0,27 0,26 0,2 0,1 0,5 1,5
  0,18 0,03 0,64 0,15 2,5 1,4 0,7 2,2
  0,37 0,18 0,06 0,39        
  0,25 0,15 0,33 0,27 1,8 1,2 0,8 0,5
  0,09 0,44 0,28 0,19        
  0,66 0,15 0,15 0,04 3,4 5,8 1,3 2,5
  0,22 0,05 0,16 0,57 0,5 0,3 0,2 0,8
  0,53 0,24 0,15 0,08 7,6 2,1 1,5 8,3
  0,18 0,22 0,25 0,35 2,8 3,5 4,8 1,3

 

2. Маємо два немарковських дискретних джерела інформації з алфавітами X = { x 1, x 2, x 3} та Y = { y 1, y 2}. Чисельні значення ймовірностей p ( xi, yk) сумісного виникнення символів на виходах джерел для різних варіантів наведені у таблиці 2. Чому дорівнює ентропія системи цих двох джерел? Яке з цих джерел має більшу надмірність? Чи є джерела статистично незалежними?

Таблиця 2

№ варіанта p (x 1, y 1 ) p (x 1, y 2 ) p (x 1, y 3 ) p (x 2, y 1 ) p (x 2, y 2 ) p (x 2, y 3 )
  0,15 0,08 0,25 0,30 0,16 0,06
  0,12 0,04 0,24 0,18 0,06 0,36
  0,33 0,11 0,06 0,06 0,11 0,33
  0,05 0,08 0,11 0,36 0,25 0,15
  0,22 0,28 0,04 0,06 0,15 0,25
  0,17 0,21 0,23 0,12 0,08 0,19
  0,24 0,03 0,03 0,56 0,07 0,07
  0,08 0,08 0,30 0,12 0,12 0,30
  0,12 0,33 0,05 0,24 0,15 0,11
  0,09 0,18 0,18 0,11 0,22 0,22
  0,22 0,09 0,18 0,18 0,11 0,22
  0,14 0,28 0,08 0,26 0,14 0,10
  0,42 0,12 0,06 0,28 0,08 0,04
  0,03 0,18 0,26 0,26 0,12 0,15
  0,15 0,15 0,43 0,08 0,08 0,11
  0,21 0,08 0,28 0,15 0,12 0,16
  0,16 0,05 0,04 0,24 0,06 0,45
  0,02 0,05 0,43 0,02 0,33 0,15
  0,15 0,05 0,05 0,45 0,15 0,15
  0,06 0,03 0,01 0,54 0,27 0,09

 

3. Марковське дискретне джерело інформації має алфавіт X = { x 1, x 2}. Статистичні зв’язки розповсюджуються тільки на суміжні символи (тобто глибина пам’яті h = 1). Чисельні значення умовних ймовірностей p ( xi / xk) та тривалостей символів t i ( в мі-лісекундах, мс) для різних варіантів наведені у таблиці 3. Отримати чисельні значення ентропії, продуктивності та надмірності джерела.

Таблиця 3

№ варіанта p (x 1/ x 1) p (x 2 / x 1) p (x 1/ x 2) p (x 2 / x 2) t 1 t 2
  0,53 0,47 0,25 0,75 0,1 0,3
  0,22 0,78 0,43 0,57 3,3 5,1
  0,15 0,85 0,64 0,36 2,6 1,1
  0,92 0,08 0,84 0,16 0,3 0,4
  0,62 0,38 0,24 0,76 2,3 1,4
  0,59 0,41 0,61 0,39 8,6 3,4
  0,35 0,65 0,16 0,84    
  0,55 0,45 0,97 0,03 5,4 1,5
  0,12 0,88 0,35 0,65 1,2 0,2
  0,58 0,42 0,82 0,18 2,8 3,5
  0,16 0,84 0,52 0,48 7,6 2,1
  0,64 0,36 0,83 0,17 0,5 0,3
  0,18 0,82 0,44 0,56 2,5 1,4
  0,80 0,20 0,71 0,29 3,4 5,8
  0,25 0,75 0,33 0,67    
  0,55 0,45 0,11 0,89 0,6 1,8
  0,21 0,79 0,16 0,84 1,8 1,2
  0,95 0,05 0,63 0,37    
  0,23 0,77 0,51 0,49 0,2 0,1
  0,75 0,25 0,84 0,16 3,7 2,1

4. Маємо два немарковських дискретних джерела інформації з алфавітами X = { x 1, x 2, x 3} та Y = { y 1, y 2}. Чисельні значення безумовних p (yk) та умовних p (yk / xi) ймовірностей виникнення символів на виході джерела з алфавітом Y відомі та для різних варіантів наведені у таблиці 4. Отримати чисельні значення ентропії H (X, Y) системи цих двох джерел та повної взаємної інформації I (X, Y). Яке з цих джерел має більшу надмірність?

Таблиця 4

№ варіанта p (y 1) p (y 2) p (y 3)  
  0,37 0,594 0,036
  0,498 0,240 0,262
  0,5 0,24 0,26
  0,575 0,29 0,135
  0,304 0,29 0,406
  0,479 0,348 0,173
  0,206 0,168 0,626
  0,266 0,466 0,268
  0,424 0,136 0,44
  0,656 0,188 0,156
  0,257 0,504 0,239
  0,412 0,202 0,386
  0,181 0,449 0,37
  0,368 0,178 0,454
  0,532 0,082 0,386
  0,236 0,328 0,436
  0,483 0,221 0,296
  0,312 0,348 0,34
  0,168 0,286 0,546
  0,444 0,225 0,331

Контрольні запитання:

1. Що таке джерело повідомлень?

2. Що таке ансамбль повідомлень?

3. Як визначається кількість інформації в одному повідомленні?

4. Що таке ентропія та які її властивості?

5. За яких умов ентропія джерела стає максимальною?

6. Чим визначається продуктивність дискретного джерела?

Зміст звіту:

1. Тема і мета лабораторної роботи.

2. Прилади та обладнання.

3. Виконання завдання.

4. Зробити висновки по результатам, отриманим в процесі розв’язання задачі.

5. Дати відповіді на контрольні запитання.

Література:

1. Жураковський Ю.П., Полторак В.П. Теорія інформації та кодування. – К;, Вища школа, 2001.

2. Жураковський Ю. П., Гніліцький В.В.Теорія інформації та кодування в задачах: Навчальний посібник. – Житомир: ЖІТІ, 2002.

3. Ігнатов В.А. Теорія информации и передачи сигналов. – М.: Радио и связь, 1991

4. Кузьмин И. В., Кедру В. А. Основы теории информации и кодирования. – К.: Вища школа, 1987р.


1 | 2 | 3 | 4 | 5 | 6 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.009 сек.)