АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Одиниці вимірювання інформації і інформативності

Читайте также:
  1. XIV. 7. Вимірювання електрорушійних сил. Застосування методу вимірювання ЕРС для визначення різних фізико – хімічних величин
  2. Безпосередні вимірювання малих напруг, струмів та зарядів. Гальванометри.
  3. Вимірювання великих струмів
  4. Вимірювання великих струмів, що грунтуються на ефекті Фарадея
  5. Вимірювання високих напруг електромеханічними приладами
  6. Вимірювання високих напруг з використанням електрооптичних ефектів Керра і Поккельса
  7. Вимірювання високих постійних і змінних напруг
  8. Вимірювання електропровідності розчину
  9. Вимірювання енергії однофазного змінного струму. Індукційні лічильники електроенергії
  10. Вимірювання індукції
  11. Вимірювання кута фазового зсуву з перетворенням його на код
  12. Вимірювання кута фазового зсуву з перетворенням його на струм чи напругу

Будь-яке повідомлення, що передається, утримує в собі обмежену кількість інформації про будь-яку подію. “Подія” при цьому розуміється в самому широкому розумінні цього слова. Кількість інформації, що передається або одержується, прийнято зв'язувати із ступінню несподіваності події, про яку говориться в повідомленні. Чим несподіваніша подія, тим більше інформації в повідомленні про неї.

При такій постановці питання для надання поняттю “кількість інформації” чіткого математичного сенсу потрібно перш за все дати чіткий числовий вираз “степені несподіваності” повідомлення. Ця задача вирішується методами теорії імовірності.

Якщо по каналу зв'язку передати повідомлення про подію, ймовірність якого до передачі (апріорна) була р1, а після прийому повідомлення стала (апостеріорна) рівною р2, то приріст кількості інформації, що пов'язаний з прийомом повідомлення, визначається співвідношенням цих ймовірностей і одержана кількість інформації визначається формулою:

. (2.1)

Застосування логарифмічної функції для кількісної оцінки приросту інформації дає істотні переваги: так, повна інформація, яка міститься в повідомленні, що складається із декількох елементів, може бути одержана додаванням кількості інформації, що міститься в цих елементах. Крім того, якщо канал зв'язку ідеальний, тобто в ньому відсутні перешкоди та викривлення і, отже, прийняте повідомлення цілком достовірне, то приведений вираз справджується, так як імовірність

,

. (2.2)

Так як початкова ймовірність завжди знаходиться в межах між нулем і одиницею, кількість інформації завжди додатна.

Чисельна величина кількості інформації залежить від вибору основи логарифма. Враховуючи, що технічні засоби передачі і злічування дискретної інформації частіше за все можуть приймати тільки два різних стани, вигідно користуватися логарифмом з основою 2. Тоді одиниця кількості інформації відповідає повідомленню про те, що трапилась одна з двох рівноймовірних подій. Вона називається двійковою одиницею інформації, або бітом.

Користуючись логарифмом з основою 10, одержуємо кількість інформації в інших одиницях — дітах, а користуючись натуральним логарифмом з основою е

, — в нітах.

Викладене ілюструє наступний приклад. Якщо по каналу зв'язку рівномірним кодом передається повідомлення про одну з восьми рівноймовірних подій, що здійснилися, кодові позначення ймовірності яких приведені в таблиці 2.1, то представляється можливим обчислити кількість інформації, що доставляється кожним наступним символом кодової групи, що передається. Для цього в першу чергу визначають ймовірності поступання окремих повідомлень після передачі кожного символу кодової групи (як це зроблено в таблиці 2.1), а потім розраховується кількість інформації, перенесеної кожним символом.

Таблиця 2.1 – ймовірності появи повідомлення

Номер повідомлення Код повідом-лення Імовірність повідом-лення Імовірність після передачі
     
    ¼ ¼ 1/8 1/8 1/16 1/16 1/16 1/16 1/3 1/3 1/6 1/6 1/2 1/2  

При передачі повідомлення 3 в першому символі міститься інформація[1]

,

в другому символі

,

в третьому символі

.

Сумарна інформація дорівнює логарифму від величини оберненої апріорної імовірності повідомлення 3. Поряд з абсолютною кількістю інформації, що міститься в повідомленні, використовується поняття питома інформативність, або ентропія повідомлення. Під цим розуміється середня кількість інформації, що припадає на один символ передачі:

. (2.3)

Ентропія характеризує повідомлення з точки зору його насиченості інформацією. Чим більша ентропія повідомлення, тим більше інформації отримується за одиницю часу.

 


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.003 сек.)