
- •1.1. Повідомлення та інформація
- •1.2. Моделі інформаційних систем
- •1.4. Предмет теорії інформації та кодування
- •2.2. Кількісна міра інформації
- •2.3. Ентропія та її властивості
- •2.4. Безумовна ентропія
- •2.5. Умовна ентропія
- •2.6. Ентропія об'єднання двох джерел
- •3.1. Продуктивність дискретного джерела та швидкість передачі інформації
- •4.1. Квантування сигналів
- •4.2. Інформаційні втрати
- •4.3. Продуктивність неперервного джерела та швидкість передачі інформації
- •IhlilhM
- •4.4. Пропускна здатність . . . .
- •5.1. Класифікація кодів і характеристики їх
- •5.4. Способи подання кодів
- •5.6. Основні теореми кодування для каналів
- •6.1. Класифікація первинних кодів
- •6.2. Нерівномірні двійкові первинні коди
- •6.2.1. Код морзе
- •6.2.2. Число-імпульсні коди
- •6.3. Рівномірні двійкові первинні коди
- •6.3.1. Числові двійкові коди
- •6.3.2. Двійково-десяткові коди
- •6.3.4. Двійково-шістнадцятковий код ;;.-,-.
- •6.3.5. Рефлексні коди
- •7.1. Двійкові коди,
- •7.1.2. Код із перевіркою на непарність
- •7.1.3. Код із простим повторенням
- •7.2. Недвійкові коди, що виявляють помилки
- •7.2.1. Код із перевіркою за модулем q
- •7.2.2. Код із повторенням
- •8"6 90472 "100562 І' • шТрИховє зОбраЖєння кодового сло-
- •8.1. Двійкові групові коди
- •8.1.1. Лінійний систематичний груповий (блоковий) код
- •8.1.2. Коди хеммінга
- •8.1.4. Коди боуза - чоудхурі - хоквінгема
- •8.1.5. Код файра
- •8.1.6. Код із багатократним повторенням
- •8.3.2. Узагальнений код хеммінга
- •8.3.3. Коди боуза - чоудхурі - хоквінгема
- •8.3.4. Коди ріда - соломона
- •8.3.6. Недвійковий ланцюговий код
- •9.1. Вірогідність передачі кодованих повідомлень
- •9.2. Стиснення інформації"
- •9.2.1. Способи стиснення даних при передачі
- •9.2.2. Способи стиснення даних при архівації
- •Збіжного рядка
- •9.3. Збільшення основи коду
- •0Сзезс99е8с0е1с10d1c242d5c3d2c6d8cbd6e8c0
- •VosooooooooooooooooOvJvJ
2.4. Безумовна ентропія
Термін «безумовна ентропія» запозичений з математичної статистики за аналогією з безумовною ймовірністю, що стосується статистично незалежних подій, тут — повідомлень. Отже, безумовна ентропія — це кількість інформації, яка припадає на одне повідомлення джерела із статистично незалежними повідомленнями.
За цим визначенням розглянута в п. 2.3 ентропія є безумовною. Зупинимося докладніше на безумовній ентропії та її властивостях.
Якщо є дискретне джерело статистично незалежних повідомлень з ансамблем А = {ах,а2,..., я,-, • ••, я*} та/? = {pvp2, •■•»/>,•> ••> рк}, то кількість інформації (середня), що припадає на одне повідомлення ах; є А й визначається формулою Шеннона
к H(A) = -YPilogPi, (2.8)
/=і
є характеристикою цього джерела в цілому. Вона має фізичний зміст середньої за ансамблем невизначеності вибору джерелом повідомлення з А, причому байдуже, якого саме повідомлення, оскільки обчислення ентропії (2.8) «поглинає» індекс /. Наприклад, джерело з к = 8 незалежними та рівноймовірними повідомленнями має ентропію
8 і і
H(A) = -Y,±\og2— = 3 біт/повідомлення.
Тут ураховано, що /?/=/? = 1/8. Для нерівноймовірних повідомлень у цьому разі Н (А) < 3 біт/повідомлення.
Наведені в п. 2.3 властивості ентропії при цьому зберігаються, тобто якщо р = 1 або 0, то до ансамблю А не може входити більш як одне повідомлення. Таким чином,
1
і
Hl(A)^JJh\og2\
= \\og2\
= 0
/=1 *
і
або
о
#o(^)=£(Mog2;=o.oo.
1=1
де невизначеність 0 • «>, якщо її розкрити за правилом Лопіталя через граничний перехід, дає
(2.10)
Н0(А) = 0.
Останній випадок потребує пояснення. Якщо є ансамбль з алфавітом А, в якому певне повідомлення ак має ймовірність рк = 0, то таке повідомлення ак можна просто виключити з ансамблю та далі не розглядати, оскільки £ р( =1 для всіх / Ф А:, а
і
складова частка Н (А) із (2.8) дорівнює нулю за (2.10). Якщо при цьому в алфавіті А залишиться лише одне повідомлення (припустимо, їх було два), то очевидно, що р = 1 для залишеного повідомлення і маємо випадок (2.9).
Якщо в алфавіті А буде більше, ніж одне повідомлення, то виключення ак з А (р (ак) = 0) лише спростить модель джерела — його ансамбль і не змінить результат обчислення ентропії Н (А) за (2.8).
Безумовна ентропія К рівноймовірних повідомлень завжди максимальна й визначається виразом
,діт |
|
7~\ |
|
|
І |
/ 2 |
|
|
|
І І |
1 |
|
J |
|
1 II |
|
|
|
|
V і— |
L—-L. |
1— |
.1 , і |
|
H(A) = \og2K, (2.11) ф;
який називається формулою Харт- Оо лі. її легко дістати з формули Шен нона (2.8), поклавши рі = \ІК для ~ / = 1 ... К, хоча хронологічно пер шою була запропонована форму ла (2.11). *
ДО 0,6 Рис.2.3
02
0,8 р(а)
Корисно дослідити вплив імовірності р (а{) на складові /, = ^ = -р (д.) log2 p (я.) формули (2.8). Наочне подання цього впливу дає ° графік І і =/(р{) — крива 1 на рис. 2.3, яку здобуто з рис. 2.2 домно-
32
2 ,"195
33
женням ординат кривої 1 на множник р (а), відображений на рис. 2.2 лінією 2. Як випливає з рис. 2.3 (крива /), малі значення р (а) значно сильніше впливають на рівень складових формули Шеннона, ніж великі.
Крім того, за графіком прослідковується екстремум цих складових: якщо вони мають його, то й сума Н (А) їх теж матиме екстремум.
Для прикладу розглянемо безумовну ентропію двійкового джерела, коли А = Ц, а2} та Р = {/?, 1 -/?}. Тоді
Н(А) = -^Рі\о£2Рі=Р\о%Л+(\-р)\о%2-1—> (2.12)
/=і Р {~Р
ОСКІЛЬКИ /?! + р2 =р + 1 -/? = 1.
Графік першої складової відображено на рис. 2.3 кривою 7, графік другої складової — кривою 5, а графік ентропії Н (А)= = /ІР) — кривою 2. Бачимо, що остання є симетричною і має максимум Н(А)тах = 1 при/? = 0,5, тобто максимальна невизначеність повідомлень джерела при/? = 0,5 спричинює його максимальну безумовну ентропію.
Дослідження недвійкових джерел (К > 2) дають результат з тією самою тенденцією: безумовна ентропія їх максимальна при рівноймовірностіповідомлень, коли /?.= І/А*для всіх/ = 1,2,..., #[3,42,44].
Таким чином, основними властивостями безумовної ентропії дискретних повідомлень є такі:
ентропія — величина дійсна, обмежена та невід'ємна;
ентропія вірогідних повідомлень дорівнює нулю;
ентропія максимальна, якщо повідомлення рівноймовірні та статистично незалежні;
ентропія джерела з двома альтернативними подіями може змінюватися від 0 до 1;
ентропія складеного джерела, повідомлення якого складаються з часткових повідомлень кількох статистично незалежних джерел, дорівнює сумі ентропії цих джерел.