
- •4.5 Контрольні питання 87
- •5.5 Контрольні питання 97
- •6.5 Контрольні питання 127
- •2Основні поняття теорії інформації
- •2.1Загальні положення
- •2.2Кругообертання інформації
- •2.3Класифікація інформації
- •2.4Структурні перетворення інформації
- •2.5Фази усунення надлишковості інформації
- •2.6Контрольні питання
- •3Інформаційна метрика
- •3.1Якісні і кількісні оцінки інформації
- •3.2Структурні міри інформації
- •3.2.1Загальна характеристика структурної метрики
- •3.2.2Геометрична міра інформації
- •3.2.3Комбінаторна міра інформації
- •3.2.4Адитивна міра (міра Хартлі)
- •3.2.5Специфіка структурної оцінки кількості інформації
- •3.2.6Інформаційна ємність
- •3.3Статистичні міри інформації
- •3.3.1Відповідність між ймовірністю і інформацією
- •3.3.2Ентропія як міра невизначеності
- •3.3.3Ентропія ансамблю (безумовна ентропія)
- •3.3.4Ентропія об’єднання, умовна ентропія
- •Ентропія безперервного джерела інформації (диференціальна ентропія)
- •3.3.5Кількість інформації як міра зняття невизначеності
- •3.4Кількість інформації і її надлишковість
- •3.5Оцінка якості виміру н контролю
- •3.6Семантичні міри інформації
- •3.6.1Поняття семиотика
- •3.6.2Змістовність інформації
- •3.6.3Доцільність інформації
- •3.6.4Динамічна ентропія
- •3.6.5Істотність інформації
- •3.7Контрольні питання
- •4Характеристики дискретних джерел інформації
- •4.1Продуктивність дискретного джерела та швидкість передачі інформації
- •4.2Інформаційні втрати при передачі інформації по дискретному каналу
- •4.3Пропускна здатність дискретного каналу
- •4.4Теорема Шеннона
- •4.5Контрольні питання
- •5Характеристики неперервних джерел інформації
- •5.1Квантування сигналів
- •5.2Інформаційні втрати при дискретизації неперервних джерел
- •5.3Продуктивність неперервного джерела та швидкість передачі інформації
- •5.4Пропускна здатність неперервного каналу
- •5.5Контрольні питання
- •6Кодування інформації
- •6.1Загальні поняття і визначення
- •6.2Кодування як процес представлення інформації в цифровому вигляді
- •6.3Ефективне кодування
- •6.4Кодування інформації для каналу з завадами
- •6.4.1Загальні поняття теорії завадостійкого кодування
- •6.4.2Різновиди завадостійких код
- •6.4.3Загальні принципи використання надлишковості
- •6.4.4Кодова відстань
- •6.5Контрольні питання
- •Перелік використаних джерел
4.2Інформаційні втрати при передачі інформації по дискретному каналу
Задача
дискретного каналу полягає в тому, щоб
повідомлення bi
однозначно відповідало
повідомленню аi.
Це було б можливе тоді,
коли р (ai|bi)
= р (bi|ai)=1
для всіх i
= 1... К. А
це означає, що мають виконуватися
рівності р(ai,
bi)=р
(аi)=р
(bi)
та p(ai|bj)=р
(bj|ai)=0
або p(ai,bj)=0
для всіх j
і. Цей випадок стосується
каналу з малими завадами, які не можуть
спотворити повідомлення аі
джерела А
так, щоб спостерігач В
помилився під час
розпізнавання стану джерела В
та вибору повідомлення
bi.
Наведені вище умови означають повний збіг ансамблів А та В (нагадаємо, що до ансамблю входять множина повідомлень і множина ймовірностей їх). А якщо це так, то середня кількість переданої інформації на одне повідомлення Н(А) при повній відсутності інформаційних втрат дорівнює такій самій кількості прийнятої інформації H(В), тобто
(3.6)
Остання рівність випливає з того, що за наведених умов
(3.7)
Таким чином, кількість переданої інформації за відсутності завад дорівнює ентропії об'єднання джерел А та В або безумовній ентропії одного з них.
У разі повної статистичної незалежності джерел А та В, що характеризує високий рівень завад, коли повідомлення bi ніяк статистично не зумовлене повідомленням ai, маємо (див. п. 2.5)
Н(А|В) = Н(А); Н(В|А) = Н(В). (3.8)
При цьому ентропія об'єднання двох джерел становитиме
Н(А, В) = Н(В, А)=Н(А) + Н(В). (3.9)
У разі статистичної незалежності джерел А та В ніяка інформація від А до В через її повне спотворення не передається. Інформаційною мірою цього спотворення є умовна ентропія одного джерела відносно іншого, яка збільшується від нуля згідно з (3.7) до максимуму згідно з (3.8) у міру зростання статистичної зумовленості джерел А та В.
У проміжному випадку неабсолютної статистичної залежності джерел А та В завади деякою мірою спотворюють повідомлення, що статистичне відбивається у вигляді матриць ймовірностей перехресних переходів. При цьому умовна ентропія має певні рівні:
(3.10)
Ураховуючи викладене, кількість інформації, що передається в каналі, можна визначити так. Якщо джерело А вибрало певне повідомлення, то воно виробляє кількість інформації, що дорівнює H (А). Джерело В, вибравши повідомлення bj є В, за умови порушення повної статистичної залежності джерел А та В виробляє певну кількість інформації про джерело А, що міститься в джерелі В й дорівнює H(А|В).
Спостерігач В (приймальний пристрій), вибравши повідомлення bj є В, приймає також рішення про повідомлення ai є А, яке передавалося, що є одним із його завдань. Прийнявши таке рішення, він виробляє кількість інформації про джерело А, яка дорівнює H (А). Проте перед цим він уже одержав H (А|В) бітів інформації про це джерело, тому кількість переданої в каналі інформації про джерело А як кількість нового відсутнього знання визначається різницею
І(А, В) = Н(А)-Н(А|В). (3.11)
Вираз (3.11) збігається повністю з (3.6) за умови (3.7) при малих завадах і з урахуванням того, що за умови статистичної незалежності (3.8) джерел (великі завади в каналі)
І(А, В) = 0. (3.12)
Згадаємо, що H(А, В)=H(В, А); тому
Н(А) + Н(В|А) = Н(В) + Н(А|В). (3.13)
Знак рівності тут не зміниться, якщо від обох частин (3.13) відняти суму H (В|А) + H(А|В), тобто
Н(А)-Н(А|В) = Н(В)-Н(В|А), (3.14)
І(А, В) = І(В, А). (3.15)
Таким чином, інформаційні втрати при передачі інформації в каналі визначаються умовною ентропією одного джерела відносно іншого, а кількість переданої інформації — безумовною ентропією джерела та інформаційними втратами за виразом (3.11) або (3.15).
З урахуванням (3.11), (3.13) і (3.15) можна записати
І (А, В)=Н(А)-Н(А|В)=Н(А)-[Н(А, В)-Н(В)]=
= Н(А) + Н(В)-Н(А, В); (3.16)
I(В, А)=Н(В)-Н (В|А)=Н(В)-[Н(В,А)-Н(А)] =
= H(В) + Н(А) -Н(В, А).
Спостерігається повна симетрія цих виразів.