- •4.5 Контрольні питання 87
- •5.5 Контрольні питання 97
- •6.5 Контрольні питання 127
- •2Основні поняття теорії інформації
- •2.1Загальні положення
- •2.2Кругообертання інформації
- •2.3Класифікація інформації
- •2.4Структурні перетворення інформації
- •2.5Фази усунення надлишковості інформації
- •2.6Контрольні питання
- •3Інформаційна метрика
- •3.1Якісні і кількісні оцінки інформації
- •3.2Структурні міри інформації
- •3.2.1Загальна характеристика структурної метрики
- •3.2.2Геометрична міра інформації
- •3.2.3Комбінаторна міра інформації
- •3.2.4Адитивна міра (міра Хартлі)
- •3.2.5Специфіка структурної оцінки кількості інформації
- •3.2.6Інформаційна ємність
- •3.3Статистичні міри інформації
- •3.3.1Відповідність між ймовірністю і інформацією
- •3.3.2Ентропія як міра невизначеності
- •3.3.3Ентропія ансамблю (безумовна ентропія)
- •3.3.4Ентропія об’єднання, умовна ентропія
- •Ентропія безперервного джерела інформації (диференціальна ентропія)
- •3.3.5Кількість інформації як міра зняття невизначеності
- •3.4Кількість інформації і її надлишковість
- •3.5Оцінка якості виміру н контролю
- •3.6Семантичні міри інформації
- •3.6.1Поняття семиотика
- •3.6.2Змістовність інформації
- •3.6.3Доцільність інформації
- •3.6.4Динамічна ентропія
- •3.6.5Істотність інформації
- •3.7Контрольні питання
- •4Характеристики дискретних джерел інформації
- •4.1Продуктивність дискретного джерела та швидкість передачі інформації
- •4.2Інформаційні втрати при передачі інформації по дискретному каналу
- •4.3Пропускна здатність дискретного каналу
- •4.4Теорема Шеннона
- •4.5Контрольні питання
- •5Характеристики неперервних джерел інформації
- •5.1Квантування сигналів
- •5.2Інформаційні втрати при дискретизації неперервних джерел
- •5.3Продуктивність неперервного джерела та швидкість передачі інформації
- •5.4Пропускна здатність неперервного каналу
- •5.5Контрольні питання
- •6Кодування інформації
- •6.1Загальні поняття і визначення
- •6.2Кодування як процес представлення інформації в цифровому вигляді
- •6.3Ефективне кодування
- •6.4Кодування інформації для каналу з завадами
- •6.4.1Загальні поняття теорії завадостійкого кодування
- •6.4.2Різновиди завадостійких код
- •6.4.3Загальні принципи використання надлишковості
- •6.4.4Кодова відстань
- •6.5Контрольні питання
- •Перелік використаних джерел
3.3.5Кількість інформації як міра зняття невизначеності
Передача інформації ініціюється або самим джерелом інформації, або здійснюється за запитом. Вона диктується бажанням усунути невизначеність щодо послідовності станів, що реалізовуються деяким джерелом інформації. Зазвичай запит обумовлений відсутністю можливості спостерігати стани джерела безпосередньо. Тому абонент звертається до інформаційної системи, яка витягує інформацію, що цікавить його, з джерела за допомогою деякого первинного перетворювача і направляє її по каналу зв'язку абонентові.
Інформація виявляється завжди у формі сигналів. Сигнали z, що поступають з виходу первинного перетворювача джерела інформації на вхід каналу зв'язку, прийнято називати повідомленнями на відміну від сигналу u, що формуються на вході лінії зв'язку. Залежно від форми створюваних повідомлень розрізняють джерела дискретних і безперервних повідомлень.
Окремі первинні сигнали з виходу джерела дискретних повідомлень називають елементами повідомлення. Кожному елементу повідомлення відповідає певний стан джерела інформації. В разі паралельної реалізації джерелом інформації множині станів, як це має місце, наприклад, в документах з друкарським текстом, первинний перетворювач, зокрема, забезпечує їх послідовне відображення елементами повідомлення. Таким перетворювачем може бути як автоматичний пристрій, що читає, так і людина.
Основне поняття теорії інформації - кількість інформації – тут розглядується стосовно передачі окремих статистично незв'язаних елементів повідомлення. Дискретне джерело повідомлень при цьому повністю характеризується ансамблем
,
а безперервний - одновимірною щільністю розподілу випадкової величини – ..
Передача інформації від дискретного джерела. Можна з’ясувати, наскільки змінюватиметься невизначеність щодо стану джерела повідомлення при отриманні адресатом елементу повідомлення з виходу каналу зв'язку. Алфавіти елементів повідомлення, що передаються і приймаються є ідентичними.
Унаслідок дії завад отриманий елемент повідомлення відрізняється від переданого. Щоб підкреслити цю відмінність. позначимо елементи повідомлення що приймаються іншими буквами,: .
Апріорна невизначеність (невизначеність до отримання елементу повідомлення) щодо стану джерела не є повною. Передбачається, що адресатові відомий алфавіт елементів повідомлення, і з минулого досвіду він знає ймовірності появи його елементів. Вважаючи, що стани джерела реалізуються незалежно, апріорна часткова невизначеність появи елементу повідомлення
де – апріорна ймовірність появи елементу повідомлення .
Передбачаються що відомі деякі відомості щодо завади в каналі зв'язку. Зазвичай вважають, що між елементами повідомлення і завадою статистичні зв'язки відсутні, спотворення окремих елементів повідомлення є подіями незалежними і адресатові відома лише сукупність умовних ймовірностей того, що замість елементу повідомлення , буде прийнятий елемент повідомлення .
При отриманні конкретного елементу повідомлення , адресатові стає відомим значення умовної ймовірності , що називається апостеріорною (послядослідною) ймовірністю реалізації джерелом елементу повідомлення . Це дозволяє знайти апостеріорну часткову невизначеність, що залишається у адресата щодо видачі джерелом елементу повідомлення після отримання конкретного елементу повідомлення .
. (2.69).
Оскільки отримання інформації пов'язане із зменшенням невизначеності, природно визначити часткову кількість інформації , що отримується при прийомі елементу повідомлення щодо деякого реалізованого джерелом елементу повідомлення як різниця часткових невизначеностей, що були у адресата до і після отримання елементу повідомлення (апріорною і апостеріорною):
. (2.70)
Аналіз виразу (2.70) дозволяє зробити наступні висновки:
1) часткова кількість інформації зростає із зменшенням апріорної і збільшенням апостеріорною ймовірності реалізації елементу повідомлення джерелом;
2) часткова кількість інформації про елемент повідомлення може бути не лише позитивною, але і негативною, а також нулем, що залежить від співвідношення апріорної і апостеріорної ймовірностей. Якщо ймовірність того, що джерелом був реалізований елемент повідомлення збільшилася після прийому елементу повідомлення, тобто , то отримана часткова кількість інформації позитивна. Якщо ця ймовірність не змінилася, тобто , то невизначеність, що мала місце, теж не змінилася і часткова кількість інформації дорівнює нулю. Випадок відповідає збільшенню невизначеності щодо реалізації після отримання елементу повідомлення, і, отже, часткова кількість інформації негативна.
3) в разі відсутності завади апостеріорна ймовірність . При цьому часткова кількість інформації чисельно збігається з частковою апріорною невизначеністю реалізації даного елементу повідомлення :
.
Це максимальна часткова кількість інформації, яку можна отримати про елемент повідомлення ;
4) часткова кількість інформації щодо реалізації джерелом елементу повідомлення , що міститься в прийнятому елементі повідомлення , дорівнює частковій кількості інформації відносно , що міститься в елементі повідомлення :
. (2.71)
Хоча мають місце випадки, де важливо оцінити часткову кількість інформації, для завдань аналізу і оптимізації функціонування інформаційних систем більш раціональними є усереднені характеристики, що відображають статистичні властивості джерела інформації і каналу зв'язку.
До отримання конкретного елементу повідомлення середня невизначеність, що є у адресата, щодо реалізації джерелом будь-якого елементу повідомлення дорівнює ентропії джерела:
. (2.72)
Її ще називають апріорною ентропією джерела.
Середня невизначеність щодо будь-якого стану джерела, що залишається у адресата після отримання конкретного елементу повідомлення, характеризується частковою умовною ентропією :
. (2.73)
Це випадкова величина, залежна від того, який конкретно елемент повідомлення прийнятий.
Середня невизначеність по всьому ансамблю елементів повідомлень, що приймаються, дорівнює умовній ентропії джерела :
. (2.73)
Цю умовну ентропію називають апостеріорною ентропією джерела інформації.
Таким чином, за наявності завад середня кількість інформації, що міститься в кожному прийнятому елементі повідомлення, щодо будь-якого переданого дорівнює різниці апріорної і апостеріорної ентропії джерела:
. (2.74)
Представивши апріорну і апостеріорну ентропії відповідно виразами (2.28) і (2.73) і провівши нескладні перетворення, отримаємо формулу для кількості інформації безпосередньо через ймовірності
. (2.75)
Якщо частковий характер кількості інформації спеціально не обмовлено, то мається на увазі що кількість інформації приходиться в середньому на один елемент повідомлення. Тому вказівка про усереднення опускається.
Передача інформації від безперервного джерела. Кількість інформації, що отримується від безперервного джерела по каналу з завадами, визначається аналогічно дискретним джерелам, але з використанням поняття диференціальної ентропії.
Для джерела, що має безперервну множину станів, середня кількість інформації, що міститься в кожнім прийнятим значенням випадкової величини W відносно переданого значення випадкової величини Z, можна отримати як різниця апріорною і апостеріорною диференціальних ентропій:
. (2.76)
Співвідношення (2.76) нескладно представити у вигляді, подібному (2.75):
. (2.77)
Відносність диференціальних ентропій в цьому випадку не береться до уваги, оскільки кількість інформації не залежить від вибраного стандарту порівняння.