- •4.5 Контрольні питання 87
- •5.5 Контрольні питання 97
- •6.5 Контрольні питання 127
- •2Основні поняття теорії інформації
- •2.1Загальні положення
- •2.2Кругообертання інформації
- •2.3Класифікація інформації
- •2.4Структурні перетворення інформації
- •2.5Фази усунення надлишковості інформації
- •2.6Контрольні питання
- •3Інформаційна метрика
- •3.1Якісні і кількісні оцінки інформації
- •3.2Структурні міри інформації
- •3.2.1Загальна характеристика структурної метрики
- •3.2.2Геометрична міра інформації
- •3.2.3Комбінаторна міра інформації
- •3.2.4Адитивна міра (міра Хартлі)
- •3.2.5Специфіка структурної оцінки кількості інформації
- •3.2.6Інформаційна ємність
- •3.3Статистичні міри інформації
- •3.3.1Відповідність між ймовірністю і інформацією
- •3.3.2Ентропія як міра невизначеності
- •3.3.3Ентропія ансамблю (безумовна ентропія)
- •3.3.4Ентропія об’єднання, умовна ентропія
- •Ентропія безперервного джерела інформації (диференціальна ентропія)
- •3.3.5Кількість інформації як міра зняття невизначеності
- •3.4Кількість інформації і її надлишковість
- •3.5Оцінка якості виміру н контролю
- •3.6Семантичні міри інформації
- •3.6.1Поняття семиотика
- •3.6.2Змістовність інформації
- •3.6.3Доцільність інформації
- •3.6.4Динамічна ентропія
- •3.6.5Істотність інформації
- •3.7Контрольні питання
- •4Характеристики дискретних джерел інформації
- •4.1Продуктивність дискретного джерела та швидкість передачі інформації
- •4.2Інформаційні втрати при передачі інформації по дискретному каналу
- •4.3Пропускна здатність дискретного каналу
- •4.4Теорема Шеннона
- •4.5Контрольні питання
- •5Характеристики неперервних джерел інформації
- •5.1Квантування сигналів
- •5.2Інформаційні втрати при дискретизації неперервних джерел
- •5.3Продуктивність неперервного джерела та швидкість передачі інформації
- •5.4Пропускна здатність неперервного каналу
- •5.5Контрольні питання
- •6Кодування інформації
- •6.1Загальні поняття і визначення
- •6.2Кодування як процес представлення інформації в цифровому вигляді
- •6.3Ефективне кодування
- •6.4Кодування інформації для каналу з завадами
- •6.4.1Загальні поняття теорії завадостійкого кодування
- •6.4.2Різновиди завадостійких код
- •6.4.3Загальні принципи використання надлишковості
- •6.4.4Кодова відстань
- •6.5Контрольні питання
- •Перелік використаних джерел
3.4Кількість інформації і її надлишковість
Кількість інформації лише тоді дорівнює ентропії коли невизначеність ситуації знімається повністю.
У загальному випадку потрібно вважати, що кількість інформації є зменшення ентропії унаслідок досвіду або якого-небудь іншого акту пізнання.
Якщо невизначеність знімається повністю, то інформація дорівнює ентропії
.
В разі неповного зняття невизначеності має місце часткова інформація, що є різницею між початковою і кінцевою ентропією:
. (2.78)
Найбільша кількість інформації виходить тоді коли повністю знімається невизначеність, причому ця невизначеність була найбільшою коли ймовірність всіх подій була однакова. Це відповідає максимально можливій кількості інформації , що оцінюється мірою Хартлі
(2.79)
де - число подій, а р - ймовірність їх реалізації в умовах рівної імовірності всіх подій. Таким чином
. (2.80)
Абсолютна надлишковість інформації є різницею між максимально можливою кількістю інформації і ентропією
,
або
. (2.81)
Частіше використовують поняття відносної надлишковості: . (1-29)
Ілюструючи поняття надлишковості, обмежимося розглядом спрощеної моделі: допустимо, що статистичні властивості інформації побічно враховуються через постійні і змінні складові якого-небудь фізичного процесу. Тоді, виражаючи відносну надлишковість, можна визначати інформацію в будь-яких одиницях , наприклад підраховувати кванти в даному комплексі інформації.
Користуючись таким спрощеним підходом, визначимо надлишковість для декількох прикладів інформаційних систем.
Приклад 2.15.
Нехай повна шкала виміру містить елементарних одиниць (квантів), але допускається похибка, що дорівнює приблизно від повної шкали. Тоді , оскільки при похибцы квантів досить всю шкалу розділити на 50 квантів. В цьому випадку
.
Приклад 2.16.
Якщо для виміру використовується безперервна шкала, то при будь-яких, але кінцевих значеннях допустимої похибки. Тоді
.
тобто надлишковість інформації досягає максимуму.
Приклад 2.16.
Заданий процес, що протікає по графіку (рис. 2.8), причому достовірно відомо, що значення величини X на відрізку часу може змінюватися лише в межах ; значення містить 11 одиниць, а значення – 4 одиниці.
Рисунок 2.8 – Графік процесу
В цьому випадку відносна надлишковість буде
.
Ця надлишковість пояснюється тим, що постійна складова не поповнює інформації.
На ділянці величина взагалі не змінюється, і якщо відоме її початкове значення , то вся ынша інформація надлишкова.
Аналогічно, якщо на ділянці процес описується постійною складовою і синусоїдою з відомими амплітудою – , фазою і частотою, то інформація про цей процес не потрібна.
Приклад 2.17.
Процес представляється графіком (рис. 2.9.а). З врахуванням викладеного в прикладі 2.17 віднімається постійна складова (рис.2.9,б), синусоїдальна складова і необхідна інформація без надлишковості зводиться до показаної на рис.2.9,б.
Рисунок 2.9 – Усереднення надлишковості інформації
Приклад 2.18.
Аналіз інформаційної насиченості (приклад 2.13) показав,що у зв'язку з тим, що реальні джерела з одним і тим же розміром алфавіту можуть мати абсолютно різну ентропію (а це не лише тексти, але і мова, музика, зображення і так далі), буде відносна надлишковість інформації:
,
де H – ентропія реального джерела, – максимально досяжна ентропія для джерела з об'ємом алфавіту символів.
Наприклад, надлишковість літературного українського тексту складе
.
Іншими словами, при передачі тексту по каналу зв'язку кожні шість букв з десяти, що передаються не несуть ніякої інформації і можуть без всяких втрат просто не передаватися.
Такою ж, якщо не вищою ( ) надлишковістю володіють і інші джерела інформації - мова, і особливо музика, телевізійні зображення і так далі.
З розглянутих прикладів видно, наскільки неекономічно у ряді проводяться передача і реєстрація даних.
Необхідне удосконалення можна провести двома шляхами
1. Якщо весь об'єм інформації заздалегідь заданий або накопичений, то він поділяється на стандартні, заздалегідь зашифровані елементи, а потім передаються і реєструються лише знаки шифрів Так можна робити, наприклад, у тому випадку, коли результати випробування записані на діаграмній стрічці, але їх потрібно передати і відтворити в приймальному пункті найбільш економічним способом.
2. Якщо є поточна інформація, що надходить з давачів, то використовуються аналізуючи прилади, які безперервно визначають частотний спектр функцій, амплітудні переходи заданих рівнів квантування, взаємозв'язок попередніх показів з поточними і т. д., а потім впливають на пристрої оптимального кодування, передачі і реєстрації.