
- •Номінативна інформація 64
- •Номінативна інформація 73
- •Від автора
- •1. Вступ
- •2. Інформація та її теорії
- •2.1. Імовірнісна теорія інформації
- •2.2. Алгоритмічна теорія інформації
- •2.3. Семантична теорія інформації
- •3. Образи та інформація в кібернетичних системах
- •3.1. Кібернетичні системи
- •3.2. Образи та їх види
- •3.3. Інформація як образ
- •3.5. Види інформації
- •3.4. Одиниці вимірювання кількості інформації
- •4. Інформаційна структура повідомлення
- •4.1. Загальна структура повідомлення
- •4.2. Структура знакового (вербального) повідомлення
- •4.2.1. Інформаційні одиниці й рівні
- •4.2.2. Структура номена
- •4.2.3. Структура сентенції
- •4.2.4. Структура сюжету
- •4.3. Структура незнакового повідомлення
- •5. Вимірювання кількості інформації
- •5.1. Принципи вимірювання
- •5.2. Загальна методика вимірювання
- •5.3. Вимірювання кількості інформації у знакових (вербальних) повідомленнях
- •5.3.1. Номінативна інформація
- •5.3.2. Сентенційна інформація
- •5.3.3. Сюжетна інформація
- •5.3.4. Повна кількість інформації
- •5.4.1. Методика вимірювання
- •5.4.2. Типові програми розпізнавання
- •5.4.3. Надлишкова інформація
- •5.5. Ескпериментальна перевірка методу вимірювання
- •5.7. Ентропія повідомлення
- •5.8. Наслідки
- •5.9. Практичне застосування
- •6.2. Оцінювання кількості знакової (вербальної) інформації
- •6.2.1. Номінативна інформація
- •6.2.2. Сентенційна інформація
- •6.2.3. Сюжетна інформація
- •6.3. Оцінювання кількості незнакової інформації
- •7.1. Поняття новизни інформації
- •7.2. Інструменти оцінювання новизни інформації
- •7.3. Види нової інформації
- •7.4.2. Сентенційна інформація
- •7.4.3. Контекстна інформація
- •7.4.4. Реципієнтська інформація
- •7.4.5. Суспільна інформація
- •7.5. Оцінювання новизни незнакової інформації
- •7.6. Практичне застосування
- •8.1. Реальна, нереальна й невизначена інформація
- •8.2. Псевдоінформація, параінформація та метаінформація1
- •9.1. Поняття цінності інформації
- •9.4. Інформаційний шум
- •9.5. Практичне застосування
- •10.1. Сутність компресування
- •10.3. Компресування знакової (вербальної) інформації
- •10.5. Ступінь компресування інформації
- •10.4. Компресування незнакової інформації
- •10.6. Практичне застосування
- •12. Висновки
2. Інформація та її теорії
Традиційно під інформацією (від латинського informatio—роз’яснення, виклад, обізнаність) розуміють „одне з найзагальніших понять науки, яке означає певні відомості, сукупність якихось даних, знань і т. ін.”.
У наш час відомо три теорії інформації (ТІ), кожна з яких пропонує свої методи визначення її кількості.
2.1. Імовірнісна теорія інформації
Класична теорія інформації Р. Хартлі та К. Шеннона базується на теорії ймовірностей (далі — імовірнісна ТІ). Кількість інформації для рівноймовірних завершень випробувань в цій теорії вимірюється як логарифм від кількості можливих варіантів (N) завершення випробування:
/ = log N = log т” = п log m,
кількість можливих варіантів завершень випробування, тобто кількість можливих повідомлень; п — кількість розрядів у повідомленні (наприклад, 3); от — кількість символів в алфавіті (наприклад, два: 0 та 1).
Одиницею вимірювання кількості інформації служить біт.
Ця основна формула була вдосконалена К. Шенноном для випадку, коли завершення подій не є рівноймовірним: оскільки формула (1) Р. Хартлі / = log N внаслідок звичайних математичних перетворень дорівнює / = — log (1/W), де (1/N) є ймовірністю (р) завершення випробовування, то можна записати, що / = — log p.
Якщо ж завершення подій нерівноймовірне, то для варіанту завершення і кількість інформації в ньому становитиме:
/ = -p. log/?..
Застосування цієї формули показує, що чим менша ймовірність завершення варіанта і певного випробування, тим більше інформації він несе.
Кількість інформації у всіх випробуваннях експерименту визначають як арифметичну суму по всіх завершеннях і.
Ця математична модель досконало працює для тих випадків, коли мова йде про кодування інформації, тобто при передачі інформації каналами зв’язку чи її зберіганні на носіях інформації. Проте вона зовсім не працює, коли йдеться про визначення кількості інформації в об’єктах, позначених цими кодами. Покажемо це на прикладах.
Приклад. Визначаючи кількість інформації в літері Р, ця теорія1 зовсім не аналізує, що ця літера, по-перше, складається з двох компонентів: прямої лінії та півкола; по-друге, пряма та півколо з’ єднані між собою; по-третє, товщина лінії, яка утворює півколо, в різних точках є різною; по-четверте, пряма лінія нахилена під певним кутом тощо.
Приклад. Вимірюючи кількість інформації у слові мама, ця теорія визначає лише кількість інформації в літерах цього слова, тобто / а = (-рм log/?M) + (-pa log/>a)+ + (—pjogpj + (—pulogpj, проте зовсім не визначає, скільки інформації міститься в значенні цього слова (мама—людина, мама—жінка, мама — має двоє очей, ніг, рук і т. д., а конкретна моя мама має ще й певний вираз обличчя, колір очей, ріст, вагу тощо). Зрозуміло, що семантична інформація (що таке мама), тут повністю проігнорована, так само, як інші види інформації, що є в текстах — синтаксична, стилістична, граматична тощо2.
Приклад. Візьмемо дві сторінки газети. На першій — всі літери записані в ланцюжки на основі даних генератора випадкових чисел (з урахуванням частот появи літер і впливу на них контексту, як це має місце в реальних текстах); в ілюстраціях піксели (з чорним чи білим зображенням) записані на площині в порядку, заданому на основі того самого генератора випадкових чисел. При цьому вказана сторінка нічого спеціально не шифрує, тобто ключа до її розшифрування в принципі немає. На другій сторінці газети—осмислені тексти; ілюстрації є фотографіями об’єктів реального світу. Коли порівняти кількість інформації на цих двох сторінках за Шеннонівською теорією інформації, то виявиться, що вони є практично однаковими, хоча кожна людина з власного досвіду знає, що це не так.
Важливими вадами цієї теорії є те, що вона:
а) стосується вимірювання кількості інформації лише в технічних пристроях— каналах зв’язку та носіях інформації (наприклад, пам’яті комп’ютерів)
тощо1;
б) не має методів, які давали б можливість виміряти кількість інформації стосовно тих подій, які вже відбулися, оскільки їх імовірність завжди дорів нює одиниці (в цьому випадку /= 0);
в) не має методів, які давали б змогу виміряти кількість семантичної інформації не тільки в словах, реченнях, текстах, а й загалом у будь-яких знаках, що позначають образи (наприклад, географічних картах).