
- •1.1. Повідомлення та інформація
- •1.2. Моделі інформаційних систем
- •1.4. Предмет теорії інформації та кодування
- •2.2. Кількісна міра інформації
- •2.3. Ентропія та її властивості
- •2.4. Безумовна ентропія
- •2.5. Умовна ентропія
- •2.6. Ентропія об'єднання двох джерел
- •3.1. Продуктивність дискретного джерела та швидкість передачі інформації
- •4.1. Квантування сигналів
- •4.2. Інформаційні втрати
- •4.3. Продуктивність неперервного джерела та швидкість передачі інформації
- •IhlilhM
- •4.4. Пропускна здатність . . . .
- •5.1. Класифікація кодів і характеристики їх
- •5.4. Способи подання кодів
- •5.6. Основні теореми кодування для каналів
- •6.1. Класифікація первинних кодів
- •6.2. Нерівномірні двійкові первинні коди
- •6.2.1. Код морзе
- •6.2.2. Число-імпульсні коди
- •6.3. Рівномірні двійкові первинні коди
- •6.3.1. Числові двійкові коди
- •6.3.2. Двійково-десяткові коди
- •6.3.4. Двійково-шістнадцятковий код ;;.-,-.
- •6.3.5. Рефлексні коди
- •7.1. Двійкові коди,
- •7.1.2. Код із перевіркою на непарність
- •7.1.3. Код із простим повторенням
- •7.2. Недвійкові коди, що виявляють помилки
- •7.2.1. Код із перевіркою за модулем q
- •7.2.2. Код із повторенням
- •8"6 90472 "100562 І' • шТрИховє зОбраЖєння кодового сло-
- •8.1. Двійкові групові коди
- •8.1.1. Лінійний систематичний груповий (блоковий) код
- •8.1.2. Коди хеммінга
- •8.1.4. Коди боуза - чоудхурі - хоквінгема
- •8.1.5. Код файра
- •8.1.6. Код із багатократним повторенням
- •8.3.2. Узагальнений код хеммінга
- •8.3.3. Коди боуза - чоудхурі - хоквінгема
- •8.3.4. Коди ріда - соломона
- •8.3.6. Недвійковий ланцюговий код
- •9.1. Вірогідність передачі кодованих повідомлень
- •9.2. Стиснення інформації"
- •9.2.1. Способи стиснення даних при передачі
- •9.2.2. Способи стиснення даних при архівації
- •Збіжного рядка
- •9.3. Збільшення основи коду
- •0Сзезс99е8с0е1с10d1c242d5c3d2c6d8cbd6e8c0
- •VosooooooooooooooooOvJvJ
2.2. Кількісна міра інформації
Розглянемо докладніше деякі властивості дискретного джерела повідомлень та моделі його ансамблю.
Нехай дискретне джерело повідомлень складається з люди-ни-спостерігача та такого фізичного процесу, як колір неба. Якщо яскравого безхмарного дня в певну мить таким джерелом вибрано повідомлення «синій», то ніяких нових відомостей до наших знань про цей об'єкт воно не дасть, тобто можна сказати, що є повідомлення, але немає інформації, або її кількість дорівнює нулю.
Якщо ж за цих самих обставин джерелом вибрано якесь інше повідомлення про колір неба (наприклад, «зелений»), то воно
22
23
дасть нові відомості про спостережуваний об'єкт, які додадуть до наших знань щось нове. Тоді можна сказати, що є повідомлення і в ньому є якась кількість інформації.
Зараз інформацію на якісному рівні інтуїтивно можна визначити як нове знання про стан спостережуваного об'єкта, а її кількість — як кількість нового знання про нього. Звичайно^ якщо нове знання збільшує загальний рівень знання про стан об'єкта, то кількість інформації має накопичуватися додаванням і повинна мати адитивний характер. З іншого боку, спостерігач у певний момент часу нічого не знає про новий стан об'єкта. Він тільки спостерігає його і, лише вибравши нове повідомлення, дозволяє дістати якесь нове знання про об'єкт. Можна сказати, що до вибору повідомлення джерелом невизначеність стану об'єкта з боку спостерігача має певний рівень.
Після вибору повідомлення джерелом утворюється деяка кількість інформації про стан спостережуваного об'єкта, яка певною мірою зменшує цю невизначеність.
Розглянемо, дещо ускладнивши, відомий приклад, пов'язаний з грою в шахи. Нехай дискретне джерело повідомлень складається з шахівниці з фігурами та спостерігача, який у певні моменти часу повинен фіксувати стан справ на шахівниці та передавати його у вигляді повідомлень. Дискретність такого джерела визначається дискретністю та черговістю дій гравців, внаслідок чого змінюється стан спостережуваного об'єкта.
Припустимо, що спостерігач починає фіксувати стан гри на шахівниці з певного моменту після чергового ходу (тобто після чергової зміни позицій). Він має вибрати одне з множини А можливих повідомлень. Які ж відомості він повинен включити до повідомлення? Звичайно, перелік усіх наявних фігур на шахівниці та положення їх на полі (тобто координати кожної позиції) на даний момент часу. Закони побудови повідомлень з множини А можуть бути різними: за мовою, знаками чи символами, складом елементів повідомлення тощо. Визначимося з елементами повідомлення. Як уже з'ясовано вище, елементами повідомлення з множини А мають бути: а) зазначення гравця або кольору фігури; б) зазначення самої фігури (яка саме фігура) або її відсутності; в) відомості про її позицію або клітинку шахівниці, про яку йдеться.
Спостерігач може закодувати елементи повідомлення звичайною мовою або якимись літерами, символами, ієрогліфами тощо. Наприклад, елемент а (білий або чорний) можна закодувати (позначити) цифрами 0 і 1 відповідно; елемент б (відсутність або назву відповідної фігури) — звичайними цифрами. Скажімо, відсутність будь-якої шахової фігури можна позна-
чити цифрою 0, а наявність пішака — 1, слона — 2, коня — З, тури — 4, ферзя — 5, короля — 6 (відомо, що ці фігури в шаховій літературі теж позначаються символами, але літерними).
Позицію шахової фігури можна позначити координатами клітинки, як прийнято в грі. При цьому знадобляться вісім позначок для визначення рядка клітинки та стільки ж позначок для визначення самої клітинки в рядку. Цими позначками можуть бути цифри 0, 1, 2,..., хоча й не обов'язково. Тоді, наприклад, таке повідомлення спостерігача, як 0368 означає, що йдеться про білу (позначка 0 на першій позиції) фігуру під назвою «кінь» (позначка 3 на другій позиції), розміщену на восьмій клітинці шостого рядка.
Множина А містить стільки повідомлень, скільки взагалі може бути подібних цифрових записів у цьому форматі. При такому форматі всього може бути 2x7x8x8 = 896 повідомлень, тобто в множині A j є два повідомлення на першій позиції, сім — на другій та по вісім — на третій і четвертій позиціях.
Розглянемо трохи інший формат повідомлень спостерігача. Нехай він містить два, а не чотири елементи, як у попередньому випадку: перший — це факт відсутності шахової фігури (символ 0) або зазначення однієї з 12 фігур (шість чорних і стільки ж білих), відображеної цифрами від 1 до 12; другий — це просто номер однієї з 64 клітинок шахівниці, що розглядається. Таким чином, перший елемент повідомлення може мати 13 значень, а другий — 64, тобто в множині А2 є 13 х 64 = 832 повідомлення. Наприклад, повідомлення 037 означає, що на 37-й клітинці шахівниці немає ніякої фігури, а повідомлення 936 свідчить про те, що на 36-й клітинці розміщується, скажімо, білий кінь (цифра 9 позначає саме білого коня).
Така помітна різниця між кількістю можливих повідомлень (896 у першому та 832 в другому форматах) пояснюється дуже просто: в першому форматі до множини А { включено абсурдні повідомлення із взаємовиключними елементами. Це повідомлення, в яких зазначено колір фігури, факт її відсутності та координати шахової клітинки. Якщо за відсутності фігури на кожній з 64 клітинок перший формат дає змогу вказати колір фігури, то таких повідомлень має бути 128 (по 64 на кожний колір). Однак половина цих 128 повідомлень є зайвими. Звісно, немає значення, якого кольору фігура відсутня на даній клітинці. Має значення сам факт відсутності фігури, тому достатньо лише 64 таких повідомлень.
Отже, бачимо, що із 896 повідомлень 64 є зайвими, які потрібно виключити з множини A v Тоді А х = 896 - 64 = 832 = А2. Таким чином, якщо спостерігач не повинен вибирати абсурдні повідомлення, то кількість можливих повідомлень дискрет-
24
25
ного джерела за обома форматами має бути однаковою, тобто А] = А2.
Можна сказати, що кількість інформації в повідомленні про стан такого спостережуваного об'єкта, як шахівниця, незалежно від побудови цього повідомлення (чи то з множини Av чи то з множини А2) залишається однаковою. Якщо перекодува-ти повідомлення про певний стан об'єкта в інших символах, скажімо, двійкових, то для повідомлення з множини A j потрібно 10 цифр: одна — колір шахової фігури (це 0 або 1) та по три — її назва, номер рядка і номер клітинки в рядку. Для повідомлення з множини А2 також потрібно 10 цифр: чотири — назва фігури чи її відсутність і шість — номер клітинки. З іншого боку, кількість повідомлень A j = А 2 = 832 можна подати в двійковій формі, що потребує теж 10 двійкових цифр, оскільки задовольняється нерівність 210 > 832 > 29.
Таким чином, на інтуїтивному, якісному рівні можна дійти висновку, що кількість інформації може бути нульовою або мати якесь ненульове значення, повідомлення можна порівнювати за кількістю інформації в них, кількість інформації має накопичуватись додаванням, якщо складність повідомлення зростає.
Отже, розгляд дискретного джерела та множини його повідомлень приводить до формулювання таких природних вимог для визначення кількості інформації:
у повідомленні про вірогідний випадок вона має дорівнювати нулю;
у двох незалежних повідомленнях вона має дорівнювати сумі кількостей інформації в кожному з них;
вона не повинна залежати від якісного змісту повідомлення (ступеня його важливості, відомостей тощо).
Про зміст і значення першої вимоги йшлося вище. Друга вимога має на увазі статистично не зумовлені повідомлення. Скажімо, в наведених прикладах з шахами на формування елементарних повідомлень із множини А, потрібно мати таку кількість двійкових цифр: 1; 3; 3; 3, а повідомлень із множини А2 — 4 та 6. Однак складне повідомлення з обох множин потребує 10 двійкових цифр, що дорівнює сумі кількостей цифр в обох випадках.
Третя вимога зумовлена необхідністю абстрагуватися від конкретного змісту повідомлення заради досягнення найзагаль-нішого характеру визначення кількості інформації.
Таким чином, для визначення кількості інформації в повідомленні треба виходити з найзагальнішої його характеристики. Таку характеристику, очевидно, дає модель джерела — ансамбль повідомлень.
Вище ми користувалися лише множиною повідомлень з ансамблю. Звернімо тепер увагу на множину ймовірностей цих повідомлень р (а) є Р. Якщо йдеться про вірогідний випадок, імовірність якого/? (а) = /?, = 0 або/?, = 1 (ніколи не відбудеться неможливий випадок або точно відбудеться), то кількість інформації в ньому І(а() = 0, оскільки рівень невизначеності щодо стану об'єкта після вибору джерелом такого повідомлення не змінився. Якщо ж джерело вибере не таке вже наперед визначене повідомлення, то рівень невизначеності щодо стану об'єкта знизиться. Отже, кількість інформації в повідомленні має бути функцією ймовірності цього повідомлення, тобто І (at) =f(pt),
Я,-Є A,Pg€ P.
Для задоволення другої вимоги можна врахувати, що ймовірність двох незалежних повідомлень ахтг.а2 за законом множення ймовірностей р (av a2) -р(а\)р (сг2). Проте кількість інформації у цих двох повідомленнях
і(а1,а2) = і(а1) + і(а2). (2.1)
Звідси випливає необхідність вибору такої функції/(pt), значення якої при перемноженні її аргументів/?, додавалися б і щоб /(0) =/(1) = 0. Єдиною функцією з такими властивостями є логарифмічна функція
Ца) = к log р(а}9 (2.2)
де к — коефіцієнт, який узгоджує розмірності (згадаємо обговорення розмірів і мір для кожного з них), а логарифм береться за будь-якою зручною основою.
При такому визначенні кількості інформації задовольняються всі три наведені вище вимоги. Вибір основи логарифма не принциповий, тому що від неї залежить лише одиниця фізичної величини (змінюється значення к):
кх logmp (a) = kx logm n \ognp (а) = к2 \ognp (a). (2.3)
Для того щоб кількість інформації / виражалась додатним числом, покладемо к = -1, оскільки р (а) < \ та log p (а) < 0, якщо основа логарифма більша від одиниці. Тоді
I(a) = -\ogp(a) = \og(\lp(a)). (2.4)
За основу логарифма найчастіше вибирають двійку. При цьому одиниця кількості інформації називається двійковою, або бітом (Binary digit). Вона дорівнює кількості інформації в повідомленні про такий випадок, який з однаковою ймовірністю може як відбутися, так і не відбутися, тобто коли моделлю
26
27
Щ
2,0
т еталонного джерела є ансамбль Л = Ц,д2}та/>={0,5;0,5}.
Якщо за основу логарифма
вибрано число є, то така одини-
°>6 ця інформації називається нашу-
рольною. W Таким чином, кількість інфор мації в повідомленні тим більша, 0,2 чим воно менш ймовірне, тобто більш неочікуване. Цю залеж- 0 ність відображено на рис. 2.2 0,2 0f4 Ofi Ofi p(a) кривою 1. Лінія 2, тобто графік Рис. 2.2 Р (а) = Р (я)> на цьому рисунку
знадобиться далі. Коли джерело інформації породжує послідовність взаємозалежних повідомлень, то здобуття кожного з них змінює ймовірність наступних, а отже, кількість інформації / в них. Остання має вже визначатися умовною ймовірністю вибору джерелом цього повідомлення ап, якщо до нього вибрано повідомлення
ап-1>ап-2> •••> Т°бТ0
1(<ап!%-х^п^ ...) = \og[\ Ip(anlan_van_29 ...)]. (2.5)
Визначена таким чином кількість інформації є величиною випадковою тому, що самі повідомлення випадкові. Розподіл її ймовірностей визначається розподілом повідомлень у цьому ансамблі.
Якщо припустити статистичну незалежність та однакову ймовірність повідомлень у наведеному вище прикладі стосовно шахів^і визначити ймовірність кожного повідомлення як Р (*/) ~Рі= 1/832, то згідно з (2.4) кількість інформації в одному такому повідомленні в бітах становитиме
/ (а) = -log2p. = log2 (1 /Рі) = log2 832 - 9,70044.
Як бачимо, це відповідає майже 10 двійковим символам, потрібним для запису такого повідомлення або формулювання його спостерігачем.
Фрагмент таблиці значень двійкових логарифмів цілих чисел уміщено в дод. 1.