- •1.1. Повідомлення та інформація
- •1.2. Моделі інформаційних систем
- •1.4. Предмет теорії інформації та кодування
- •2.2. Кількісна міра інформації
- •2.3. Ентропія та її властивості
- •2.4. Безумовна ентропія
- •2.5. Умовна ентропія
- •2.6. Ентропія об'єднання двох джерел
- •3.1. Продуктивність дискретного джерела та швидкість передачі інформації
- •4.1. Квантування сигналів
- •4.2. Інформаційні втрати
- •4.3. Продуктивність неперервного джерела та швидкість передачі інформації
- •IhlilhM
- •4.4. Пропускна здатність . . . .
- •5.1. Класифікація кодів і характеристики їх
- •5.4. Способи подання кодів
- •5.6. Основні теореми кодування для каналів
- •6.1. Класифікація первинних кодів
- •6.2. Нерівномірні двійкові первинні коди
- •6.2.1. Код морзе
- •6.2.2. Число-імпульсні коди
- •6.3. Рівномірні двійкові первинні коди
- •6.3.1. Числові двійкові коди
- •6.3.2. Двійково-десяткові коди
- •6.3.4. Двійково-шістнадцятковий код ;;.-,-.
- •6.3.5. Рефлексні коди
- •7.1. Двійкові коди,
- •7.1.2. Код із перевіркою на непарність
- •7.1.3. Код із простим повторенням
- •7.2. Недвійкові коди, що виявляють помилки
- •7.2.1. Код із перевіркою за модулем q
- •7.2.2. Код із повторенням
- •8"6 90472 "100562 І' • шТрИховє зОбраЖєння кодового сло-
- •8.1. Двійкові групові коди
- •8.1.1. Лінійний систематичний груповий (блоковий) код
- •8.1.2. Коди хеммінга
- •8.1.4. Коди боуза - чоудхурі - хоквінгема
- •8.1.5. Код файра
- •8.1.6. Код із багатократним повторенням
- •8.3.2. Узагальнений код хеммінга
- •8.3.3. Коди боуза - чоудхурі - хоквінгема
- •8.3.4. Коди ріда - соломона
- •8.3.6. Недвійковий ланцюговий код
- •9.1. Вірогідність передачі кодованих повідомлень
- •9.2. Стиснення інформації"
- •9.2.1. Способи стиснення даних при передачі
- •9.2.2. Способи стиснення даних при архівації
- •Збіжного рядка
- •9.3. Збільшення основи коду
- •0Сзезс99е8с0е1с10d1c242d5c3d2c6d8cbd6e8c0
- •VosooooooooooooooooOvJvJ
4.2. Інформаційні втрати
ПРИ КОДУВАННІ НЕПЕРЕРВНИХ ДЖЕРЕЛ
Стосовно неперервного джерела на відміну від дискретного можна говорити про нескінченний алфавіт повідомлень, кожне з яких відрізняється від сусідніх на нескінченно малу величину, та нескінченний ансамбль повідомлень. Однак у цьому разі замість імовірностей окремих повідомлень з алфавіту прийнято говорити про диференціальний закон розподілу ймовірностей w(x) випадкової величини х. Інакше w(x) називається функцією розподілу щільності ймовірностей неперервного нові-домлення. При цьому кількість інформації, наявна в прийнятому неперервному повідомленні, як і раніше визначається різницею значень ентропії (невизначеності) джерела повідомлень до та після одержання повідомлення.
Нехай щільність імовірності w(x) має вигляд, показаний на рис. 4.6. Проквашуємо за рівнем випадкову величину х із дис-кретою Ах. Імовірність того, що хп < х < хп+1, становить p(xt) = = w(xt)Ax% тобто визначається площею S( прямокутника:
yj(x/) = S/ Jw(x)dx = w(xi)Axi. (4.2)
65
(4.3)
(4.5)
j w(x)dx = \.
Ентропія такого штучно утвореного дискретного джерела визначається так, як викладено в п.2.3, а саме [18]:
к к
HaM = -1Zp(xi)logp(xi) = -1Zw(xi)Axlog[w(xi)Ax] = i=l i=l
к к
= -X w(x; )Ax log w(x;) - £ w(*i )A* log A* = (4.4)
/=l /=l
к к
= -X[n;(x/)logw(x/)]Ax-logAxXw(x/)Ax. i=l i=i
Зробимо зворотний перехід до неперервного джерела через спрямування Ах до 0 та граничний перехід [18]:
Я(х)= lim {Яд(х)}= lim |-ІНх/)1оЕи;(х/)]Ах+ Ajc->0 Дх->0[ /=1
+ lim j-logAx^Kx^Ax^ Дл-->01 /=і
= -J vv(x)logw(x)</x-limlogAx , -«» Ajc—>0
оскільки згідно з (4.3)
& °°
lim Xw(x/)^= Jw(x>/x = l. Дх->0/=1 .оо
Друга складова в (4.5) прямує до нескінченності. Отже, ентропія Н(х) неперервного джерела має дорівнювати нескінченності, тобто точне подання випадкового відліку неперервного джерела (одного його повідомлення) потребує нескінченної кількості, скажімо, двійкових розрядів, тому що несе нескінченну кількість інформації. Проте в реальних умовах відлік неперервних повідомлень на приймальному боці виконують у дискретних точках хп, хп+1,... (див. рис. 4.6). Це зумовлено скінченною точністю та роздільною здатністю технічних засобів (здатністю їх розрізняти хп і хп+1 при Ах —> 0). За цих обставин величина Ах є малою, але має скінченне значення.
Таким чином, вираз (4.5) ентропії неперервного джерела має дві складові, одна з яких визначається законом неперервного розподілу ймовірностей, а інша — допустимою точністю (похибкою) Ах кодування неперервного джерела.
Перша складова
оо
h(x) = - jw(x)\ogw(x)dx (4.6)
—оо
називається диференціальною ентропією, що залежить від статистичних властивостей неперервного джерела. Якщо про-нормувати х, щоб зробити цю величину безрозмірною, то можна визначити h{x) у двійкових одиницях (при цьому основа логарифма має дорівнювати двом).
Друга складова зовсім не залежить від статистики джерела, а визначається лише дискретністю квантування Ах неперервного повідомлення.
Можливий стан джерела повідомлень до одержання повідомлення у на виході каналу визначається розподілом w(x), a після одержання відліку з неперервного ансамблю у на виході — неперервним законом розподілу умовної імовірності w(x/y), за яким можна знайти умовну ймовірність, користуючись поняттям елементарної площини АхА^ та роблячи, як і раніше, граничний перехід Ах —> 0, Ау —> 0. Як і в (4.5), загальна умовна ентропія Щхіу) дорівнює нескінченності, але кількість інформації в цьому відліку, як і раніше, дорівнює різниці безумовної та умовної ентропії джерела відносно виходу каналу, тобто
I(x,y) = H(x)-H(x/y) = h(x)-h(x/y) =
оо оо оо (4.7)
= -J w(x)logw(x)dx + j jw(x, y)logw(x/y)dxdy,
—oo —oo —oo
де w(x, у) — сумісна щільність імовірності значення відліку у та фактичного значення неперервного повідомлення на виході каналу. Тут А(х), h(xly) — безумовна й умовна диференціальна ентропія джерела.
Друга складова lim log Ах в Я(х) та Щх/у) виявляється од-
Дл'->0
маковою і при відніманні в (4.7) зникає.
Таким чином, кількість інформації в одному відліку, що передається неперервним каналом, визначається різницею безумовної та умовної диференціальної ентропії неперервного джерела відносно виходу каналу, причому вираз h(x/y) характеризує інформаційні втрати на один відлік при кодуванні неперервного джерела.
У теорії вимірювання випадкових величин користуються іншою кількісною мірою інформації — епсилон-ентропією. Припустимо, що випадкова величина Умістить інформацію про іншу випадкову величину X — дійсне значення вимірюваної величини, тобто Yє відліком Xу певних одиницях. За цієї умо-
66
67
им мінімальна кин.ккіь інформації про Л, яка ми іипа н м ) і потрібна для того, щоб за К відтворити X пссрсдпмшнадра пічною похибкою, що не перевищує є2 (де е > 0 — наперед задана величина), називається епсилон-ентропією:
(у^х)2 <е2.
При цьому мінімум кількості інформації відшукується за всі-Ш законами розподілу ймовірностей w(X/Y), тобто
#Є(Л = min [H(X)-H(XIY)]
w(XIY)
Цю величину, як правило, подають у вигляді
Н£(Х) = min
jjw(X,Y)\og
^Yrl,dXdY,
w(X/Y)JJ w(X)w(Y)
де w(X, Y) — сумісна щільність розподілу ймовірностей X і Y; w(X), w(Y) — одновимірні щільності розподілу цих імовірностей.
