- •1.1. Повідомлення та інформація
- •1.2. Моделі інформаційних систем
- •1.4. Предмет теорії інформації та кодування
- •2.2. Кількісна міра інформації
- •2.3. Ентропія та її властивості
- •2.4. Безумовна ентропія
- •2.5. Умовна ентропія
- •2.6. Ентропія об'єднання двох джерел
- •3.1. Продуктивність дискретного джерела та швидкість передачі інформації
- •4.1. Квантування сигналів
- •4.2. Інформаційні втрати
- •4.3. Продуктивність неперервного джерела та швидкість передачі інформації
- •IhlilhM
- •4.4. Пропускна здатність . . . .
- •5.1. Класифікація кодів і характеристики їх
- •5.4. Способи подання кодів
- •5.6. Основні теореми кодування для каналів
- •6.1. Класифікація первинних кодів
- •6.2. Нерівномірні двійкові первинні коди
- •6.2.1. Код морзе
- •6.2.2. Число-імпульсні коди
- •6.3. Рівномірні двійкові первинні коди
- •6.3.1. Числові двійкові коди
- •6.3.2. Двійково-десяткові коди
- •6.3.4. Двійково-шістнадцятковий код ;;.-,-.
- •6.3.5. Рефлексні коди
- •7.1. Двійкові коди,
- •7.1.2. Код із перевіркою на непарність
- •7.1.3. Код із простим повторенням
- •7.2. Недвійкові коди, що виявляють помилки
- •7.2.1. Код із перевіркою за модулем q
- •7.2.2. Код із повторенням
- •8"6 90472 "100562 І' • шТрИховє зОбраЖєння кодового сло-
- •8.1. Двійкові групові коди
- •8.1.1. Лінійний систематичний груповий (блоковий) код
- •8.1.2. Коди хеммінга
- •8.1.4. Коди боуза - чоудхурі - хоквінгема
- •8.1.5. Код файра
- •8.1.6. Код із багатократним повторенням
- •8.3.2. Узагальнений код хеммінга
- •8.3.3. Коди боуза - чоудхурі - хоквінгема
- •8.3.4. Коди ріда - соломона
- •8.3.6. Недвійковий ланцюговий код
- •9.1. Вірогідність передачі кодованих повідомлень
- •9.2. Стиснення інформації"
- •9.2.1. Способи стиснення даних при передачі
- •9.2.2. Способи стиснення даних при архівації
- •Збіжного рядка
- •9.3. Збільшення основи коду
- •0Сзезс99е8с0е1с10d1c242d5c3d2c6d8cbd6e8c0
- •VosooooooooooooooooOvJvJ
2.6. Ентропія об'єднання двох джерел
Ентропію Н(А,В) об'єднання двох джерел А та В знаходимо через імовірність сумісної появи пар повідомлень а і, Ь- для всіх /=1.../: тау = 1... /, яку позначимор (я,, Ь). Для цього складемо матрицю типу (2.23), що визначає розподіл сумісної безумовної ймовірності двох джерел:
P(di,bj) =
P(ax,bx) p(a2,bx) p(a3,bx) ... p(ak,bx)~] P(a\>b2) p{a2,b2) p(a3,b2) ... p(ak,b2)\ ^35)
L/Kfli>6/) /K«2>fy) P(ai'bf) ■» />(**»*/) J
Оскільки р (я/5 b) — це ймовірність сумісної появи двох повідомлень, ентропія Н (А, В) є середньою кількістю інформації, що припадає на два довільних повідомлення джерел А та В й визначається так:
H(A,B) = -ZZP(*i>bj)\ogp(aiybjy (2.36)
Зрозуміло, що
Н(А,В) = Н(В,А)9 (2.37)
оскільки/? (ai9 bp =/> (bjy я,). Для сумісної появи повідомлень а і та ^послідовність запису їх не має значення.
Розглянемо докладніше вираз (2.36). Якщо врахувати (2.13), то можна записати
ЩА,в)=-!£/>(*,)/>(*, 4)iog[M)/>ty Ч)]- (2.38)
' J Згадавши, що логарифм добутку дорівнює сумі логарифмів
(це властивість адитивності кількості інформації), матимемо
H(A,B) = -YlZ{p(ai)p{bJ/ai)[l0gp(ai) + \of>p{bj/aiy\} = = -{12p{aiMbj/<'i)logp(ai) + j:Zp(ai)p(bj/ai)\oep(bj/ai)} =
' І ' J
= -{lp(ai)loep(ai)Zp(bj/ai) + Zp(ai)Zp(bJ/ai)logp(bj/ai)}.
(2.39)
Тепер потрібно врахувати, що згідно з (2.24) £/>(£,• /я,) = 1-
j Тому перша складова в (2.39) відповідно до (2.8) визначає безумовну ентропію джерела А, тобто
-ХМ)1°8М) = Я(Л),
44
45
а
друга складова відповідно до (2.22) є
загальною умовною ентропією Н {В І А).
Отже,
Н(А,В) = Н(А) + Н(В/А). (2.40)
Властивість симетрії (2.37) дає змогу провести подібні перетворення ще раз і дістати інший вираз ентропії Н (А, В), а саме:
Н(А,В) = Н(В) + Н (А/В). (2.41)
З урахуванням (2.40) і (2.41) загальну умовну ентропію можна визначити порівнянням безумовної ентропії об'єднання джерел та ентропії одного з них — А чи В:
Н(В/А) = Н(А,В)-Н(А); „„.
Н(А/В) = Н(А,В)-Н(В). КА'ЧА)
Кількість інформації, що припадає на одне повідомлення, передане по каналу зв'язку в системі спостереження (див. рис. 2.1) від джерела А спостерігачеві В за наявності завад у каналі та статистичній зумовленості ансамблів А та В [З, 42], визначається виразом
І (А, В) = Н(А)-Н(А/В) = Н(В)-Н(В/А) = „ 4~ = Н(А) + Н(В)-Н(А, В). ^'Чй)
Наведений вище приклад (див. п. 2.5) дає уяву про ентропію об'єднання. Так, згідно з (2.36) і (2.30) маємо
Н(А, В) = -(3 • 0,2 log 0,2 + 4-0,1 log 0,1) = = 2,72193 біт/два повідомлення.
З іншого боку, враховуючи (2.40), дістаємо
Н(А,В) = Н{А) + Н (В/А) = 1,57095 + 1,15097 = = 2,72192 біт/два повідомлення,
а користуючись (2.41), маємо
Н(А,В) = Н(В) + Н(АІВ) = = 2,72192 біт/два повідомлення.
Відзначимо такі основні властивості ентропії об'єднання двох джерел:
1. При статистично незалежних повідомленнях джерел А та В ентропія об'єднання їх дорівнює сумі ентропії окремих джерел, тобто
Н(А,В) = Н(А) + Н(В). 46
2. При повній статистичній залежності джерел А та В ентро пія об'єднання їх дорівнює безумовній ентропії одного із дже рел, тобто
Н(А,В) = Н(А) = Н(В).
3. Ентропія об'єднання двох джерел відповідає нерівності
Н(А,В)<Н(А) + Н(В).
КОНТРОЛЬНІ ЗАДАЧІ
Відомо, що повідомлення at є А з'являється з імовірністю pt = 0,03. Визначити кількість інформації, що міститься в цьому повідомленні.
Ансамбль С містить 16 рівноймовірних повідомлень. Визначити кількість інформації, яку містить кожне таке повідомлення.
Джерело А виробляє трилітерне повідомлення а. є А з алфавіту {а, Ь, с, d), вибираючи їх рівноймовірно й незалежно одне від одного за типом а] - abc, a2 = abd і т. д. Визначити ентропію цього джерела.
Джерела А та В мають розподіли ймовірностей повідомлень РА -= {0,1; 0,1; 0,15; 0,125; 0,125; 0,1; 0,15; 0,15} і Рв = {0,5; 0,3; 0,1; 0,025; 0,025; 0,02; 0,015; 0,015}. Ентропія якого джерела більша? Яка максимальна ентропія цього джерела та за якої умови?
Визначити ентропію монітора персональної ЕОМ при виведенні тексту в 28 рядків по 60 рівноймовірних символів у кожному, якщо використовується стандартний міжнародний код (128 символів) із двома градаціями яскравості.
При передачі банківської інформації реченнями по 16 рядків на кожні 100 речень цифра 5 зустрічається 90, а цифра 9 — 70 разів. Числа 59 і 95 зустрічаються 12 разів. Визначити умовну ентропію появи в реченні цифри 9, якщо в ньому є цифра 5, та умовну ентропію появи цифри 5, якщо в реченні з'явилася цифра 9.
Ансамбль повідомлень джерела А визначено як А = {0,1} та РА = = {0,75; 0,25}. Статистична залежність повідомлень а. є А характеризується умовними ймовірностями р (0/1) = 0,12 і р (1/0) = 0,08. Визначити часткову та загальну умовну ентропію цього джерела.
8. Дослідження каналу зв'язку між джерелом А та спостерігачем В виявило такі умовні ймовірності вибору повідомлень Ь: є В:
p(bj/at)--
0,97 0,02 0,01 0,1 0,86 0,04 0,03 0,08 0,89
Визначити часткову та загальну умовну ентропію повідомлень в цьому каналі при рівноймовірному виборі їх джерелом А та при РА = {0,65; 0,3; 0,05}.
9. Два статистично незалежних джерела А та В визначаються матрицею сумісних імовірностей
0,25 0 0,1
P(aj,bj) =
0,15 0,3 0,1
0 0,05 0,05
47
Визначити часткову та загальну умовну ентропію, ентропію об'єднання, безумовну ентропію цих джерел, а також кількість інформації, що припадає на пару повідомлень ап Ь..
10. Розв'язати попередню задачу, якщо матриця сумісних імовірностей джерел має вигляд
' 0,2 0,01 0,02 0,03'
P(ai,bj)--
0,02 0,16 0,03 0,01
0,01 0,04 0,17 0,02
0,03 0,05 0,1 0,1
*** ії\ ХАРАКТЕРИСТИКИ
ДИСКРЕТНИХ ДЖЕРЕЛ ІНФОРМАЦІЇ
РОЗДІЛ
КОНТРОЛЬНІ
ЗАПИТАННЯ
Що
таке джерело повідомлень?Що таке ансамбль повідомлень?
Як визначається кількість інформації в одному повідомленні?
Що таке ентропія та які її властивості?
Що таке безумовна ентропія?
Що таке умовна ентропія?
Які основні властивості безумовної ентропії?
Які є різновиди умовної ентропії?
Які основні властивості умовної ентропії?
Як визначається часткова умовна ентропія?
Як визначається загальна умовна ентропія?
Як визначається ентропія об'єднання двох джерел?
Які основні властивості ентропії об'єднання двох джерел?
Як визначається кількість інформації на одне повідомлення двох статистично взаємозв'язаних джерел?
За яких умов ентропія джерела стає максимальною?
Будь-яку інформацію потрібно доставити одержувачеві повідомлень, інакше вона не матиме для нього ніякої цінності. Проте при передачі інформації від дискретних джерел по каналах зв'язку можуть виникати її втрати, якщо в каналах діють завади та є спотворення сигналів, якими передаються повідомлення.
Від інтенсивності завад у каналах залежать швидкість передачі інформації та пропускна здатність каналів. Тому в цьому розділі йтиметься про швидкість передачі інформації від дискретних джерел, оцінювання втрат її в каналах, пропускну здатність дискретного каналу, теореми Шеннона про кодування дискретних джерел.
