
- •1 Які існують види інформації?
- •2 Як формулюється теорема дискретизації?
- •3 Що таке інформація, кодування, канал зв'язку, шум?
- •4.Що таке ансамблі та джерела повідомлень
- •5 У чому полягають основні положення Шеннона до визначення кількості інформації?
- •7 Що таке ентропія джерела? Які її властивості?
- •9 Що таке умовна ентропія? Які є види умовної ентропії?
- •11 Як знаходиться часткова умовна ентропія?
- •12 Як знаходиться загальна умовна ентропія?
- •13 Які основні властивості умовної ентропії?
- •14 Чим обумовлена статистична надмірність джерела інформації?
- •15 Чим описується інформаційний канал?
- •17 Чим визначається ентропія об'єднання двох джерел інформації?
- •18 Які основні властивості взаємної ентропії?
- •19 Як знаходиться кількість інформації на одне повідомлення двох статистично залежних джерел?
- •27 Що таке продуктивність джерела інформації?
- •28 Що таке швидкість передачі інформації по каналу зв'язку та як вона визначається?
- •30 Як формулюється теорема Шеннона про кодування дискретного джерела за відсутності завад?
- •32 Як формулюється теорема Шеннона про кодування дискретного джерела за наявності завад?
- •33 Якими статистичними моделями описуються джерела інформації?
7 Що таке ентропія джерела? Які її властивості?
Кількість інформації, що міститься в одному елементарному повідомленні xi, не повністю характеризує джерело. Джерело дискретних повідомлень може бути охарактеризовано середньою кількістю інформації, що припадає на одне елементарне повідомлення, і називається ентропією джерела, тобто питомою кількістю інформації
,
i=1…k
, (1.3)
де k - об'єм алфавіту джерела.
Ентропія як кількісна міра інформаційності джерела має такі властивості:
1) ентропія дорівнює нулю, якщо хоча б одне з повідомлень достовірне;
2) ентропія завжди більша або дорівнює нулю, є величиною дійсною і обмеженою;
3) ентропія джерела з двома альтернативними подіями може змінюватися від 0 до 1;
4) ентропія - величина адитивна: ентропія джерела, повідомлення якого складаються з повідомлень декількох статистично незалежних джерел, дорівнює сумі ентропій цих джерел;
5) ентропія максимальна, якщо всі повідомлення мають однакову імовірність. Таким чином,
. (1.4)
---------------------------------------------------------------------------------------------------
8 Як визначається кількість інформації на одне повідомлення джерела взаємозалежних повідомлень? . Які її властивості.
Якщо джерело інформації видає послідовність взаємозалежних повідомлень, то отримання кожного з них змінює ймовірність появи наступних і відповідно кількість інформації у них. У такому випадку кількість інформації виражається через умовну ймовірність вибору джерелом повідомлення xi за умови, що до цього були обрані повідомлення xi-1, xi-2 …, тобто
. (1.2)
????ЇЇ властивості
---------------------------------------------------------------------------------------------------
9 Що таке умовна ентропія? Які є види умовної ентропії?
Раніше отримана формула ентропії (1.3) визначає її середньою кількістю інформації, що припадає на одне повідомлення джерела статистично незалежних повідомлень. Така ентропія називається безумовною.
Як відомо з відповідного розділу математичної статистики, мірою порушення статистичної незалежності повідомлень x і у є умовна ймовірність p(x/y) появи повідомлення xi за умови, що вже вибрано повідомлення yj або умовна ймовірність появи повідомлення yj, якщо вже отримане повідомлення xi, причому в загальному випадку p(x/y)p(y/x).
Умовну ймовірність можна отримати з безумовної ймовірності p(x) чи p(y) та сумісної ймовірності системи в. в. p(x, y) за формулою множення ймовірностей:
p(x, y)=p(x)p(y/x), (1.7)
p(x, y)=p(y)p(y/x), (1.8)
звідси
,
.
В окремому випадку для статистично незалежних повідомлень маємо: p(y/x)=p(y), p(x/y)=p(x).
P(Y/X)= |
X |
Y |
|||||
Y1 |
Y2 |
… |
yi |
… |
yk |
||
x1 |
p(y1/x1) |
p(y2/x1) |
… |
p (yj/x1) |
… |
p(yk/x1) |
|
x2 |
p(y1/x2) |
p(y2/x2) |
… |
p(yj/x2) |
… |
p(yk/x2) |
|
… |
… |
… |
… |
… |
… |
… |
|
xi |
p(y1/xi) |
p(y2/xi) |
… |
p(yj/xi) |
… |
p(yk/xi) |
|
… |
… |
… |
… |
… |
… |
… |
|
xk |
p(y1/xk) |
p(y2/xk) |
… |
p(yj/xk) |
… |
p(yk/xk) |
Які є види умовної ентропії?
Вирізняють часткову та загальну умовні ентропії джерела повідомлень.
Часткова умовна ентропія - це кількість інформації, що припадає на одне повідомлення джерела X за умови встановлення факту вибору джерелом Y повідомлення yj, або кількість інформації, що припадає на одне повідомлення джерела Y за умови, що відомий стан джерела X:
,
(1.16)
,
(1.17)
де
,
-
алфавіти повідомлень; xi
- певне повідомлення джерела X,
щодо якого визначається часткова умовна
ентропія H(Y/xi)
алфавіту Y
за умови вибору джерелом X
повідомлення xi;
yj
- певне повідомлення джерела Y,
щодо якого визначається часткова умовна
ентропія H(X/yj)
алфавіту X
за умови вибору повідомлення yj;
i
- номер повідомлення з алфавіту X;
j
- номер повідомлення з алфавіту Y;
p(xi/yj),
p(yj/xi)
– умовні імовірності.
Загальна умовна ентропія визначається так:
, (1.18)
. (1.19)
Отже, загальна умовна ентропія (1.18) - це середньостатистична кількість інформації (математичне сподівання), що припадає на будь-яке повідомлення джерела X, якщо відомий його статистичний взаємозв'язок з джерелом Y. Так само загальна умовна ентропія (1.19) - це середня кількість інформації, яка міститься в повідомленнях джерела Y за наявності статистичного взаємозв'язку з джерелом X.
З урахуванням (1.16), (1.17) та (1.7), (1.8) вирази (1.18), (1.19) набувають такого вигляду:
, (1.20)
,
(1.21)
де p(xi, yj) - сумісна імовірність появи повідомлень xi, yj; p(xi/yj), p(yj/xi) – їх умовні імовірності.
---------------------------------------------------------------------------------------------------