
- •7. Інформаційні характеристики каналів…………….36
- •1. Предмет і задачі теорії інформації
- •1.1. Основні поняття і визначення
- •1.2. Кількісна оцінка інформації
- •2. Безумовна та умовна ентропії
- •2.1 Безумовна ентропія і її властивості
- •2.2 Умовна ентропія
- •2.3 Ентропія об’єднання
- •Умовні ймовірності вигляду p(ai/bj) I p(bj/ai) обчислюються як
- •3. Диференціальна ентропія
- •3.1. Диференціальна ентропія
- •3.2. Епсилон-ентропія
- •4. Канали передачі інформації
- •4.1. Види каналів передачі інформації
- •4.2. Обчислення інформаційних втрат при передачі повідомлень по дискретним каналам зв’язку з шумами
- •5. Джерела повідомлень
- •5.1. Моделі сигналів
- •Спектр амплітуд є парною функцією k
- •5.2. Перетворення сигналів
- •5.3. Інформаційні характеристики джерела
- •Тоді повна ентропія джерела повідомлень
- •5.4. Інформаційні характеристики джерела
- •Модульна контрольна робота 1
- •6. Коди і кодування
- •6.1. Визначення кодів
- •6.2. Надмірність інформації
- •6.3. Оптимальне кодування
- •Для двоїчних кодів
- •Очевидно, що ця рівність вірна при умові, що довжина коду у вторинному алфавіті
- •У випадку нерівноймовірних і взаємозалежних символів
- •7. Інформаційні характеристики каналів зв’язку
- •7.1. Інформаційні характеристики дискретних каналів зв’язку
- •У випадку нерівноймовірних і взаємозалежних символів різної тривалості
- •7.2. Інформаційні характеристики неперервних каналів зв’язку
- •7.3. Узгодження фізичних характеристик сигналу і каналу
- •8. Ефективність і надійність систем передачі інформації.
- •8.1. Завадостійкість систем передачі інформації
- •8.2. Надійність систем передачі інформації
- •Для практичних розрахунків можна користуватись виразом
- •8.3. Цінність інформації
- •8.4. Інформаційна оцінка автоматизованих систем управління
- •В усталеному режимі буде додержуватись умова
- •Модульна контрольна робота 2
- •6.9.Як визначається ефективність онк?
- •Додатковий
2.3 Ентропія об’єднання
Ентропія об’єднання використовується для обчислення ентропії сумісного появлення статистично залежних повідомлень. Н(А,В) – невизначеність того, що буде послано А, а прийнято В. Для ансамблів переданих повідомлень А і прийнятих повідомлень В ентропія об’єднання являє собою суму вигляду
Н(А,В)=-р(аi,bj)log2p(ai,bj)біт/два символи. (2.9)
i j
Ентропія об’єднання і умовна ентропія пов’язані між собою такими співвідношеннями:
Н(А,В) = Н(А) + Н(В/А) = Н(В) + Н(А/В),
Н(В/А) = Н(А,В) – Н(А); Н(А/В) = Н(А,В) – Н(В).
Ентропія об’єднання може бути підрахована за допомогою матриці вигляду
|p(a1,b1) p(a1,b2)…p(a1,bm) |
p(ai,bj) = |p(a2,b1) p(a2,b2)…p(a2,bm) |
|…………………………. .|
|p(am,b1) p(am,b2)…p(am,bm)|
Така матриця має особливу властивість: p(ai,bj) = p(bj); p(ai,bj) = p(ai), при цьому p(ai) = p(bj) = 1. Ця властивість дозволяє обчислювати ентропію за формулами
H(A)=-p(ai,bj)logp(ai,bj), (2.10)
i j j
H(B)=-p(ai,bj)logp(ai,bj). (2.11)
i j i
Підсумoвування проводиться по i та j, тому що для визначення безумовних імовірностей необхідно підсумовувати їх по одній координаті, а для визначення Н підсумовування проводиться по другій координаті.
Умовні ймовірності вигляду p(ai/bj) I p(bj/ai) обчислюються як
p(ai/bj)=p(ai,bj)/p(ai,bj);p(bj/ai)=p(ai,bj)/p(ai,bj). (2.12)
i j
Кількість інформації на символ повідомлення, переданого по каналу зв’язку, обраховується таким чином:
І(А,В)=Н(А)+Н(В)– Н(В,А). (2.13)
3. Диференціальна ентропія
Диференціальна ентропія як ентропія неперервного джерела інформації. Властивості диференціальної ентропії. Епсилон-ентропія випадкової величини.
3.1. Диференціальна ентропія
Невизначеність вибору значення неперервної випадкової величини пов’язана зі щільністю розподілення імовірності цих значень. За міру невизначеності неперервного джерела приймається величина h(U)
h(U)= -p(u)logp(u)du, (3.1)
де U – значення неперервної випадкової величини; p(u) – щільність розподілення імовірностей значень випадкової величини.
Для визначення міри використовується тільки функція щільності імовірності, тобто диференціальний закон розподілення, тому міра невизначеності неперервного джерела називається відносною диференціальною ентропією або просто диференціальною ентропією неперервного джерела інформації (неперервного розподілення випадкової величини U). Її можна розуміти як середню невизначеність вибору випадкової величини з довільним законом розподілення в порівнянні з середньою невизначеностю вибору випадкової величини, яка змінюється в одиничному діапазоні і має рівномірне розподілення.
Диференціальна умовна ентропія hV(U) визначається по співвідношенню:
HV(U)=p(uv)log[p(uv)/p(v)]dudv. (3.2)
Вона характеризує невизначеність вибору неперервної випадкової величини U при умові, що відомі результати реалізації значень іншої статистично пов’язаної величини V, і порівняно з середньою невизначеністю вибору випадкової величини, яка змінюється в одиничному діапазоні і має рівномірне розподілення ймовірностей.
До основних властивостей диференціальної ентропії відносяться:
1.Диференціальна ентропія на відміну від ентропії дискретного джерела є відносною мірою невизначеності. Її значення залежать від масштабу випадкової величини. З відносності диференціальної ентропії випливає, що вона може приймати додатні, від’ємні і нульові значення.
2.Диференціальна ентропія не залежить від конкретних значень випадкової величини і, зокрема, від зміни всіх її значень на сталу.
3.Якщо єдиним обмеженням для випадкової величини U є область можливих значень [,], то максимальна диференціальна ентропія буде при рівномірному розподіленні імовірностей в цій області. Тобто при
p(u)=1/(-), u . (3.3)
диференціальна ентропія буде максимальною
h(U)=log(-). (3.4)
Якщо обмеження на область значень неперервної випадкової величини відсутні, проте відомо, що дисперсія її обмежена, то максимальна диференціальна ентропія буде при нормальному розподіленню випадкової величини. Тобто при гаусовій щільності розподілення максимальне значення диференціальної ентропії
hmax(U)=log22e (3.5)
4.Співвідношення для диференціальної ентропії об’єднання статистично залежних неперервних джерел аналогічні відповідним формулам для дискретних джерел:
h(UV)=h(U)+hU(V)=h(V)+hV(U), (3.6)
де h(UV)= - p(uv) log p(uv) dudv.