
- •7. Інформаційні характеристики каналів…………….36
- •1. Предмет і задачі теорії інформації
- •1.1. Основні поняття і визначення
- •1.2. Кількісна оцінка інформації
- •2. Безумовна та умовна ентропії
- •2.1 Безумовна ентропія і її властивості
- •2.2 Умовна ентропія
- •2.3 Ентропія об’єднання
- •Умовні ймовірності вигляду p(ai/bj) I p(bj/ai) обчислюються як
- •3. Диференціальна ентропія
- •3.1. Диференціальна ентропія
- •3.2. Епсилон-ентропія
- •4. Канали передачі інформації
- •4.1. Види каналів передачі інформації
- •4.2. Обчислення інформаційних втрат при передачі повідомлень по дискретним каналам зв’язку з шумами
- •5. Джерела повідомлень
- •5.1. Моделі сигналів
- •Спектр амплітуд є парною функцією k
- •5.2. Перетворення сигналів
- •5.3. Інформаційні характеристики джерела
- •Тоді повна ентропія джерела повідомлень
- •5.4. Інформаційні характеристики джерела
- •Модульна контрольна робота 1
- •6. Коди і кодування
- •6.1. Визначення кодів
- •6.2. Надмірність інформації
- •6.3. Оптимальне кодування
- •Для двоїчних кодів
- •Очевидно, що ця рівність вірна при умові, що довжина коду у вторинному алфавіті
- •У випадку нерівноймовірних і взаємозалежних символів
- •7. Інформаційні характеристики каналів зв’язку
- •7.1. Інформаційні характеристики дискретних каналів зв’язку
- •У випадку нерівноймовірних і взаємозалежних символів різної тривалості
- •7.2. Інформаційні характеристики неперервних каналів зв’язку
- •7.3. Узгодження фізичних характеристик сигналу і каналу
- •8. Ефективність і надійність систем передачі інформації.
- •8.1. Завадостійкість систем передачі інформації
- •8.2. Надійність систем передачі інформації
- •Для практичних розрахунків можна користуватись виразом
- •8.3. Цінність інформації
- •8.4. Інформаційна оцінка автоматизованих систем управління
- •В усталеному режимі буде додержуватись умова
- •Модульна контрольна робота 2
- •6.9.Як визначається ефективність онк?
- •Додатковий
У випадку нерівноймовірних і взаємозалежних символів різної тривалості
R = [-p(ai)p(bj/ai)log2p(bj/ai)] / pi біт/с. (7.4)
i j i
Пропускна здатність (або ємність) каналу зв’язку – є максимальна швидкість передачі інформації по даному каналу зв’язку. Пропускну здатність характеризує максимальна ентропія:
Rmax = Hmax/ біт/с. (7.5)
При наявності завад пропускна здатність каналу зв’язку обчислюється як добуток кількості прийнятих за секунду знаків п на різницю ентропій джерела повідомлень і умовної ентропії джерела відносно прийнятого сигналу:
Сп=п[Н(А)–Н(А/В)]=п[Н(В)–Н(В/А)]=п[Н(А)+Н(В)-Н(В/А)]б/с(7.6)
Для симетричних бінарних каналів, в яких сигнали передаються з допомогою двох якісних ознак і імовірність хибного прийому рх = р(1/0) = р(0/1), а імовірність правильного прийому рп = 1-рх, втрати враховуються з допомогою умовної ентропії виду
H(B/A) = -[pxlog2px+(1-px)log2(1-px)]біт/символ, (7.7)
пропускна здатність таких каналів
Сп=n[1+pxlogpx+(1-px)log2(1-px)]біт/с. (7.8) Для несиметричного бінарного каналу зв’язку
Cп=n{p(A1)[p(1/1)log2p(1/1)+p(0/1)log2p(0/1)]+p(A0)[p(1/0)+
+p(0/0)log2p(0/0)]–[p(B0)log2p(B0)+p(B1)log2p(B1)]}. (7.9) На практиці часто доводиться визначати пропускну здатність при заданому відсотку спотворень в каналі. У випадку бінарних каналів задається імовірність переходу 1в 0 і навпаки. Для симетричних дискретних каналів зв’язку з кількістю якісних ознак т 2 пропускна здатність
Сп = n{logm+pxlog[px/(m-1)]+(1-px)log(1-px)}біт/с. (7.10)
Властивості симетричного каналу зв’язку:
ентропія Н(А)=Н(В);
умовна ентропія Н(А/В)=Н(В/А);
середня кількість інформації у прийнятому ансамблі повідомлень відносно переданого І(А,В)=І(В,А)=Н(А) -
--Н(В/А)=Н(А)-Н(А/В)=Н(В)---Н(В/А)=Н(В)-Н(А/В)=Н(А)+Н(В)-
-- Н(В,А);
канальні матриці для симетричного каналу з боку джерела і з боку приймача виглядають однаково;
у симетричному каналі сума імовірностей у кожному рядку і в кожному стовбці дорівнюють 1;
пропускна здатність симетричного каналу від А до В дорівнює пропускній здатності того ж каналу від В до А.
7.2. Інформаційні характеристики неперервних каналів зв’язку
Реальні неперервні канали являють собою складні інерційні об’єкти, характеристики яких випадковим чином змінюються в часі. Для аналізу таких каналів створені математичні моделі різних рівнів складності і степеня адекватності реальним каналам. Найбільш розповсюджені моделі різновидностей гаусового каналу.
Під гаусовим каналом розуміють математичну модель реального каналу, побудовану на таких припущеннях:
основні фізичні параметри каналу є відомими детермінованими величинами;
смуга пропускання каналу обмежена частотою Fк герц;
у каналі діє адитивний гаусовий білий шум – адитивна флюктуаційна завада обмеженої потужності з рівномірним частотним спектром і нормальним розподіленням амплітуд.
Вважається також, що по каналу передаються сигнали з постійною середньою потужністю, статистичні зв’язки між сигналами і шумом відсутні, ширина спектру сигналу і завади обмежена смугою пропускання каналу.
Швидкість передачі інформації по неперервному каналу – це кількість інформації, яка передається в середньому прийнятими неперервними сигналами v(t), відносно переданих u(t) в одиницю часу.
Оскільки смуга пропускання каналу завжди обмежена, неперервні повідомлення на достатньо довгому інтервалі часу Т можуть бути подані послідовностями відліків. Середня швидкість Іс передачі інформації дискретизованим сигналом буде
Іс = І(VU) / Т, (7.11)
де І(VU) = p(VU)log[p(VU)/p(V)p(U)]dVdU. (7.12)
VU
Перехід до границі при Т означає перехід до середньої швидкості по всіх можливих сигналах.
Максимально можлива швидкість Сн передачі інформації по неперервному каналу є пропускною здатністю неперервного каналу
Сн = max Ic(VU), (7.13)
{p(u)}
де максимум знаходять по всіх можливих ансамблях вхідних сигналів.
При передачі по гаусовому каналу неперервного сигналу uT(t) із ансамбля {uT} із середньої потужністю Pu і дисперсією u2 на виході каналу одержимо сигнал vT(t) із ансамблю {vT(t)} , який спотворено гаусовою завадою (t) з середньою потужністю P і дисперсією 2. Сигнали uT(t) i vT(t) можна замінити послідовностями відліків, взятих через інтервали t = 1/(2Fк), де Fк – смуга пропускання каналу. Середня кількість інформації, яка передається сигналом vT буде
I(VU) = H(V) – Hu(V), (7.14)
де H(V) i Hu(V) – апрірна і апостеріорна ентропії N-вимірного випадкового вектора V. Завада у каналі адитивна і статистично не зв’язана із вхідним сигналом, тому справедлива рівність
Hu(V) = Hu(U+) = H(), (7.15)
де Н() – ентропія N–вимірного випадкового вектора завади . Значення білого шуму в моменти відліку будуть некорельованими, тому
H() = 2FкTh(), (7.16)
де h() – диференціальна ентропія одного відлікового значення завади. Для завади з нормальним розподіленням і дисперсією 2 вона складе
h() = log 2e = ½ log 2eP. (7.17)
Відлікові значення вихідних сигналів VT(t) також незалежні. Тоді H(V) можна виразити через диференціальну ентропію h(V) одного відліку вихідного сигналу:
H(V) = 2FкTh(V). (7.18)
Тоді
I(VU) = 2FкT[h(V) – 1/2log2e2]. (7.19)
Відповідно швидкість передачі інформації по неперервному каналу
Ic(VU) = 2Fк[h(V) – 1/2log2e2]. (7.20)
Визначимо пропускну здатність гаусового каналу. Максимальна величина диференціальної ентропії
h(V)= -log2e(u2+2)=1/2log2e(Pu+P). (7.21)
Тому пропускна здатність гаусового каналу буде
Cн = Fк[log2e(Pu + P) – log2P] = Fкlog(1 + Pu/P).
Залежність пропускної здатності гаусового каналу від ширини смуги пропускання Fк нелінійна, тому що Fк впливає також на потужність завади. З врахуванням рівномірності енергетичного спектру білого шуму його потужність можна виразити через питому потужність Р0 на одиницю частоти. Тоді
Cн= Fкlog2[1+Pu/ (P0Fк)]. (7.22)
Зростання пропускної здатності каналу при необмеженому розширенні його смуги пропускання обмежена границею См:
См= limСн = lim{log2[1+Pu/(P0Fк)]/(1/Fк)}=1,443Pu/P0 (7.23)
Fк Fк