
- •4.5 Контрольні питання 87
- •5.5 Контрольні питання 97
- •6.5 Контрольні питання 127
- •2Основні поняття теорії інформації
- •2.1Загальні положення
- •2.2Кругообертання інформації
- •2.3Класифікація інформації
- •2.4Структурні перетворення інформації
- •2.5Фази усунення надлишковості інформації
- •2.6Контрольні питання
- •3Інформаційна метрика
- •3.1Якісні і кількісні оцінки інформації
- •3.2Структурні міри інформації
- •3.2.1Загальна характеристика структурної метрики
- •3.2.2Геометрична міра інформації
- •3.2.3Комбінаторна міра інформації
- •3.2.4Адитивна міра (міра Хартлі)
- •3.2.5Специфіка структурної оцінки кількості інформації
- •3.2.6Інформаційна ємність
- •3.3Статистичні міри інформації
- •3.3.1Відповідність між ймовірністю і інформацією
- •3.3.2Ентропія як міра невизначеності
- •3.3.3Ентропія ансамблю (безумовна ентропія)
- •3.3.4Ентропія об’єднання, умовна ентропія
- •Ентропія безперервного джерела інформації (диференціальна ентропія)
- •3.3.5Кількість інформації як міра зняття невизначеності
- •3.4Кількість інформації і її надлишковість
- •3.5Оцінка якості виміру н контролю
- •3.6Семантичні міри інформації
- •3.6.1Поняття семиотика
- •3.6.2Змістовність інформації
- •3.6.3Доцільність інформації
- •3.6.4Динамічна ентропія
- •3.6.5Істотність інформації
- •3.7Контрольні питання
- •4Характеристики дискретних джерел інформації
- •4.1Продуктивність дискретного джерела та швидкість передачі інформації
- •4.2Інформаційні втрати при передачі інформації по дискретному каналу
- •4.3Пропускна здатність дискретного каналу
- •4.4Теорема Шеннона
- •4.5Контрольні питання
- •5Характеристики неперервних джерел інформації
- •5.1Квантування сигналів
- •5.2Інформаційні втрати при дискретизації неперервних джерел
- •5.3Продуктивність неперервного джерела та швидкість передачі інформації
- •5.4Пропускна здатність неперервного каналу
- •5.5Контрольні питання
- •6Кодування інформації
- •6.1Загальні поняття і визначення
- •6.2Кодування як процес представлення інформації в цифровому вигляді
- •6.3Ефективне кодування
- •6.4Кодування інформації для каналу з завадами
- •6.4.1Загальні поняття теорії завадостійкого кодування
- •6.4.2Різновиди завадостійких код
- •6.4.3Загальні принципи використання надлишковості
- •6.4.4Кодова відстань
- •6.5Контрольні питання
- •Перелік використаних джерел
5.3Продуктивність неперервного джерела та швидкість передачі інформації
Виходячи з того, що ентропія Н(х) неперервного джерела за абсолютним значенням є нескінченною, продуктивність такого джерела також нескінченна. Про продуктивність неперервного джерела доцільно говорити лише в диференціальному відношенні, допускаючи похибку або порівнюючи диференціальну ентропію h1(x) і h2(х) сусідніх відліків повідомлення, взятих з інтервалом часу t=t2 - t1.
Відповідно до теореми відліків неперервні повідомлення x, у можуть бути подані сукупностями відліків їх xi та yi в дискретні моменти часу з кроком t.
Розподіл сукупності випадкових величин описується багатовимірною щільністю розподілу ймовірностей w(x1, x2,..., xm), w(у1, у2,..., ут). Якщо вважати випадкові величини незалежними та врахувати, що ентропія сукупності незалежних випадкових величин дорівнює сумі ентропії окремих таких величин, то диференціальна ентропія повідомлення визначиться як
(4.8)
де
- диференціальна ентропія i-го
відліку повідомлення у формі (4.6); т
= T/
t
— кількість відліків повідомлення
тривалістю Т, зроблених
з інтервалом часу
t.
Обмежившись стаціонарними випадковими процесами, дістанемо
звідки
(4.9)
де h(x) - диференціальна ентропія одного відліку повідомлення у формі (4.6).
Аналогічно можна показати, що умовна диференціальна ентропія
(4.10)
де h(x|y) - умовна диференціальна ентропія одного відліку повідомлення.
Тоді вираз кількості інформації в неперервному повідомленні тривалістю Т матиме вигляд
ІТ(х,у)=m[h(x) - h(x|y)]. (4.11)
Назвемо середньою швидкістю передачі інформації неперервним джерелом кількість інформації, що передається за одиницю часу, тобто
(4.12)
де F Д=т/Т - частота дискретизації повідомлення.
5.4Пропускна здатність неперервного каналу
Пропускною здатністю неперервного каналу називається максимально можлива швидкість передачі інформації в ньому :
С=max[RT(x,y)]=FДmах[h(x) - h(х|у)]. (4.13)
Як і для дискретного каналу, вираз (4.13) досягає максимуму при максимальному ступені статистичної зумовленості неперервних повідомлень на виході та вході каналу. При цьому умовна диференціальна ентропія прямує до нуля завдяки низькому рівню завад і все меншому спотворенню повідомлень у каналі. Проте функція h(х) матиме максимум лише при певних законах розподілу w(x) ймовірностей (наприклад, якщо як фізичний процес X використовується стаціонарний випадковий процес у вигляді «білого шуму»).
Вираз (4.13) за наявності завади у вигляді «білого шуму» набуває вигляду
(4.14)
де Fm=FД/2 — максимальна частота смуги прозорості каналу; Рс, Р3 – середні потужності сигналу неперервного повідомлення та завади у вигляді «білого шуму».
Пропускну
здатність неперервного каналу можна
регулювати, змінюючи Fm,
Pc
і Р3.
Суть виразу (4.14) полягає у тому, що сума
(
)
визначає кількість рівнів (квантів)
неперервного повідомлення, які надійно
розпізнаються на фоні завади при заданому
відношенні сигнал/завада. Тому кількість
інформації тут, що припадає на один
відлік повідомлення, буде такою самою,
як і для дискретного джерела з кількістю
станів
,
коли
.