- •© Абакумов в.Г., 2011
- •Передмова
- •Розділ 1 елементи теорії інформації
- •1.1 Поняття інформації. Форми інформації
- •1.2. Повідомлення та відповідні їм сигнали
- •1.2.1. Поняття стаціонарності випадкового процесу
- •1.2.2. Енергетичний спектр стаціонарного випадкового процесу
- •1.3. Вимірювання інформації
- •1.3.1. Структурні міри інформації [1-4, 1-16 ]
- •1.3.2. Статистичні міри інформації
- •1.3.3. Деякі властивості ентропії
- •1.3.4. Ентропія статистично залежних повідомлень
- •1.3.5. Ентропія неперервних повідомлень
- •1.3.6. Надмірність повідомлень
- •1.3.7. Семантичні міри інформації [1-2, 1-16]
- •1.4. Дискретизація інформації
- •1.4.1. Дискретизація за часом
- •1.4.2. Теорема Котєльнікова [1-11, 1-12]
- •1.4.3. Принцип дискретизації Желєзнова
- •1.4.4. Дискретизація неперервних повідомлень з використанням критерію найбільшого відхилення
- •1.4.5. Поняття про адаптивну дискретизацію
- •1.5. Квантування за рівнем
- •1.6. Оцінювання кількості інформації за наявності завад
- •1.6.1. Джерела завад. Характеристики завад
- •1.6.2. Втрати інформації за наявності завад
- •1.7. Контрольні запитання та вправи
- •Список використаної та рекомендованої літератури
1.2. Повідомлення та відповідні їм сигнали
Д
жерела
та форми повідомлення та відповідні їм
сигнали можна поділити на дискретні та
неперервні.
Дискретними називають повідомлення, що складаються з окремих елементів (символів, букв, імпульсів), які приймають скінченну кількість різних значень. Прикладами дискретних повідомлень є команди в системах керування, вихідна інформація ЕОМ у вигляді кодових груп або масивів чисел, телеграфні повідомлення. Такі повідомлення складаються зі скінченної кількості елементів, що слідують один за одним у деякій послідовності. Набір елементів, з яких складаються повідомлення, як правило, називають алфавітом.
Неперервними
називають
такі повідомлення, я
кі
можуть приймати в деяких межах будь-які
значення та являються неперервними
функціями часу (рис. 1.3).
Прикладами таких повідомлень і відповідних їм сигналів є телефонні повідомлення, сигнали телеметрії, відеосигнали, що відображають розподіл яскравості в телевізійному зображенні.
У реальних умовах згадані відмінності неперервних та дискретних повідомлень можуть бути непринциповими. Шляхом дискретизації (за часом) та квантування (за рівнем) можна неперервне повідомлення з допустимим степенем наближення замінити дискретним (рис.1.4.).
З інформаційної точки зору сигнали можна розділити на детерміновані та випадкові.
Детермінованим називають сигнал, математичним представленням якого є деяка задана функція часу. Це означає, що детермінований сигнал відповідає відомому повідомленню і тому його миттєве значення в будь-який момент часу можна передбачити досить точно.
Прикладами детермінованих сигналів є: гармонічний сигнал з відомими амплітудою, частотою та фазою; імпульси або послідовність імпульсів з відомими формою, амплітудою та розташуванням у часі.
Випадковим називають сигнал, математичним представленням якого є випадкова функція часу. Це означає, що точні значення такого сигналу невідомі й можуть бути передбачені лише приблизно, з деякою ймовірністю.
Прикладами випадкових сигналів є мовні сигнали, сигнали електрокардіограм, сигнали на вході радіолокаційних приймачів тощо.
З точки зору теорії інформації детерміновані сигнали інформації не несуть, тому будь-який сигнал, який несе інформацію, слід розглядати як випадковий.
Реальні сигнали поєднують властивості як детермінованих, так і випадкових сигналів.
В
ластивості
випадкових сигналів розглядають,
використовуючи теорію випадкових
процесів, у відповідності з якою реальний
сигнал являє собою одну з можливих
реалізацій випадкового процесу.
Сукупність реалізацій випадкового
процесу називають ансамблем,
який є множиною реалізацій випадкового
процесу {x(t)}
(рис. 1.5).
Характеристики випадкового процесу визначають у середньому не за одною, а за сукупністю великої кількості реалізацій випадкового процесу. Основними характеристиками є закони розподілу значень випадкового процесу.
Одновимірний інтегральний закон розподілу характеризується функцією розподілу F1, що визначають для часового перетину, який відповідає моменту t1
-
F1(x1,t1) = P[x(t1) ≤ x1],
(1.1)
де P[x(t1) ≤ x1] – ймовірність того, що в момент t1 значення випадкового процесу знаходяться в межах
xmin < x < x1,
де xmin та xmax – межі можливих значень випадкового процесу.
Функція F1(x1,t1) може бути знайдена з виразу
-
,(1.2)
де p1(x,t) – одновимірна щільність імовірності випадкового процесу для моменту часу t1.
Одновимірна щільність імовірності, так само як і одновимірний закон розподілу, недостатні для повного опису випадкового процесу, оскільки характеризують його лише в окремі моменти часу.
Повніше випадковий процес характеризують двовимірні, тривимірні і т. д. закони розподілу, що дають змогу враховувати зв’язок значень випадкового процесу в моменти часу (t1, t2), (t1, t2, t3), (t1, t2…tn), що вибирають довільно. Найбільш повною характеристикою випадкового процесу є n-вимірний закон розподілу. Багатовимірні закони характеризуються багатовимірними функціями розподілу та багатовимірною щільністю ймовірності.
Зокрема, двовимірний закон описують функцією розподілу
-
(1.3)
та характеризують двовимірною щільністю ймовірності P2(x1,t1; x2,t2).
Вичерпною характеристикою випадкового процесу є n-вимірний закон розподілу, що описує розподіл значень x(t) для n довільно вибраних моментів часу
-
.(1.4)
Вважають, що випадковий процес X(t) заданий, якщо його n-вимірний розподіл відомий для будь-якої кількості n довільно вибраних моментів часу t1, t2, ... tn.
Коли значення випадкового процесу для будь-яких t незалежні, n-вимірну щільність ймовірності pn(x1,t1; x2,t2;...; xn,tn) можна записати у вигляді добутку одновимірних щільностей імовірності
-
pn(x1,t1; x2,t2;...; xn,tn)=p1(x1,t1)·p1(x2,t2)...p1(xn,tn).
(1.5)
Поряд із законами розподілу випадкові процеси характеризують рядом параметрів, які отримують у загальному випадку шляхом усереднення за множиною реалізацій (усереднення за множиною реалізацій позначено прямою рискою над функцією в (1.6) і далі).
Середнє значення – математичне очікування випадкового процесу
-
(1.6)
де М – символ операції обчислення математичного очікування.
Середнє значення квадрата випадкового процесу
-
(1.7)
Дисперсія – математичне очікування квадрата відхилення випадкового процесу
-
(1.8)
У даному
випадку
– середнє
квадратичне відхилення.
Дисперсія
– це міра відхилення випадкового процесу
від середнього значення. Якщо
,
дисперсія дорівнює середньому значенню
квадрата випадкового процесу. Наведені
параметри характеризують випадковий
процес у визначений момент часу t1.
Випадковий процес X(t)
– mx(t)
називають
центрованим.
Статистичний зв’язок між значеннями випадкового процесу оцінюють функцією кореляції
-
,(1.9)
що являє собою статистично усереднений добуток значень випадкового процесу, які взяті в моменти часу t1 та t2.
Статистичний зв’язок між двома випадковими процесами описують взаємною кореляційною функцією
-
,(1.10)
де p2(x1,t1; y2,t2) – двовимірна взаємна щільність імовірності випадкових процесів X(t) та Y(t).
Якщо
випадкові процеси X(t)
та Y(t)
статистично незалежні, то p2(x1,t1;
y2,t2)
= p1(x1,t1)p1(y2,t2)
і тоді функція взаємної кореляції може
бути знайдена як добуток середніх
значень випадкових процесів, тобто
.
Відмітимо ще раз, що наведені параметри визначають шляхом статистичного усереднення за множиною реалізацій. Можливе визначення цих параметрів і шляхом усереднення за часом на деякому часовому інтервалі, який принципово можна розширити до нескінченності. Наприклад, середнє за часом (позначають хвилястою лінією зверху)
-
,(1.11)
а середнє значення квадрата випадкового процесу
-
і т.
д.(1.12)
У загальному випадку середні за ансамблем реалізації та середні за часом не рівні, оскільки середні за ансамблем є функціями моментів часу t1 або t1, t2 (кореляційна функція).
Наведені співвідношення надані для неперервного випадкового процесу. Якщо ж випадковий процес є дискретним і є ансамблем випадкових величин xi, то можна записати співвідношення, аналогічні (1.6) – (1.9):
-
,(1.13)
,(1.14)
,(1.15)
,(1.16)
де pi – апріорна ймовірність випадкової величини xi; pi,j – сукупна апріорна ймовірність величин xi та xj; n – кількість значень випадкової величини x.
