
- •1.1. Повідомлення та інформація
- •1.2. Моделі інформаційних систем
- •1.4. Предмет теорії інформації та кодування
- •2.2. Кількісна міра інформації
- •2.3. Ентропія та її властивості
- •2.4. Безумовна ентропія
- •2.5. Умовна ентропія
- •2.6. Ентропія об'єднання двох джерел
- •3.1. Продуктивність дискретного джерела та швидкість передачі інформації
- •4.1. Квантування сигналів
- •4.2. Інформаційні втрати
- •4.3. Продуктивність неперервного джерела та швидкість передачі інформації
- •IhlilhM
- •4.4. Пропускна здатність . . . .
- •5.1. Класифікація кодів і характеристики їх
- •5.4. Способи подання кодів
- •5.6. Основні теореми кодування для каналів
- •6.1. Класифікація первинних кодів
- •6.2. Нерівномірні двійкові первинні коди
- •6.2.1. Код морзе
- •6.2.2. Число-імпульсні коди
- •6.3. Рівномірні двійкові первинні коди
- •6.3.1. Числові двійкові коди
- •6.3.2. Двійково-десяткові коди
- •6.3.4. Двійково-шістнадцятковий код ;;.-,-.
- •6.3.5. Рефлексні коди
- •7.1. Двійкові коди,
- •7.1.2. Код із перевіркою на непарність
- •7.1.3. Код із простим повторенням
- •7.2. Недвійкові коди, що виявляють помилки
- •7.2.1. Код із перевіркою за модулем q
- •7.2.2. Код із повторенням
- •8"6 90472 "100562 І' • шТрИховє зОбраЖєння кодового сло-
- •8.1. Двійкові групові коди
- •8.1.1. Лінійний систематичний груповий (блоковий) код
- •8.1.2. Коди хеммінга
- •8.1.4. Коди боуза - чоудхурі - хоквінгема
- •8.1.5. Код файра
- •8.1.6. Код із багатократним повторенням
- •8.3.2. Узагальнений код хеммінга
- •8.3.3. Коди боуза - чоудхурі - хоквінгема
- •8.3.4. Коди ріда - соломона
- •8.3.6. Недвійковий ланцюговий код
- •9.1. Вірогідність передачі кодованих повідомлень
- •9.2. Стиснення інформації"
- •9.2.1. Способи стиснення даних при передачі
- •9.2.2. Способи стиснення даних при архівації
- •Збіжного рядка
- •9.3. Збільшення основи коду
- •0Сзезс99е8с0е1с10d1c242d5c3d2c6d8cbd6e8c0
- •VosooooooooooooooooOvJvJ
4.3. Продуктивність неперервного джерела та швидкість передачі інформації
Виходячи з того, що ентропія Н(х) неперервного джерела за абсолютним значенням є нескінченною, продуктивність такого джерела також нескінченна. Про продуктивність неперервного джерела доцільно говорити лише в диференціальному відношенні, допускаючи похибку або порівнюючи диференціальну ентропію hx(x) і h2{x) сусідніх відліків повідомлення, взятих з інтервалом часу At = t2 - tx [18].
Відповідно до теореми відліків неперервні повідомлення х, у можуть бути подані сукупностями відліків їх х( та у( в дискретні моменти часу з кроком At.
Розподіл сукупності випадкових величин описується багатовимірною щільністю розподілу ймовірностей w(xx, х2,..., хт), w(yx,y2,...,ут). Якщо вважати випадкові величини незалежними та врахувати, що ентропія сукупності незалежних випадкових величин дорівнює сумі ентропії окремих таких величин, то диференціальна ентропія повідомлення визначиться як
т
М*) = 5>(*/Ь (4-8)
оо
де h(xt) = - jw(xi)\ogw(xi)dxi —диференціальна ентропія
—оо
/-го відліку повідомлення у формі (4.6); т = ТІ At — кількість 68
■■- і щ*ні ііііиїломиашн Іринами їх» /, фоЬлсішх з інтервалом »t» \ Лі < HiM!*jfcMitiiiiti'i> стаціонарними випадковими процесами,
ІИ ІНІІГМО
h(xl) = h(x2) = ...=h(xm) = h(xl
IhlilhM
hT(x) = mh(x), (4.9)
<іе h(\) диференціальна ентропія одного відліку повідомлений у формі (4.6).
Аналогічно можна показати, що умовна диференціальна нн іронія
hT(x/y) = mh(x/y\ (4.10)
t\v h{ к/у) — умовна диференціальна ентропія одного відліку повідомлення.
Годі вираз кількості інформації в неперервному повідомленні ірииалістю Г матиме вигляд
IT(x,y) = m[h(x)-h(x/y)]. (4.11)
І Іазвемо середньою швидкістю передачі інформації неперервним джерелом кількість інформації, що передається за одиницю часу, тобто
l<r(^y)=^Y^-=Y^(x)-h(x/y)]=FJl[h(x)~h(x/y)),(4A2) це / л = т/Т— частота дискретизації повідомлення.
4.4. Пропускна здатність . . . .
НЕПЕРЕРВНОГО КАНАЛУ
Пропускною здатністю неперервного каналу називається мак-к имально можлива швидкість передачі інформації в ньому [44]:
С = max[RT(x,y)] = i^max[A(jc) - h(x/y)]. (4.13)
Як і для дискретного каналу, вираз (4.13) досягає максимуму мри максимальному ступені статистичної зумовленості неперервних повідомлень на виході та вході каналу. При цьому умовна диференціальна ентропія прямує до нуля завдяки низькому рівню завад і все меншому спотворенню повідомлень у каналі. Проте функція h{x) матиме максимум лише при певних
69
законах розподілу w(x) імовірностей (наприклад, якщо як фізичний процес X використовується стаціонарний випадковий процес у вигляді «білого шуму»).
Вираз (4.13) за наявності завади у вигляді «білого шуму» набуває вигляду
C = FJog2(l+Pc/PJ, (4.14)
де Fm = FJ2 — максимальна частота смуги прозорості каналу; Рс, Р3 — середні потужності сигналу неперервного повідомлення та завади у вигляді «білого шуму».
Пропускну здатність неперервного каналу можна регулювати, змінюючи Fm, Рс і Р3. Суть виразу (4.14) полягає у тому, що сума (1 + PJ Р^ визначає кількість рівнів (квантів) неперервного повідомлення, які надійно розпізнаються на фоні завади при заданому відношенні сигнал/завада. Тому кількість інформації тут, що припадає на один відлік повідомлення, буде такою самою, як і для дискретного джерела з кількістю станів к = 1 + PJ Р3, KonnI(x9y) = \og2(\+Pc/P3).
КОНТРОЛЬНІ ЗАДАЧІ
Неперервний канал характеризується відношенням середніх потужностей сигналу та шуму PJPm, де Рш = NQA/ (N0 — спектральна щільність потужності завад; А/ — ширина смуги частот каналу). Сигнал, який передається, має тривалість х. Визначити потрібне відношення PJPat для випадку, коли тривалість сигналу зменшується до т,, а ширина смуги частот каналу змінюється до A/J.
Довести, що h(z) = h(y) при z = у ± к або z = -у, де к = const.
Визначити диференціальну ентропію випадкового відліку повідомлення X, якщо розподіл його ймовірностей рівномірний у проміжку xvxY
Неперервна випадкова величина змінюється за рівноймовірним законом розподілу в проміжку х - 0.. .1,8 та х = 0.. .0,3. Визначити диференціальну ентропію джерела для цих випадків і порівняти здобуті результати.
Визначити швидкість передачі інформації в неперервному каналі з повідомленням, розподіленим за законом
0при>><0;
у2 при0<>><1;
Ф) =
у2 при0< 1при>>>1
При частотній модуляції носійної неперервним сигналом з рівномірним розподілом частота змінюється в межах 15...60 МГц. Визначити ентропію сигналу при вимірюванні частоти з похибкою 5 кГц.
Пропускна здатність неперервного каналу С = 9600 біт/с при відношенні РсІРг - 10. Як зміниться С при зменшенні цього відношення до 1?
10. Неперервний процес має нормальний розподіл імовірностей із щіль ністю w(x) = —j=— е~* ^2с К Визначити ентропію цього процесу при
у/2по
похибці вимірювання Дл\
Значення сигналу рівномірно лежать у діапазоні 0...10 В. Визначити диференціальну ентропію цього джерела. Якою буде ця ентропія, якщо значення сигналу виразити в мілівольтах?
Телеметрична станція за 10 с передає покази 20 датчиків. Спектр частот неперервних повідомлень лежить у межах 0...30 Гц. Рівень сигналів становить 0...10 В, а допустима відносна похибка дорівнює 0,5 % його максимуму. Визначити потрібну швидкість передачі інформації в каналі.
КОНТРОЛЬНІ ЗАПИТАННЯ
Що таке ентропія неперервного джерела?
Що таке диференціальна ентропія неперервного джерела? З.Як обчислюється диференціальна ентропія неперервного джерела?
Як визначається кількість інформації на одне повідомлення неперервного джерела?
За яких умов диференціальна ентропія неперервного джерела буде від'ємною?
Що означає відносність диференціальної ентропії неперервного джерела?
Як визначається пропускна здатність неперервного каналу?
Яке граничне значення пропускної здатності С = A/log[l + PJ(N0AJ)] (біт/с) неперервного каналу з нормальним шумом, якщо ширина А/смуги його частот прямує до °° при Рс = const і N0 = const?
Як визначається швидкість передачі інформації про неперервний процес?
Як визначається період відліків неперервної величини за теоремою відліків Котельникова?
Що таке епсилон-ентропія випадкової величини?
та з періодом відліків 10"6 с
Телефонний канал зв'язку характеризується такими даними: А/ = = 3100 Гц; PJPm = 10. Текст передається з ентропією 3,5 біт/символ, а середня швидкість його читання дорівнює 200 символів/хв. Визначити, наскільки ефективно використовується при цьому пропускна здатність каналу.
Напруга в електричному колі вимірюється в межах 150... 180 мВ. Як зміниться ентропія випадкової величини напруги при вимірюванні її в мікровольтах?
70
КОДУВАННЯ
В ДИСКРЕТНИХ
І НЕПЕРЕРВНИХ КАНАЛАХ
Передача інформації по лініях і каналах зв 'язку пов язана з певними труднощами. Головним чином — це дія завад на сигнали, що несуть інформацію. Тому для усунення помилок, які виникають при передачі сигналів під впливом завад, повідомлення кодують, оскільки кодування є найефективнішим способом їх захисту.
Для кращого розуміння процесу кодування повідомлень треба знати системи числення, деякі основні операції над елементами поля GF(q), способи подання кодів, основні теореми кодування для каналів. Про все це йтиметься в цьому розділі. Крім того, тут викладено класифікацію кодів, наведено характеристики їх, описано основні принципи оптимального кодування.