- •76019, М. Івано-Франківськ, вул. Карпатська 15.
- •До читача
- •Частина перша Вступ
- •Коротка історія розвитку систем передачі інформації
- •Загальна схема системи передачі інформації, або модель системи звязку
- •Канал звязку
- •Перешкоди радіозвязку
- •Стратосфера
- •Частина друга Кількісне визначення інформації.
- •2.1 Одиниці вимірювання інформації і інформативності
- •2.2 Ентропія дискретних повідомлень
- •Кількість інформації у всьому тексті, що передається
- •2.3. Ентропія неперервних повідомлень
- •2.4. Інформаційна ємність і продуктивність джерела
- •Частина третя Кодування повідомлень
- •3.1 Кодування при відсутності перешкод
- •3.2 Надлишкові коди
- •3.3 Систематичні коди ( у вузькому розумінні )
- •3.4 Циклічні коди
- •3.5 Неперервні коди
- •Частина четверта аналітичне уявлення сигналів
- •4.1 Класифікація сигналів
- •4.2 Періодичні сигнали
- •4.3 Неперіодичні сигнали
- •4.4 Випадкові сигнали
- •4.5 Кореляційний аналіз сигналів
- •4.6 Спектральний аналіз випадкових процесів
- •Частина п’ята дискретизація та квантування
- •5.1 Дискретизація сигналу – теорема відліків (Котельникова)
- •5.2 Квантування сигналу по рівню
- •Частина шоста модуляція сигналів
- •6.1 Амплітудна модуляція
- •6.2 Кутова модуляція
- •6.3 Амплітудно - імпульсна модуляція
- •6.4 Широтно - імпульсна модуляція
- •6.5 Часово - імпульсна модуляція
- •6.6 Кодово - імпульсна модуляція (кім)
- •Дельта-модуляція
- •Частина сьома параметри каналів передачі інформації
- •7.1 Пропускна здатність каналу.
- •7.2 Узгодження сигналу з каналом
- •7.3. Параметри основних різновидностей каналів звязку
- •Частина восьма завадостійкість систем
- •8.1. Поняття завадостійкості
- •8.2 Завадостійкість різних видів модуляції
- •8.3 Оптимальні методи прийому
- •8.4. Структура оптимальних приймачів
- •8.5 Прийом точно відомих сигналів
- •8.6 Виявлення не цілком відомого сигналу
- •Частина дев'ята багатоканальні системи
- •9.1 Основи розділення каналів
- •9.2 Системи з частотним розділенням каналів
- •9.3 Покращення енергетики сигналів в системах з чрк
- •9.4 Викривлення в системах з чрк
- •9.5 Системи з часовим розділенням каналів
- •9.6 Викривлення в системах з врк
- •9.7 Системи передачі цифрової інформації
- •Кількісне визначення інформації
- •Кодування повідомлень
- •Частина четверта аналітичне уявлення сигналів
- •Частина п’ята дискретизація та квантування
- •Модуляція сигналів
- •Параметри каналів передачі інформації
- •Завадостійкість систем
- •Багатоканальні системи
2.2 Ентропія дискретних повідомлень
Дискретними називаються повідомлення, передача яких відбувається у вигляді окремих символів. Найбільш поширені символи — букви алфавіту і цифри арабської системи числення. Позначаючи кількість всіх можливих в конкретній системі символів через m, а кількість переданих символів через n, можемо встановити кількість різних повідомлень, що утворюються n- символами з m-символів. Притримуючись математичної термінології, можна сказати, що вона буде рівна кількості розміщень з повтореннями (див. додаток П1, стр.179), тобто mn.
При рівній ймовірності окремих повідомлень ймовірність кожного з них
, (2.4)
і, відповідно, кількість інформації в одному повідомленні рівна
.
(2.5)
Ентропія такого повідомлення вираховується таким чином:
.
(2.6)
З формул (2.5) і (2.6) випливає, що при передачі рівноймовірних повідомлень кількість інформації в повідомленнях пропорційна переданому числу символів і логарифму числа можливих символів (букв алфавіту). Ентропія в цьому випадку залежить тільки від числа можливих символів (букв алфавіту).
При різній ймовірності можливих повідомлень кількість інформації, яка передається, визначається з врахуванням ймовірностей окремих символів алфавіту джерела повідомлень, приведеного в таблиці 2.2.
Кількість інформації у всьому тексті, що передається
.
(2.7)
Таблиця 2.2–ймовірність окремих символів алфавіту джерела повідомлення
Символ (буква алфавіту) |
Число символів в тексті |
ймовірність символу |
А Б В Г . . . Я |
n1 n2 n3 n4 . . . nm |
p1=n1:N p2=n2:N p3=n3:N p4=n4:N . . . pm=nm:N |
|
|
|
Ентропія такого повідомлення вираховується за формулою
.
(2.8)
Як видно з формули (2.8), ентропія в цьому випадку являється істотною, обмеженою і невід'ємною величиною, так як кожен добуток загального виразу ентропії може приймати значення, обмежені можливими границями імовірності
. (2.9)
При рк=0 значення -рк log2 рк являє собою невизначеність, яка розкривається за правилом Лопіталя, т.д.
;
.
При рк=1 значення -рк log2 рк також перетворюється в нуль.
Обидва ці крайні випадки можуть бути оцінені також чисто інтуїтивно. Імовірності 0 і 1 відповідно означають неможливу і повністю вірогідну подію. Таким чином, будь-яка інформація про них зайва, так як події наперед відомі.
Поведінка кожного добутку -рк log2 рк між крайніми значеннями імовірності рк може бути встановлена пошуком його екстремуму. Для цього знаходимо першу похідну добутку і прирівнюємо її до нуля.
. (2.10)
Звідси
.
Максимальна величина одної складової буде рівна
, (2.11)
а поведінка цього добутку протягом всієї ділянки його існування приведена на рис. 2.1.
Рисунок 2.1 – Залежність -рк log2 рк від ймовірності стану рк .
Отриманий для одного добутку ентропії результат не вирішує питання про максимум ентропії повідомлення, яке містить різноймовірні символи, так як всі доданки формули (2.8) не можуть одночасно приймати значення, визначене виразом (2.11). Це неможливо, так як
. (2.12)
Для визначення максимуму ентропії дискретного повідомлення необхідно відшукати її умовний екстремум — враховуючи умову (2.12). Це можна зробити, застосовуючи метод множників Лагранжа, т.б. проводячи пошук екстремуму нової функції, утвореної у вигляді суми виразу, для якого необхідно визначити умовний екстремум, і додаткову умову, попередньо помноженого на невизначений множник Лагранжа:
;
.
На цьому етапі треба було б перейти до визначення множника λ, однак в даному випадку це зайве, так як і без того видно, що шукана величина рк не залежить від k, отже, всі рк рівні між собою. В результаті
. (2.13)
Одержаний вираз співпадає з рівністю (2.6), виведеною раніше для випадку, коли елементи повідомлення рівноймовірні. Таким чином, ентропія повідомлення, яка містить різноймовірні символи, завжди менша ентропії повідомлення, що складається з рівноймовірних символів. Ентропія бінарного повідомлення (m=2) завжди знаходиться в межах між 0 і 1.
Практично дискретні повідомлення (друкований текст, людська мова) звичайно мають сильно знижену ентропію, так як її, крім нерівної ймовірності символів, заважають також зв'язки (кореляція) між окремими символами (буквами, звуками). Завжди існує більша ймовірність того, що слідом за однією конкретною буквою піде друга визначена буква.
В таких випадках інформація, що буде отримана від цієї букви, буде незначна. Вказана обставина враховується поняттям надмірності, числове значення якої визначається за формулою
.
(2.14)
Будь-яка надмірність загружає канали передачі, являючись одночасно своєрідним захисником повідомлення від перешкод. Мовою без надмірності можна було б користуватись тільки в акустичній камері.
