- •76019, М. Івано-Франківськ, вул. Карпатська 15.
- •До читача
- •Частина перша Вступ
- •Коротка історія розвитку систем передачі інформації
- •Загальна схема системи передачі інформації, або модель системи звязку
- •Канал звязку
- •Перешкоди радіозвязку
- •Стратосфера
- •Частина друга Кількісне визначення інформації.
- •2.1 Одиниці вимірювання інформації і інформативності
- •2.2 Ентропія дискретних повідомлень
- •Кількість інформації у всьому тексті, що передається
- •2.3. Ентропія неперервних повідомлень
- •2.4. Інформаційна ємність і продуктивність джерела
- •Частина третя Кодування повідомлень
- •3.1 Кодування при відсутності перешкод
- •3.2 Надлишкові коди
- •3.3 Систематичні коди ( у вузькому розумінні )
- •3.4 Циклічні коди
- •3.5 Неперервні коди
- •Частина четверта аналітичне уявлення сигналів
- •4.1 Класифікація сигналів
- •4.2 Періодичні сигнали
- •4.3 Неперіодичні сигнали
- •4.4 Випадкові сигнали
- •4.5 Кореляційний аналіз сигналів
- •4.6 Спектральний аналіз випадкових процесів
- •Частина п’ята дискретизація та квантування
- •5.1 Дискретизація сигналу – теорема відліків (Котельникова)
- •5.2 Квантування сигналу по рівню
- •Частина шоста модуляція сигналів
- •6.1 Амплітудна модуляція
- •6.2 Кутова модуляція
- •6.3 Амплітудно - імпульсна модуляція
- •6.4 Широтно - імпульсна модуляція
- •6.5 Часово - імпульсна модуляція
- •6.6 Кодово - імпульсна модуляція (кім)
- •Дельта-модуляція
- •Частина сьома параметри каналів передачі інформації
- •7.1 Пропускна здатність каналу.
- •7.2 Узгодження сигналу з каналом
- •7.3. Параметри основних різновидностей каналів звязку
- •Частина восьма завадостійкість систем
- •8.1. Поняття завадостійкості
- •8.2 Завадостійкість різних видів модуляції
- •8.3 Оптимальні методи прийому
- •8.4. Структура оптимальних приймачів
- •8.5 Прийом точно відомих сигналів
- •8.6 Виявлення не цілком відомого сигналу
- •Частина дев'ята багатоканальні системи
- •9.1 Основи розділення каналів
- •9.2 Системи з частотним розділенням каналів
- •9.3 Покращення енергетики сигналів в системах з чрк
- •9.4 Викривлення в системах з чрк
- •9.5 Системи з часовим розділенням каналів
- •9.6 Викривлення в системах з врк
- •9.7 Системи передачі цифрової інформації
- •Кількісне визначення інформації
- •Кодування повідомлень
- •Частина четверта аналітичне уявлення сигналів
- •Частина п’ята дискретизація та квантування
- •Модуляція сигналів
- •Параметри каналів передачі інформації
- •Завадостійкість систем
- •Багатоканальні системи
Частина друга Кількісне визначення інформації.
2.1 Одиниці вимірювання інформації і інформативності
Будь-яке повідомлення, що передається, утримує в собі обмежену кількість інформації про будь-яку подію. “Подія” при цьому розуміється в самому широкому розумінні цього слова. Кількість інформації, що передається або одержується, прийнято зв'язувати із ступінню несподіваності події, про яку говориться в повідомленні. Чим несподіваніша подія, тим більше інформації в повідомленні про неї.
При такій постановці питання для надання поняттю “кількість інформації” чіткого математичного сенсу потрібно перш за все дати чіткий числовий вираз “степені несподіваності” повідомлення. Ця задача вирішується методами теорії імовірності.
Якщо по каналу зв'язку передати повідомлення про подію, ймовірність якого до передачі (апріорна) була р1, а після прийому повідомлення стала (апостеріорна) рівною р2, то приріст кількості інформації, що пов'язаний з прийомом повідомлення, визначається співвідношенням цих ймовірностей і одержана кількість інформації визначається формулою:
.
(2.1)
Застосування логарифмічної функції для кількісної оцінки приросту інформації дає істотні переваги: так, повна інформація, яка міститься в повідомленні, що складається із декількох елементів, може бути одержана додаванням кількості інформації, що міститься в цих елементах. Крім того, якщо канал зв'язку ідеальний, тобто в ньому відсутні перешкоди та викривлення і, отже, прийняте повідомлення цілком достовірне, то приведений вираз справджується, так як імовірність
,
.
(2.2)
Так як початкова ймовірність завжди знаходиться в межах між нулем і одиницею, кількість інформації завжди додатна.
Чисельна величина кількості інформації залежить від вибору основи логарифма. Враховуючи, що технічні засоби передачі і злічування дискретної інформації частіше за все можуть приймати тільки два різних стани, вигідно користуватися логарифмом з основою 2. Тоді одиниця кількості інформації відповідає повідомленню про те, що трапилась одна з двох рівноймовірних подій. Вона називається двійковою одиницею інформації, або бітом.
Користуючись логарифмом з основою 10, одержуємо кількість інформації в інших одиницях — дітах, а користуючись натуральним логарифмом з основою е
, — в нітах.
Викладене ілюструє наступний приклад. Якщо по каналу зв'язку рівномірним кодом передається повідомлення про одну з восьми рівноймовірних подій, що здійснилися, кодові позначення ймовірності яких приведені в таблиці 2.1, то представляється можливим обчислити кількість інформації, що доставляється кожним наступним символом кодової групи, що передається. Для цього в першу чергу визначають ймовірності поступання окремих повідомлень після передачі кожного символу кодової групи (як це зроблено в таблиці 2.1), а потім розраховується кількість інформації, перенесеної кожним символом.
Таблиця 2.1 – ймовірності появи повідомлення
Номер повідомлення |
Код повідом-лення |
Імовірність повідом-лення |
Імовірність після передачі |
||
0 |
1 |
0 |
|||
1 2 3 4 5 6 7 8 |
000 001 010 011 100 101 110 111 |
¼ ¼ 1/8 1/8 1/16 1/16 1/16 1/16 |
1/3 1/3 1/6 1/6 0 0 0 0 |
0 0 1/2 1/2 0 0 0 0 |
0 0 1 0 0 0 0 0 |
При передачі повідомлення 3 в першому символі міститься інформація1
,
в другому символі
,
в третьому символі
.
Сумарна інформація дорівнює логарифму від величини оберненої апріорної імовірності повідомлення 3. Поряд з абсолютною кількістю інформації, що міститься в повідомленні, використовується поняття питома інформативність, або ентропія повідомлення. Під цим розуміється середня кількість інформації, що припадає на один символ передачі:
.
(2.3)
Ентропія характеризує повідомлення з точки зору його насиченості інформацією. Чим більша ентропія повідомлення, тим більше інформації отримується за одиницю часу.
