- •Тема 1. Інформація та інформаційні процеси.
- •1. Повідомлення та інформація.
- •2. Моделі інформаційних систем
- •3. Математичні моделі каналу зв’язку
- •4. Предмет теорії інформації та кодування
- •Тема 2. Вимірювання інформації.
- •1. Основні підходи до вимірювання інформації, їх особливості.
- •2. Технічний (об’ємний) спосіб оцінювання інформації та його застосування в комп’ютерних системах.
- •3. Інформаційний обсяг повідомлення
- •4. Поняття про алгоритмічний підхід до вимірювання інформації.
- •Тема 3. Поняття ентропії інформації. Умовна та безумовна ентропії.
- •1. Кількісна міра інформації.
- •2. Ентропія та її властивості.
- •3. Безумовна ентропія
- •4. Умовна ентропія
- •5. Ентропія об’єднання двох джерел.
- •Тема 4. Методи визначення ентропії.
- •1. Ентропія по Хартлі.
- •2. Ентропія по Шеннону.
- •3. Ентропія по Колмогорову та ентропія 3
- •4. Ентропія по Шульцу та Мідлтону
- •5. Ентропія по Николайчуку. Інші методи визначення ентропії.
- •Тема 5. Характеристика дискретних джерел інформації. Теорема Шеннона.
- •1. Продуктивність дискретного джерела та швидкість передачі інформації
- •2. Інформаційні втрати при передачі інформації по дискретному каналу зв'язку
- •3. Пропускна здатність дискретного каналу. Основна теорема про кодування дискретного джерела.
- •Тема 6. Характеристики неперервних джерел інформації.
- •1. Інформаційні втрати при кодуванні неперервних джерел.
- •2. Продуктивність неперервного джерела та швидкість передачі інформації
- •3. Пропускна здатність неперервного каналу
- •Тема 7. Поняття про коди та кодування.
- •1. Поняття про коди та кодування. Потужність та довжина коду.
- •2. Рівномірні коди. Основна теорема про рівномірні коди.
- •3. Нерівномірні коди
- •4. Основні напрями кодування
- •Тема 8. Основи економного кодування.
- •1. Передавання інформації каналами зв’язку
- •2. Теоретичні основи побудови економних кодів. Перша теорема Шенона
- •3. Алгоритм Шенона—Фано для побудови економного коду
- •Алгоритм кодування за методом Шенона—Фано
- •4. Алгоритм Хаффмена для побудови оптимального коду
- •Алгоритм Хаффмена
- •5. Оптимальні нерівномірні коди і проблеми стискування інформації
- •Тема 9. Нерівномірні двійкові первинні коди.
- •1. Класифікація первинних кодів
- •2. Код Морзе
- •3. Число-імпульсні коди
- •Тема 10. Рівномірні двійкові первинні коди.
- •1. Числові двійкові коди
- •2. Двійково-десяткові коди
- •3. Двійково-десяткові коди з самодоповненням
- •4. Двійково-шістнадцятковий код
- •5. Рефлексні коди
- •Тема 11. Двійкові коди з виявленням помилок.
- •1. Коди з перевіркою на парність та непарність
- •2. Код із простим повторенням
- •3. Інверсний код
- •4. Кореляційний код
- •5. Код зі сталою вагою
- •6. Код із кількістю одиниць в комбінації, кратною трьом
- •Тема 12. Недвійкові коди з виявленням помилок.
- •1. Код з перевіркою за модулем q
- •2. Код із повторенням
- •3. Незвідні змінно-позиційні коди
- •4. Штрихові коди
- •Тема 16. Кодування в системі залишкових класів.
- •1. Побудова кодів у системі залишкових класів, породжених базисом Крестенсона
- •2. Переваги та недоліки кодування у системі залишкових класів
- •3. Ефективність математичних операцій у системі залишкових класів
- •4. Надлишковість та здатність виявляти та виправляти помилки
- •Тема 17. Коди Галуа.
- •1. Методика формування кодів Галуа, їх переваги
- •2. Надлишковість та здатність виявляти та виправляти помилки
3. Ентропія по Колмогорову та ентропія 3
Більшість
технологічних об’єктів, які в даному
випадку розглядаються як стохастичні
ДІ, формують дані, що підлягають гаусовому
закону розподілу імовірностей. Для
таких ДІ переважна більшість відліків
лежить в діапазоні
в околі математичного сподівання.
Відповідно, ентропія буде визначатися
згідно виразу:
.
При
кодуванні неперервних ДІ із заданою
точністю квантування по рівню і кроці
дискретизації по часу А. Н. Колмогоровим
[101] запропонована нова міра інформації
–
-ентропія,
яка визначається кількістю елементів
при
переході ДІ в різні стани:
;
де
–
крок дискретизації, що забезпечує
точність квантування
;
C – діапазон квантування;
–
інтервал
часу спостереження ДІ.
Якщо
визначити кількість значень, яке може
бути отримане в
-просторі
за час
у вигляді:
;
отримаємо:
.
В
частковому випадку, коли
і
.
4. Ентропія по Шульцу та Мідлтону
Г. Шульц
[355] намагався узагальнити шенонівську
ентропію і тим самим створити поняття
оціночної ентропії. Він видозмінив
ентропію як середнє значення об’єму
інформації
окремих станів, щоб її можна було б
використовувати не тільки для передачі,
але й для оцінки значимості інформації.
Г. Шульц встановив оціночну шкалу,
по якій найбільш «несприятливому» стану
надавалось найнижче значення, а найбільш
сприятливому стану – найвище. Для
зручності користування значення шкали
вибиралися кратними степеню числа 2.
,
,
,...,
.
З цих значень утворювалися оціночні коефіцієнти
від
до
.
Вони
еквівалентні послідовності частот
.
Для забезпечення додаткової умови, яка вимагає, щоб при однаковій семантичній оцінці всіх станів ДІ утворювалась шенонівська оцінка ентропії, використовується формула:
.
Легко
помітити, що функція
симетрична відносно змінних
і
.
Для
вона приймає вигляд:
,
а
для
має місце граничний випадок:
,
де
– кількість можливих станів ДІ, що
співпадає з оцінкою Хартлі. Функцію
можна виразити через абсолютні значення
і абсолютні частоти
При цьому вираз:
формально відповідає шеннонівській ентропії:
.
Необхідно
відмітити, що в виборі оціночних
коефіцієнтів
існує певна довільність, яка вносить
експертну суб’єктивність в дану оцінку
ентропії ДІ.
Для
дискретного ергодичного ДІ, в якого
кореляційні зв’язки існують тільки
між двома сусідніми значеннями
послідовності
ентропія визначається виразом:
або
,
де
– умовна імовірність появи значення
при умові, що попереднім було значення
;
– сумісна
імовірність появи пари символів
.
В загальному випадку ентропія ергодичних ДІ визначається виразом:
,
де
–
імовірність послідовності станів
;
–
загальна кількість станів джерела;
– умовна імовірність появи
-го
стану при умові, що попередніми були
стани, при чому
-ий
передував
-му,
а
–
найбільш віддалений стан, який має
кореляційний зв’язок з
-м.
Для джерел з незалежними, але нерівноймовірними станами Б.Олівером [56] отримана оцінка загальної кількості можливих комбінацій станів:
або в логарифмічному вигляді:
,
яке на основі наближення Стірлінга
зводиться до виразу:
,
що співпадає з шенонівським визначенням ентропії.
Д. Мідлтон
[153] також досліджував дискретні ДІ, які
формують послідовність символів
довільної довжини, розподілених в
визначеному порядку в часі. Для реалізації
дискретної випадкової послідовності
,
кожен із символів
якої може приймати одне з
різних значень (
),
отримано вираз для апріорної невизначеності
,
де додавання проводиться по всім можливим значенням кожного з символів послідовності.
Для ДІ з статистично залежними станами Д. Мідлтон визначив вираз середньої умовної ентропії
,
де
,
–
статистично залежні стани ДІ. З останнього
виразу випливає, що для розрахунку
ентропії таких ДІ необхідно знати
сумісні щільності ймовірностей різного
порядку
...,
.
При вивченні статистичних моделей показано, що на практиці ДІ не є настільки статистично складними, щоб їх описувати багатомірними розподілами.
Зокрема, для повного опису ергодичних стаціонарних ДІ достатньо знати двомірні розподіли і відповідно статистично середні. Природно, що ентропія і швидкість створення повідомлень такими джерелами, за рахунок кореляційних зв’язків між різними послідовностями символів і нерівномірності розподілу імовірності символів, виявляються меншими в порівнянні з оцінкою інформаційної міри Хартлі (2.30).
