- •Тема 1. Інформація та інформаційні процеси.
- •1. Повідомлення та інформація.
- •2. Моделі інформаційних систем
- •3. Математичні моделі каналу зв’язку
- •4. Предмет теорії інформації та кодування
- •Тема 2. Вимірювання інформації.
- •1. Основні підходи до вимірювання інформації, їх особливості.
- •2. Технічний (об’ємний) спосіб оцінювання інформації та його застосування в комп’ютерних системах.
- •3. Інформаційний обсяг повідомлення
- •4. Поняття про алгоритмічний підхід до вимірювання інформації.
- •Тема 3. Поняття ентропії інформації. Умовна та безумовна ентропії.
- •1. Кількісна міра інформації.
- •2. Ентропія та її властивості.
- •3. Безумовна ентропія
- •4. Умовна ентропія
- •5. Ентропія об’єднання двох джерел.
- •Тема 4. Методи визначення ентропії.
- •1. Ентропія по Хартлі.
- •2. Ентропія по Шеннону.
- •3. Ентропія по Колмогорову та ентропія 3
- •4. Ентропія по Шульцу та Мідлтону
- •5. Ентропія по Николайчуку. Інші методи визначення ентропії.
- •Тема 5. Характеристика дискретних джерел інформації. Теорема Шеннона.
- •1. Продуктивність дискретного джерела та швидкість передачі інформації
- •2. Інформаційні втрати при передачі інформації по дискретному каналу зв'язку
- •3. Пропускна здатність дискретного каналу. Основна теорема про кодування дискретного джерела.
- •Тема 6. Характеристики неперервних джерел інформації.
- •1. Інформаційні втрати при кодуванні неперервних джерел.
- •2. Продуктивність неперервного джерела та швидкість передачі інформації
- •3. Пропускна здатність неперервного каналу
- •Тема 7. Поняття про коди та кодування.
- •1. Поняття про коди та кодування. Потужність та довжина коду.
- •2. Рівномірні коди. Основна теорема про рівномірні коди.
- •3. Нерівномірні коди
- •4. Основні напрями кодування
- •Тема 8. Основи економного кодування.
- •1. Передавання інформації каналами зв’язку
- •2. Теоретичні основи побудови економних кодів. Перша теорема Шенона
- •3. Алгоритм Шенона—Фано для побудови економного коду
- •Алгоритм кодування за методом Шенона—Фано
- •4. Алгоритм Хаффмена для побудови оптимального коду
- •Алгоритм Хаффмена
- •5. Оптимальні нерівномірні коди і проблеми стискування інформації
- •Тема 9. Нерівномірні двійкові первинні коди.
- •1. Класифікація первинних кодів
- •2. Код Морзе
- •3. Число-імпульсні коди
- •Тема 10. Рівномірні двійкові первинні коди.
- •1. Числові двійкові коди
- •2. Двійково-десяткові коди
- •3. Двійково-десяткові коди з самодоповненням
- •4. Двійково-шістнадцятковий код
- •5. Рефлексні коди
- •Тема 11. Двійкові коди з виявленням помилок.
- •1. Коди з перевіркою на парність та непарність
- •2. Код із простим повторенням
- •3. Інверсний код
- •4. Кореляційний код
- •5. Код зі сталою вагою
- •6. Код із кількістю одиниць в комбінації, кратною трьом
- •Тема 12. Недвійкові коди з виявленням помилок.
- •1. Код з перевіркою за модулем q
- •2. Код із повторенням
- •3. Незвідні змінно-позиційні коди
- •4. Штрихові коди
- •Тема 16. Кодування в системі залишкових класів.
- •1. Побудова кодів у системі залишкових класів, породжених базисом Крестенсона
- •2. Переваги та недоліки кодування у системі залишкових класів
- •3. Ефективність математичних операцій у системі залишкових класів
- •4. Надлишковість та здатність виявляти та виправляти помилки
- •Тема 17. Коди Галуа.
- •1. Методика формування кодів Галуа, їх переваги
- •2. Надлишковість та здатність виявляти та виправляти помилки
5. Ентропія по Николайчуку. Інші методи визначення ентропії.
Складність обчислення багатовимірних розподілів суттєво обмежує можливості використання шенонівських оцінок ентропії для ДІ з незалежними та статистично залежними станами при інженерному розрахунку їх властивостей, особливо, якщо дослідження інформаційних параметрів конкретних джерел ведуться комп’ютерною системою в реальному масштабі часу. Тому реалізація безпосереднього зв’язку кореляційна функція з розподілами ймовірностей станів і ентропією ДІ є досить перспективною. Такий зв’язок легко встановлюється для неперервних джерел [228].
, (2.32)
де:
– диференціальна ентропія;
– умовна
диференціальна ентропія повідомлення
;
– щільність
сумісного розподілу
і
;
– щільність
розподілу
;
– умовна
щільність розподілу
відносно
.
Багаторазовими дослідженнями [45, 200] реальних об’єктів управління і джерел інформації показано, що стохастичні параметри технологічних процесів на локальних проміжках часу досить точно описуються моделлю гаусового закону розподілу ймовірностей.
Оцінка ентропії джерел з корельованими станами, які мають гаусовий закон розподілу, визначається за виразом [116, 180]:
.
Чисельний розрахунок ентропії дискретного ДІ з нерівноймовірними корельованими станами здійснюється у відповідності з виразом:
, (2.33)
де перший елемент є константою інформаційної міри, що пов’язана з типом закону розподілу випадкової величини, другий елемент визначає дисперсію випадкових станів ДІ:
,
а третій елемент характеризує взаємну ентропію корельованих нерівноймовірних станів ДІ за допомогою квадрату нормованої функції автокореляції:
. (2.34)
Розрахунок
ентропії ДІ на основі оцінки нормованої
автокореляційної функції
є незручним при обчисленні в зв’язку
з необхідністю центрування послідовності
згідно з (2.34). Для оцінки ентропії ДІ за
допомогою структурної функції (2.7)
приведемо вираз (3.32) до вигляду:
, (2.35)
де
.
Кореляційна
функція для стаціонарних процесів легко
виражається через коваріаційну функцію
(2.11), яка значно простіша в обчисленні
через відсутність центрування.
Відповідно, визначення ентропії зручніше здійснювати через автоковаріаційну функцію згідно наступного виразу:
Аналітичний
зв’язок між структурною і автокореляційною
функціями визначається з (2.11). Підставимо,
виражене через
значення
,
і отримаємо оцінку:
. (2.36)
Якщо оцінити середнє, отримаємо робочу формулу міри ентропії
або
, (2.37)
де – інтервал усереднення.
Простіше,
порівняно з структурною функцією,
обчислюється модульна функція
автокореляції
,
яка в випадку гаусових процесів має
статистичний зв’язок з функцією
кореляції (2.12), звідки
,
де
– нормована модульна функція автокореляції.
Тоді отримаємо оцінку ентропії у вигляді:
, (2.38)
яка може бути ефективно використана на практиці в задачах ідентифікації джерел інформації.
Модульна
функція має простий аналітичний зв'язок
з функцією еквівалентності (2.11), на
основі якого, з (2.38) отримаємо оцінку
ентропії, виражену через функцію
еквівалентності
:
. (2.39)
Аналогічні
оцінки можна отримати, якщо використати
статистичні зв'язки нормованої
кореляційної функції із знаковою
та полярною
кореляційними функціями (2.12).
Відповідно оцінки ентропії будуть мати вигляд:
; (2.40)
.
(2.41)
Ентропійна
модель, виражена через
,
обчислюється з більшою швидкодією,
завдяки простішій реалізації функції
“менше з двох” ніж операцій множення,
віднімання, піднесення до квадрату.
Ентропійну модель на основі
доцільно використовувати для обробки
даних ДІ, які формують цифрові сигнали
із значеннями +1 і –1.
Аналіз
функції
та оцінок
різних дискретних ДІ показує, що при
заданому діапазоні квантування станів
максимальною ентропією характеризуються
дискретні послідовності максимальної
довжини.
Це добре узгоджується з логічними уявленнями про інформаційну ємність дискретних послідовностей і властивостями сигнальних моделей ДІ, що дає можливість достатньо ефективно використовувати при інженерних розрахунках введені міри (2.37) – (2.41).
Реалізуючи обчислення оцінки на ковзному інтервалі можна алгоритмічно просто здійснити ідентифікацію інформаційних станів технологічних об’єктів контролю та управління в реальному масштабі часу.
Даний клас моделей, по відношенню до кореляційних, здійснюють інтегральну оцінку імовірності переходів між станами і завдяки представленню в логарифмічному просторі забезпечують менші об’єми даних.
