- •Тема 1. Інформація та інформаційні процеси.
- •1. Повідомлення та інформація.
- •2. Моделі інформаційних систем
- •3. Математичні моделі каналу зв’язку
- •4. Предмет теорії інформації та кодування
- •Тема 2. Вимірювання інформації.
- •1. Основні підходи до вимірювання інформації, їх особливості.
- •2. Технічний (об’ємний) спосіб оцінювання інформації та його застосування в комп’ютерних системах.
- •3. Інформаційний обсяг повідомлення
- •4. Поняття про алгоритмічний підхід до вимірювання інформації.
- •Тема 3. Поняття ентропії інформації. Умовна та безумовна ентропії.
- •1. Кількісна міра інформації.
- •2. Ентропія та її властивості.
- •3. Безумовна ентропія
- •4. Умовна ентропія
- •5. Ентропія об’єднання двох джерел.
- •Тема 4. Методи визначення ентропії.
- •1. Ентропія по Хартлі.
- •2. Ентропія по Шеннону.
- •3. Ентропія по Колмогорову та ентропія 3
- •4. Ентропія по Шульцу та Мідлтону
- •5. Ентропія по Николайчуку. Інші методи визначення ентропії.
- •Тема 5. Характеристика дискретних джерел інформації. Теорема Шеннона.
- •1. Продуктивність дискретного джерела та швидкість передачі інформації
- •2. Інформаційні втрати при передачі інформації по дискретному каналу зв'язку
- •3. Пропускна здатність дискретного каналу. Основна теорема про кодування дискретного джерела.
- •Тема 6. Характеристики неперервних джерел інформації.
- •1. Інформаційні втрати при кодуванні неперервних джерел.
- •2. Продуктивність неперервного джерела та швидкість передачі інформації
- •3. Пропускна здатність неперервного каналу
- •Тема 7. Поняття про коди та кодування.
- •1. Поняття про коди та кодування. Потужність та довжина коду.
- •2. Рівномірні коди. Основна теорема про рівномірні коди.
- •3. Нерівномірні коди
- •4. Основні напрями кодування
- •Тема 8. Основи економного кодування.
- •1. Передавання інформації каналами зв’язку
- •2. Теоретичні основи побудови економних кодів. Перша теорема Шенона
- •3. Алгоритм Шенона—Фано для побудови економного коду
- •Алгоритм кодування за методом Шенона—Фано
- •4. Алгоритм Хаффмена для побудови оптимального коду
- •Алгоритм Хаффмена
- •5. Оптимальні нерівномірні коди і проблеми стискування інформації
- •Тема 9. Нерівномірні двійкові первинні коди.
- •1. Класифікація первинних кодів
- •2. Код Морзе
- •3. Число-імпульсні коди
- •Тема 10. Рівномірні двійкові первинні коди.
- •1. Числові двійкові коди
- •2. Двійково-десяткові коди
- •3. Двійково-десяткові коди з самодоповненням
- •4. Двійково-шістнадцятковий код
- •5. Рефлексні коди
- •Тема 11. Двійкові коди з виявленням помилок.
- •1. Коди з перевіркою на парність та непарність
- •2. Код із простим повторенням
- •3. Інверсний код
- •4. Кореляційний код
- •5. Код зі сталою вагою
- •6. Код із кількістю одиниць в комбінації, кратною трьом
- •Тема 12. Недвійкові коди з виявленням помилок.
- •1. Код з перевіркою за модулем q
- •2. Код із повторенням
- •3. Незвідні змінно-позиційні коди
- •4. Штрихові коди
- •Тема 16. Кодування в системі залишкових класів.
- •1. Побудова кодів у системі залишкових класів, породжених базисом Крестенсона
- •2. Переваги та недоліки кодування у системі залишкових класів
- •3. Ефективність математичних операцій у системі залишкових класів
- •4. Надлишковість та здатність виявляти та виправляти помилки
- •Тема 17. Коди Галуа.
- •1. Методика формування кодів Галуа, їх переваги
- •2. Надлишковість та здатність виявляти та виправляти помилки
4. Умовна ентропія
Теорія математичної статистики вивчає умовну ймовірність через безумовні ймовірності р(а),р(b) та сумісну безумовну ймовірність р(аb) за законом множення ймовірностей :
Для статично незалежних повідомлень а та b маємо
Тобто умовні ймовірності появи повідомлень вироджуються в безумовні.
Розрізняють два ризновиди умовної ентропії:часткову та загальну. Першу знаходять так:
Термін «вибір попереднього» досить умовний, оскільки повідомлення а та b можуть бути рознесені в часі,але знаходитися разом у просторі або бути одночасними чи майже одночасними та рознесеними в просторі. Ніякі обмеження на алфавіти А та В не накладаються. Вони можуть навіть збігатися (А=В). Тому можна аналізувати і враховувати взаємозв`язок між повідомленнями одного й того самого джерела в одному й тому самому алфавіті повідомлень, рознесеними в часі, але не в просторі. Такі послідовності зумовлених повідомлень називаються ланцюгами Маркова.
З іншого боку, алфавіти А та В можуть не збігатися (А≠В), хоча між елементами їх може бути й відповідність.
Алфавіти А та В можуть бути однакового (k= l) і неоднакового (k≠l)обсягів. Звичайно розглядають ситуації, коли k= l або k‹ l . система спостереження k= l має природне пояснення. Тут спостерігач В повинен реагувати своїм повідомленням bj(j=1…l) на кожний стан джерела А, висловлений повідомленням ai(i=1…k). При цьому діє принцип перетворення a1 →b1, a2 →b2 ,..., aі →bі ,..., aк→bк , коли кожному повідомленню aі джерела А відповідає повідомлення bі джерела В.
Звернемося до фізичного змісту умовної ентропії. Як і при вивченні безумовної ентропії, часткова умовна ентропія є математичним сподіванням значення р(ai / bj ) або р(bj / ai ). Це поняття відбиває середню за повним алфавітом кількість інформації, що припадає на одне повідомлення цього алфавіту (джерела). Тому Н(А/ bj ) є питомою кількістю інформації джерела А за умови, що вже встановлено, факт вибору джерелом В певного повідомлення bj ; Н(В/ ai ) – питомою кількістю інформації джерела В за умови , що вже відомо стан джерела А. Іншими словами, Н(А/ bj ) – це середня кількість інформації, яка містилася в будь-якому повідомленні джерела А, якщо джерело В вибрало повідомлення bj(j=1…k), а Н(В/ ai ) – середня кількість інформації, здобутої після вибору джерелом В будь-якого свого повідомлення, коли відомо, що джерело А знаходилося в стані ai(i=1…k). Часткова умовна ентропія визначається як статисне усереднення за методом зваження суми
по індексу і=1...k або j=1…k відповідно.
Якщо часткова умовна ентропія джерела А відносно конкретного повідомлення bj дорівнює Н(А/ bj ) , а розподіл імовірностей Рв джерела В задано ансамблем В із Рв={p(b1 ), … ,p(bj ), …,p(bk )} , то цілком природно обчислити середнє значення Н(А/ bj ) за всіма j як статичне усереднення методом зваженої суми, тобто
де Н(А/В)- загальна умовна ентропія джерела А відносно джерела В. Це питома (середньостатистична) кількість інформації, що припадає на будь-яке повідомлення джерела А, якщо відомо його статистичну взаємозалежність із джерелом В.
Аналогічна загальна умовна ентропія джерела В відносно джерела А визначається виразом
що є питомою кількістю інформації , яка припадає на будь-яке повідомлення джерела В, якщо відомо його статистичну взаємозалежність із джерелом А.
Вирази (2.13),(2.17),(2.18) вирази (2.19) і (2.20) набувають вигляду
