- •Тема 1. Інформація та інформаційні процеси.
- •1. Повідомлення та інформація.
- •2. Моделі інформаційних систем
- •3. Математичні моделі каналу зв’язку
- •4. Предмет теорії інформації та кодування
- •Тема 2. Вимірювання інформації.
- •1. Основні підходи до вимірювання інформації, їх особливості.
- •2. Технічний (об’ємний) спосіб оцінювання інформації та його застосування в комп’ютерних системах.
- •3. Інформаційний обсяг повідомлення
- •4. Поняття про алгоритмічний підхід до вимірювання інформації.
- •Тема 3. Поняття ентропії інформації. Умовна та безумовна ентропії.
- •1. Кількісна міра інформації.
- •2. Ентропія та її властивості.
- •3. Безумовна ентропія
- •4. Умовна ентропія
- •5. Ентропія об’єднання двох джерел.
- •Тема 4. Методи визначення ентропії.
- •1. Ентропія по Хартлі.
- •2. Ентропія по Шеннону.
- •3. Ентропія по Колмогорову та ентропія 3
- •4. Ентропія по Шульцу та Мідлтону
- •5. Ентропія по Николайчуку. Інші методи визначення ентропії.
- •Тема 5. Характеристика дискретних джерел інформації. Теорема Шеннона.
- •1. Продуктивність дискретного джерела та швидкість передачі інформації
- •2. Інформаційні втрати при передачі інформації по дискретному каналу зв'язку
- •3. Пропускна здатність дискретного каналу. Основна теорема про кодування дискретного джерела.
- •Тема 6. Характеристики неперервних джерел інформації.
- •1. Інформаційні втрати при кодуванні неперервних джерел.
- •2. Продуктивність неперервного джерела та швидкість передачі інформації
- •3. Пропускна здатність неперервного каналу
- •Тема 7. Поняття про коди та кодування.
- •1. Поняття про коди та кодування. Потужність та довжина коду.
- •2. Рівномірні коди. Основна теорема про рівномірні коди.
- •3. Нерівномірні коди
- •4. Основні напрями кодування
- •Тема 8. Основи економного кодування.
- •1. Передавання інформації каналами зв’язку
- •2. Теоретичні основи побудови економних кодів. Перша теорема Шенона
- •3. Алгоритм Шенона—Фано для побудови економного коду
- •Алгоритм кодування за методом Шенона—Фано
- •4. Алгоритм Хаффмена для побудови оптимального коду
- •Алгоритм Хаффмена
- •5. Оптимальні нерівномірні коди і проблеми стискування інформації
- •Тема 9. Нерівномірні двійкові первинні коди.
- •1. Класифікація первинних кодів
- •2. Код Морзе
- •3. Число-імпульсні коди
- •Тема 10. Рівномірні двійкові первинні коди.
- •1. Числові двійкові коди
- •2. Двійково-десяткові коди
- •3. Двійково-десяткові коди з самодоповненням
- •4. Двійково-шістнадцятковий код
- •5. Рефлексні коди
- •Тема 11. Двійкові коди з виявленням помилок.
- •1. Коди з перевіркою на парність та непарність
- •2. Код із простим повторенням
- •3. Інверсний код
- •4. Кореляційний код
- •5. Код зі сталою вагою
- •6. Код із кількістю одиниць в комбінації, кратною трьом
- •Тема 12. Недвійкові коди з виявленням помилок.
- •1. Код з перевіркою за модулем q
- •2. Код із повторенням
- •3. Незвідні змінно-позиційні коди
- •4. Штрихові коди
- •Тема 16. Кодування в системі залишкових класів.
- •1. Побудова кодів у системі залишкових класів, породжених базисом Крестенсона
- •2. Переваги та недоліки кодування у системі залишкових класів
- •3. Ефективність математичних операцій у системі залишкових класів
- •4. Надлишковість та здатність виявляти та виправляти помилки
- •Тема 17. Коди Галуа.
- •1. Методика формування кодів Галуа, їх переваги
- •2. Надлишковість та здатність виявляти та виправляти помилки
2. Продуктивність неперервного джерела та швидкість передачі інформації
Виходячи з того, що ентропія H(х) неперервного джерела за абсолютним значенням є нескінченною, продуктивність такого джерела також нескінченна. Про продуктивність неперервного джерела доцільно говорити лише в диференціальну ентропію h1(x) і h2(x) сусідніх відліків повідомлення, взятих з інтервалом часу ∆t=t2 –t1.
Відповідно до теореми відліків неперервні повідомлення х, у можуть бути подані сукупностями відліків їх хі та уі в дискретні моменти часу з кроком ∆t.
Розподіл сукупності випадкових величин описується багатовимірною щільністю розподілу ймовірностей w(x1, x2, …, xm), w(y1, y2, …, ym). Якщо вважати випадкові величини незалежними та врахувати, що ентропія сукупності незалежних випадкових величин дорівнює сумі ентропії окремих таких величин, то диференціальна ентропія повідомлення визначається як
диференціальна ентропія i-го відліку повідомлення ; m = T/∆t – кількість відліків повідомлення тривалістю Т, зроблених з інтервалом часу ∆t. Обмежившись стаціонарними випадковими процесами, дістанемо
де h(x) – диференціальна ентропія одного відліку повідомлення у формі.
Аналогічно можна показати, що умовна диференціальна ентропія
hТ(x/y) = mh(x/y),
де h(x/y) – умовна диференціальна ентропія одного відліку повідомлення.
Тоді вираз кількості інформації в неперервному повідомленні тривалістю Т матиме вигляд
Назвемо середньою швидкістю передачі інформації неперервним джерелом кількість інформації, що передається за одиницю часу, тобто
де
– частота дискретизації повідомлення.
3. Пропускна здатність неперервного каналу
Пропускною здатністю неперервного каналу називається максимально можлива швидкість передачі інформації в ньому:
Як і для дискретного каналу, даний вираз досягає максимуму при максимальному степені статистичної зумовленості неперервних повідомлень на виході та вході каналу. При цьому умовна диференціальна ентропія прямує до нуля завдяки низькому рівню завад і все меншому спотворенню повідомлень у каналі. Проте функція h(x) матиме максимум лише при певних законах розподілу w(x) імовірностей.
Даний вираз за наявності завади у вигляді “білого шуму” набуває вигляду:
Пропускну здатність неперервного каналу можнарегулювати, змінюючи Fm, ; Pc і Pз. Суть виразу полягає у тому, що сума (1 + Pc/Pз) визначає кількість рівнів неперервних повідомлень, які надійно розпізнаються на фоні завади при заданому відношенні сигналу. Тому кількість інформації тут, що припадає на один відлік повідомлення, буде такою самою, як і для дискретного джерела з кількістю етапів k = 1 + Pc/Pз, коли I(x,y) = log2(1 + Pc/Pз).
Тема 7. Поняття про коди та кодування.
План
1. Поняття про коди та кодування. Потужність та довжина коду.
2. Рівномірні коди. Основна теорема про рівномірні коди.
3. Нерівномірні коди.
4. Основні напрями кодування
