- •4.5 Контрольні питання 87
- •5.5 Контрольні питання 97
- •6.5 Контрольні питання 127
- •2Основні поняття теорії інформації
- •2.1Загальні положення
- •2.2Кругообертання інформації
- •2.3Класифікація інформації
- •2.4Структурні перетворення інформації
- •2.5Фази усунення надлишковості інформації
- •2.6Контрольні питання
- •3Інформаційна метрика
- •3.1Якісні і кількісні оцінки інформації
- •3.2Структурні міри інформації
- •3.2.1Загальна характеристика структурної метрики
- •3.2.2Геометрична міра інформації
- •3.2.3Комбінаторна міра інформації
- •3.2.4Адитивна міра (міра Хартлі)
- •3.2.5Специфіка структурної оцінки кількості інформації
- •3.2.6Інформаційна ємність
- •3.3Статистичні міри інформації
- •3.3.1Відповідність між ймовірністю і інформацією
- •3.3.2Ентропія як міра невизначеності
- •3.3.3Ентропія ансамблю (безумовна ентропія)
- •3.3.4Ентропія об’єднання, умовна ентропія
- •Ентропія безперервного джерела інформації (диференціальна ентропія)
- •3.3.5Кількість інформації як міра зняття невизначеності
- •3.4Кількість інформації і її надлишковість
- •3.5Оцінка якості виміру н контролю
- •3.6Семантичні міри інформації
- •3.6.1Поняття семиотика
- •3.6.2Змістовність інформації
- •3.6.3Доцільність інформації
- •3.6.4Динамічна ентропія
- •3.6.5Істотність інформації
- •3.7Контрольні питання
- •4Характеристики дискретних джерел інформації
- •4.1Продуктивність дискретного джерела та швидкість передачі інформації
- •4.2Інформаційні втрати при передачі інформації по дискретному каналу
- •4.3Пропускна здатність дискретного каналу
- •4.4Теорема Шеннона
- •4.5Контрольні питання
- •5Характеристики неперервних джерел інформації
- •5.1Квантування сигналів
- •5.2Інформаційні втрати при дискретизації неперервних джерел
- •5.3Продуктивність неперервного джерела та швидкість передачі інформації
- •5.4Пропускна здатність неперервного каналу
- •5.5Контрольні питання
- •6Кодування інформації
- •6.1Загальні поняття і визначення
- •6.2Кодування як процес представлення інформації в цифровому вигляді
- •6.3Ефективне кодування
- •6.4Кодування інформації для каналу з завадами
- •6.4.1Загальні поняття теорії завадостійкого кодування
- •6.4.2Різновиди завадостійких код
- •6.4.3Загальні принципи використання надлишковості
- •6.4.4Кодова відстань
- •6.5Контрольні питання
- •Перелік використаних джерел
3.7Контрольні питання
Яким трьом основним напрямкам відповідають міри інформації?
Що таке джерело повідомлень?
Які міри інформації розрізняють у структурній теорії?
Що таке ансамбль повідомлень?
Як визначається кількість інформації в одному повідомленні?
У чому суть адитивної міри Хартлі?
Як розраховується інформаційна ємність?
Яка відповідність між ймовірністю і інформацією?
При якому розподілу ймовірності максимальна інформативність повідомлень?
Що таке ентропія та які її властивості?
Що таке безумовна ентропія?
Що таке умовна ентропія?
Які основні властивості умовної ентропії?
Як визначається умовна ентропія?
Які основні властивості ентропії об'єднання двох джерел?
Як визначається кількість інформації на одне повідомлення двох статистичне взаємозв'язаних джерел?
За яких умов ентропія джерела стає максимальною?
Що таке диференціальна ентропія і чому вона так називається?
Як розуміти,що кількість інформації еквівалентна мірі зняття невизначеності?
Що таке надлишковість інформації і як вона визначається?
Що включає в себе семиотика?
Що розуміється під змістовністю інформації?
Що розуміється під істотністю і доцільністю інформації?
4Характеристики дискретних джерел інформації
4.1Продуктивність дискретного джерела та швидкість передачі інформації
Якщо джерело А вибирає повідомлення ai, то можна говорити, що воно виробляє певну кількість інформації Ii=-log pi. Її визначення за різних умов розглядалося в попередньому розділі. Там же згадувалось про можливість залучення часового вимірювання до моделі джерела. Розглянемо трохи складнішу його модель, а саме: ансамбль А повідомлень, урахувавши розподіл ймовірностей pi та розподіл проміжків часу i, протягом яких джерело вибирає різні повідомлення аi.
Продуктивність джерела щодо певного повідомлення аi можна визначити як
. (3.1)
Її одиниця залежить від вибору одиниці кількості інформації Iі. Наприклад, це може бути біт за секунду.
Як правило, джерело вибирає досить велику кількість повідомлень протягом певного часу. Тому природно як загальну характеристику джерела прийняти середню за ансамблем його продуктивність, користуючись відомим з попереднього розділу методом статистичного усереднення:
(3.2)
Загалом, коли і j при i j вираз (3.1) після усереднення за часом можна перетворити до такого вигляду:
, (3.3)
де сер — середній час вибору джерелом одного повідомлення.
Вираз (3.3) дійсний також для більш поширеного випадку, коли джерело вибирає всі свої повідомлення за один і той самий проміжок часу = сер
З урахуванням (3.3) вираз (3.2) набуває вигляду:
. (3.4)
Бачимо, що така загальна характеристика, як продуктивність дискретного джерела, визначається його середніми показниками: ентропією (середньою кількістю інформації в одному повідомленні) та часом утворення останнього.
Розглянемо узагальнену модель каналу передачі інформації (рис. 3.1). Зазначимо, що передача можлива як у просторі, так і в часі. Це залежить від мети передачі та вибраних носіїв інформації в лінії зв'язку. Виходячи з наведеного в п. 2.3 визначення маємо джерело А з ентропією H(А), утворене спостерігачем А та спостережуваним фізичним процесом А.
Повідомлення аi є А певної форми передаються лінією зв'язку, де на них впливають завади, що можуть спотворювати їх. Внаслідок цього утворюється новий фізичний процес 5, який спостерігається на виході лінії. Сама лінія при цьому розглядається як фізичний об'єкт В. Роль спостерігача В тут відіграє приймальний пристрій, що вибирає повідомлення bj з алфавіту В відповідно до фізичного процесу В. Таким чином, утворюється джерело В зі своєю безумовною ентропією Н(В).
Вибір повідомлень bj є В характеризує при цьому процес передавання інформації по каналу зв'язку від джерела А на вихід джерела В. Позначимо через І(А, В) середню кількість інформації про стан джерела А, яка міститься в одному повідомленні джерела В. Якщо на вибір кожного повідомлення витрачається час , то питома кількість переданої інформації є швидкістю її передачі по каналу, тобто
. (3.5)