Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Lektsiyiyi_TeorInf1.doc
Скачиваний:
27
Добавлен:
07.09.2019
Размер:
4.98 Mб
Скачать

3.7Контрольні питання

  1. Яким трьом основним напрямкам відповідають міри інформації?

  2. Що таке джерело повідомлень?

  3. Які міри інформації розрізняють у структурній теорії?

  4. Що таке ансамбль повідомлень?

  5. Як визначається кількість інформації в одному повідомленні?

  6. У чому суть адитивної міри Хартлі?

  7. Як розраховується інформаційна ємність?

  8. Яка відповідність між ймовірністю і інформацією?

  9. При якому розподілу ймовірності максимальна інформативність повідомлень?

  10. Що таке ентропія та які її властивості?

  11. Що таке безумовна ентропія?

  12. Що таке умовна ентропія?

  13. Які основні властивості умовної ентропії?

  14. Як визначається умовна ентропія?

  15. Які основні властивості ентропії об'єднання двох джерел?

  16. Як визначається кількість інформації на одне повідомлення двох статистичне взаємозв'язаних джерел?

  17. За яких умов ентропія джерела стає максимальною?

  18. Що таке диференціальна ентропія і чому вона так називається?

  19. Як розуміти,що кількість інформації еквівалентна мірі зняття невизначеності?

  20. Що таке надлишковість інформації і як вона визначається?

  21. Що включає в себе семиотика?

  22. Що розуміється під змістовністю інформації?

  23. Що розуміється під істотністю і доцільністю інформації?

4Характеристики дискретних джерел інформації

4.1Продуктивність дискретного джерела та швидкість передачі інформації

Якщо джерело А вибирає повідомлення ai, то можна говорити, що воно виробляє певну кількість інформації Ii=-log pi. Її визначення за різних умов розглядалося в попередньому розділі. Там же згадувалось про можливість залучення часового вимірювання до моделі джерела. Розглянемо трохи складнішу його модель, а саме: ансамбль А повідомлень, урахувавши розподіл ймовірностей pi та розподіл проміжків часу i, протягом яких джерело вибирає різні повідомлення аi.

Продуктивність джерела щодо певного повідомлення аi можна визначити як

. (3.1)

Її одиниця залежить від вибору одиниці кількості інформації Iі. Наприклад, це може бути біт за секунду.

Як правило, джерело вибирає досить велику кількість повідомлень протягом певного часу. Тому природно як загальну характеристику джерела прийняти середню за ансамблем його продуктивність, користуючись відомим з попереднього розділу методом статистичного усереднення:

(3.2)

Загалом, коли і j при i j вираз (3.1) після усереднення за часом можна перетворити до такого вигляду:

, (3.3)

де сер — середній час вибору джерелом одного повідомлення.

Вираз (3.3) дійсний також для більш поширеного випадку, коли джерело вибирає всі свої повідомлення за один і той самий проміжок часу = сер

З урахуванням (3.3) вираз (3.2) набуває вигляду:

. (3.4)

Бачимо, що така загальна характеристика, як продуктивність дискретного джерела, визначається його середніми показниками: ентропією (середньою кількістю інформації в одному повідомленні) та часом утворення останнього.

Розглянемо узагальнену модель каналу передачі інформації (рис. 3.1). Зазначимо, що передача можлива як у просторі, так і в часі. Це залежить від мети передачі та вибраних носіїв інформації в лінії зв'язку. Виходячи з наведеного в п. 2.3 визначення маємо джерело А з ентропією H(А), утворене спостерігачем А та спостережуваним фізичним процесом А.

Повідомлення аi є А певної форми передаються лінією зв'язку, де на них впливають завади, що можуть спотворювати їх. Внаслідок цього утворюється новий фізичний процес 5, який спостерігається на виході лінії. Сама лінія при цьому розглядається як фізичний об'єкт В. Роль спостерігача В тут відіграє приймальний пристрій, що вибирає повідомлення bj з алфавіту В відповідно до фізичного процесу В. Таким чином, утворюється джерело В зі своєю безумовною ентропією Н(В).

Вибір повідомлень bj є В характеризує при цьому процес передавання інформації по каналу зв'язку від джерела А на вихід джерела В. Позначимо через І(А, В) середню кількість інформації про стан джерела А, яка міститься в одному повідомленні джерела В. Якщо на вибір кожного повідомлення витрачається час , то питома кількість переданої інформації є швидкістю її передачі по каналу, тобто

. (3.5)

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]