
- •1.1. Повідомлення та інформація
- •1.2. Моделі інформаційних систем
- •1.4. Предмет теорії інформації та кодування
- •2.2. Кількісна міра інформації
- •2.3. Ентропія та її властивості
- •2.4. Безумовна ентропія
- •2.5. Умовна ентропія
- •2.6. Ентропія об'єднання двох джерел
- •3.1. Продуктивність дискретного джерела та швидкість передачі інформації
- •4.1. Квантування сигналів
- •4.2. Інформаційні втрати
- •4.3. Продуктивність неперервного джерела та швидкість передачі інформації
- •IhlilhM
- •4.4. Пропускна здатність . . . .
- •5.1. Класифікація кодів і характеристики їх
- •5.4. Способи подання кодів
- •5.6. Основні теореми кодування для каналів
- •6.1. Класифікація первинних кодів
- •6.2. Нерівномірні двійкові первинні коди
- •6.2.1. Код морзе
- •6.2.2. Число-імпульсні коди
- •6.3. Рівномірні двійкові первинні коди
- •6.3.1. Числові двійкові коди
- •6.3.2. Двійково-десяткові коди
- •6.3.4. Двійково-шістнадцятковий код ;;.-,-.
- •6.3.5. Рефлексні коди
- •7.1. Двійкові коди,
- •7.1.2. Код із перевіркою на непарність
- •7.1.3. Код із простим повторенням
- •7.2. Недвійкові коди, що виявляють помилки
- •7.2.1. Код із перевіркою за модулем q
- •7.2.2. Код із повторенням
- •8"6 90472 "100562 І' • шТрИховє зОбраЖєння кодового сло-
- •8.1. Двійкові групові коди
- •8.1.1. Лінійний систематичний груповий (блоковий) код
- •8.1.2. Коди хеммінга
- •8.1.4. Коди боуза - чоудхурі - хоквінгема
- •8.1.5. Код файра
- •8.1.6. Код із багатократним повторенням
- •8.3.2. Узагальнений код хеммінга
- •8.3.3. Коди боуза - чоудхурі - хоквінгема
- •8.3.4. Коди ріда - соломона
- •8.3.6. Недвійковий ланцюговий код
- •9.1. Вірогідність передачі кодованих повідомлень
- •9.2. Стиснення інформації"
- •9.2.1. Способи стиснення даних при передачі
- •9.2.2. Способи стиснення даних при архівації
- •Збіжного рядка
- •9.3. Збільшення основи коду
- •0Сзезс99е8с0е1с10d1c242d5c3d2c6d8cbd6e8c0
- •VosooooooooooooooooOvJvJ
1.4. Предмет теорії інформації та кодування
Теорія інформації— це розділ кібернетики, в якому за допомогою математичних методів вивчаються способи вимірювання кількості інформації, що міститься в будь-яких повідомленнях, способи кодування для економічного подання повідомлень і надійної передачі їх по каналах зв'язку з завадами.
Курс теорії інформації об'єднує такі теоретичні напрями, як кількісна оцінка інформації, кодування повідомлень, їх стиснення, оцінка ефективності та завадостійкості передачі кодованих повідомлень.
Одним з головних завдань теорії інформації є максимальне використання потенційних можливостей каналів зв'язку на основі оптимального кодування джерела повідомлення та його дальшого завадостійкого кодування. Це збігається з завданням теорії кодування — здобуттям ефективних алгоритмів кодування для джерел повідомлень і передачі даних по каналах зв'язку.
18
19
Теорія інформації та кодування за своєю природою дуже близька до математичних дисциплін; тому як апарат дослідження в ній застосовуються теорія скінченних полів, лінійна алгебра, комбінаторика, теорія матриць, теорія ймовірностей та математична статистика.
Без розвитку теорії інформації та кодування і впровадження її в життя практично неможливо створення складних систем керування супутниками Землі та ракетами, систем і мереж зв'язку та передачі даних, складних ЕОМ і комплексів тощо.
Засвоєння матеріалу курсу теорії інформації та кодування є необхідним для дальшого оволодіння знаннями в галузі збирання, передавання, перетворення, оброблення, накопичення та зберігання інформації, проектування та розроблення інформаційних систем і засобів автоматики та інформатики будь-якого призначення.
Інтерес до теорії інформації та кодування, а також до технічних засобів реалізації її положень зростатиме зі збільшенням обсягів потоків обміну інформацією. Ця тенденція прослідковуєть-ся в усіх галузях науки та техніки. Провадиться багато досліджень щодо розробки нових класів кодів, способів захисту інформації від несанкціонованих втручань у потоки інформації, вдосконалення способів і засобів її кодування та декодування.
КОНТРОЛЬНІ ЗАПИТАННЯ
Що таке повідомлення?
У чому полягає різниця між даними, повідомленнями та інформацією?
Що таке сигнал?
Які бувають сигнали?
Якими параметрами характеризуються сигнали?
Як узгодити ємність каналу та обсяг сигналу?
Чим характеризуються неперервні та дискретні повідомлення?
Які основні вузли систем передачі інформації та яке призначення їх?
Що таке лінія та канал зв'язку?
У чому полягає різниця між лінією та каналом зв'язку?
У чому полягають операції перетворення сигналу на повідомлення при передачі інформації?
Які відмінності багатоканальної системи передачі інформації від одноканальної?
Які бувають математичні моделі каналів зв'язку?
Що таке ідеальний канал зв'язку без завад?
У чому полягає особливість каналу зв'язку з адитивним гауссовим шумом?
Яка різниця між одно- та багатопроменевим каналами зв'язку?
Які особливості каналу зв'язку з невизначеною фазою сигналу?
Які відмінності між симетричним і несиметричним каналами зв'язку?
Що таке симетричний канал зв'язку без пам'яті?
Які математичні моделі дискретних каналів зв'язку застосовуються при моделюванні реальних каналів?
Що вивчається в дисципліні «Теорія інформації та кодування»?
КІЛЬКІСНІ
ХАРАКТЕРИСТИКИ
ІНФОРМАЦІЇ
РОЗДІЛ
Обговорюючи кількісні характеристики будь-якого досліджуваного об'єкта, мають на увазі насамперед можливість і вміння вимірювати ту чи іншу характеристику. Ця можливість визначається доступнії* тю об'єкта та наявністю вимірювального пристрою, а вміння нанп* ністю та знанням кількісної міри і процедур чи методик її шетосуттн*
Звісно, вибір міри є актом довільним. Можна вибрати тгачьно-прийняту міру, скажімо, метр для вимірювання довжини деякого об «•*• та. А можна вибрати й щось інше, як у відомому мультиплікаційному фільмі, де герої вимірювали довжину удава в папугах, діставши J ft minyi.
У теорії інформації поряд з іншими вирішуються питання вимірні вання кількості інформації. При цьому потребують свого виточений об 'єкти дослідження — джерела повідомлень і моделі їх, ижре \т tmvtiM* блі повідомлень. Нижче описуються особливості джерел повідомлень, дається оцінка кількості інформації в повідомленнях, наводяться шли* стивості ентропії та її різновиди.
2.1. АНСАМБЛІ ТА ДЖЕРЕЛА ПОВІДОМЛЕНЬ
Матеріальному світові, що оточує людину, притаманна безліч фізичних явищ, багато з яких змінюються в часі, маючи форму фізичних процесів, тобто таких явищ, фізичні показники яких не є миттєвими, а розподіленими в часі, які можна спостерігати кожної миті.
Будь-який матеріальний об'єкт разом із спостерігачем у і їм» рює систему, яка називається джерелом повідомлень [15,44]. 11.1 рис. 2.1 зображено схему системи взаємозв'язаних об'єктін і спостерігачів, вкладених одне в одне, стосовно передачі відомостей про певний фізичний об'єкт певному одержувачеві. Дим кожної стрілки на рис. 2.1 частина системи, розміщена ліворуч, може розглядатися, як спостережуваний об'єкт, а розташована праворуч — як спостерігач. При цьому не має значення ііри-рода спостерігача: чи це людина, чи це якийсь прилад. Його головне завдання полягає в перетворенні відомостей про стан
21
аьа2 ак
Канал, або спостерігач В
а,єА
-1
|
|
|
|
|
|
|
Об'єкт |
Фізичний процес |
|
Слотерігач А |
|
|
|
||||
|
|
|
Джерело А і |
b,,b2,...,bn
Джерело В
Одержувач С (спостерігач С)
Ь&В
Джерело С
CjEC
Спостерігач
Рис. 2.1
спостережуваного об'єкта на форму, зручну для прийняття іншими людиною або приладом.
Стан матеріального об'єкта, а отже, і його фізичні показники можуть набувати значення з певного дискретного набору значень. Джерело повідомлень з таким об'єктом є дискретним. Якщо стан матеріального об'єкта, відбитий у його фізичних показниках, набуває значення з нескінченної множини можливих значень, то таке джерело повідомлень є неперервним. Принципово воно може бути зведене до дискретного, якщо прийняти допустимий рівень похибки та за її допомогою з нескінченної множини можливих значень повідомлень вибрати певний дискретний набір. Саме тут у наявності похибки та її допустимому рівні криється принципова різниця між дискретним і неперервним джерелами повідомлень. Докладніше це питання розглядається в розд. 4.
Якщо під час деякого часового проміжку дискретним джерелом вибрано деяке повідомлення я/5 яке ніяк не зумовлене повідомленням ам, вибраним у попередній проміжок часу, то таке джерело є дискретним джерелом без пам 'яті.
Якщо в деякому часовому проміжку дискретним джерелом вибрано повідомлення а0 пов'язане з попереднім повідомленням дм і статистично зумовлене ним, то таке джерело називається дискретним джерелом із пам'яттю.
Крім дискретних, можуть бути також неперервні джерела повідомлень із пам яттю та без пам 'яті (див. п. 4.4). Переліченими тут типами не вичерпуються всі відомі джерела повідомлень. Специфічні джерела повідомлень, в яких враховано статистичні якості фізичних параметрів, розглядаються в [3, 35, 44].
Якщо кожного проміжку часу дискретне джерело повідомлень вибирає одне з k можливих повідомлень av я2, ...,%, то кажуть, що А = {а{9 ..., ак} є дискретною множиною повідомлень, або просто множиною повідомлень А. Як правило, для повнішого опису джерела повідомлень на множині А визначають її ймовірнісну міру, тобто з кожним дискретним повідомленням аі пов'язують ймовірність р. його вибору джерелом. Таким чином, множині А-{ах,..., ак} зіставляється ймовірнісна міра у вигляді множини Рк = {pv ...,рк}, на яку накладено обме-
к ження у вигляді YjPi ~ 1 • 1=1
Дві множини А та Р дають достатньо повний опис дискретного джерела повідомлень у вигляді його ймовірнісної моделі, а тому разом вони утворюють ансамбль повідомлень дискретного джерела. Це означає, що кожного проміжку часу дискретним джерелом вибирається певне повідомлення ах є А з імовірністю p(at) = pt є P. Наведене вище обмеження є природною умовою включення до складу множини А повної групи подій, якими виступають дискретні повідомлення. Ця вимога з'являється тут тому, що надалі треба скористатися апаратом математичної статистики, звідки й походить цей термін. Це дає змогу врахувати при розгляді всі обговорювані події-повідомлення. За своїм розсудом можна змінити склад можливих повідомлень в А, але слід пронормувати їх ймовірності так, щоб сума ймовірностей дорівнювала одиниці.