- •1.1. Повідомлення та інформація
- •1.2. Моделі інформаційних систем
- •1.4. Предмет теорії інформації та кодування
- •2.2. Кількісна міра інформації
- •2.3. Ентропія та її властивості
- •2.4. Безумовна ентропія
- •2.5. Умовна ентропія
- •2.6. Ентропія об'єднання двох джерел
- •3.1. Продуктивність дискретного джерела та швидкість передачі інформації
- •4.1. Квантування сигналів
- •4.2. Інформаційні втрати
- •4.3. Продуктивність неперервного джерела та швидкість передачі інформації
- •IhlilhM
- •4.4. Пропускна здатність . . . .
- •5.1. Класифікація кодів і характеристики їх
- •5.4. Способи подання кодів
- •5.6. Основні теореми кодування для каналів
- •6.1. Класифікація первинних кодів
- •6.2. Нерівномірні двійкові первинні коди
- •6.2.1. Код морзе
- •6.2.2. Число-імпульсні коди
- •6.3. Рівномірні двійкові первинні коди
- •6.3.1. Числові двійкові коди
- •6.3.2. Двійково-десяткові коди
- •6.3.4. Двійково-шістнадцятковий код ;;.-,-.
- •6.3.5. Рефлексні коди
- •7.1. Двійкові коди,
- •7.1.2. Код із перевіркою на непарність
- •7.1.3. Код із простим повторенням
- •7.2. Недвійкові коди, що виявляють помилки
- •7.2.1. Код із перевіркою за модулем q
- •7.2.2. Код із повторенням
- •8"6 90472 "100562 І' • шТрИховє зОбраЖєння кодового сло-
- •8.1. Двійкові групові коди
- •8.1.1. Лінійний систематичний груповий (блоковий) код
- •8.1.2. Коди хеммінга
- •8.1.4. Коди боуза - чоудхурі - хоквінгема
- •8.1.5. Код файра
- •8.1.6. Код із багатократним повторенням
- •8.3.2. Узагальнений код хеммінга
- •8.3.3. Коди боуза - чоудхурі - хоквінгема
- •8.3.4. Коди ріда - соломона
- •8.3.6. Недвійковий ланцюговий код
- •9.1. Вірогідність передачі кодованих повідомлень
- •9.2. Стиснення інформації"
- •9.2.1. Способи стиснення даних при передачі
- •9.2.2. Способи стиснення даних при архівації
- •Збіжного рядка
- •9.3. Збільшення основи коду
- •0Сзезс99е8с0е1с10d1c242d5c3d2c6d8cbd6e8c0
- •VosooooooooooooooooOvJvJ
3.1. Продуктивність дискретного джерела та швидкість передачі інформації
Якщо джерело А вибирає повідомлення аі9 то можна говорити, що воно виробляє певну кількість інформації /, = -log p.. її визначення за різних умов розглядалося в попередньому розділі. Там же згадувалось про можливість залучення часового вимірювання до моделі джерела. Розглянемо трохи складнішу його модель, а саме: ансамбль А повідомлень, урахувавши розподіл імовірностей pf та розподіл проміжків часу т/9 протягом яких джерело вибирає різні повідомлення аҐ
Продуктивність джерела щодо певного повідомлення at можна визначити як
УПЖІ = Іі/хі. (3.1)
її одиниця залежить від вибору одиниці кількості інформації ІҐ Наприклад, це може бути біт за секунду.
Як правило, джерело вибирає досить велику кількість повідомлень протягом певного часу. Тому природно як загальну характеристику джерела прийняти середню за ансамблем його
49
продуктивність,
користуючись відомим з попереднього
розділу методом статистичного
усереднення:
^ ■■■/=! *
Загалом, коли т;. Ф Xj при / Ф] вираз (3.1) після усереднення за часом можна перетворити до такого вигляду:
^ = V(£^«) = V*cep> (3.3)
/=1
де т — середній час вибору джерелом одного повідомлення.
Вираз (3.3) дійсний також для більш поширеного випадку, коли джерело вибирає всі свої повідомлення за один і той самий проміжок часу т = т^р.
З урахуванням (3.3) вираз (3.2) набуває вигляду:
Гда=^Іл'/=-^£л1о8Л=^. (3.4)
Ісер /=1 Lcep /=1 ссер
Бачимо, що така загальна характеристика, як продуктивність дискретного джерела, визначається його середніми показниками: ентропією (середньою кількістю інформації в одному повідомленні) та часом утворення останнього.
Розглянемо узагальнену модель каналу передачі інформації (рис. 3.1). Зазначимо, що передача можлива як у просторі, так і в часі. Це залежить від мети передачі та вибраних носіїв інформації в лінії зв'язку. Виходячи з наведеного в п. 2.1 визначення маємо джерело А з ентропією Н (А), утворене спостерігачем А та спостережуваним фізичним процесом А.
Повідомлення аі є А певної форми передаються лінією зв'язку, де на них впливають завади, що можуть спотворювати їх. Внаслідок цього утворюється новий фізичний процес В, який спостерігається на виході лінії. Сама лінія при цьому розглядається як фізичний об'єкт В. Роль спостерігача В тут відіграє приймальний пристрій, що вибирає повідомлення Ь- з алфавіту В відповідно до фізичного процесу В. Таким чином, утворюється джерело В зі своєю безумовною ентропією Н (В).
Вибір повідомлень Ь- є В характеризує при цьому процес передавання інформації по каналу зв'язку від джерела А на вихід джерела В. Позначимо через І {А, В) середню кількість інформації про стан джерела А, яка міститься в одному повідомленні джерела В. Якщо на вибір кожного повідомлення витрачається
~і
|
|
|
|
|
|
|
1 Завади І |
|
|
|
|
||||||
|
|
Фізичний |
|
Алфавіт А ' |
w |
|||
|
Фізичний об'єкт А |
процес А |
Спотерігач А |
{а,...ак; [ J |
Лінія зв'язку (фізичний об'єкт) в 1 |
|||
|
|
|||||||
|
|
|
Джерело А: Н(А) 1 |
|
|
|||
|
|
|
||||||
Фізичний процес В |
|
|
|
|
||||
|
Приймальний пристрій (спостерігач В) |
ІЬ,...ЬК) |
|
|||||
|
|
|
|
^ |
||||
Джерело В: Н(В)
Рис. 3.1
час т, то питома кількість переданої інформації є швидкістю її передачі по каналу, тобто
і; У=Г(А,В) = І(А,В)Іт. (3.5)
3.2. ІНФОРМАЦІЙНІ ВТРАТИ ПРИ ПЕРЕДАЧІ , ІНФОРМАЦІЇ ПО ДИСКРЕТНОМУ КАНАЛУ
Задача дискретного каналу полягає в тому, щоб повідомлення Ьі однозначно відповідало повідомленню аг Це було б можливе тоді, коли р Ц/б,) = р (bj/a,) = 1 для всіх / = 1... К. А це означає, що мають виконуватися рівності р (аі9 Ь) = р (а^ = = p(bt) та/>■(«//*,) =р (bj/a,) = 0 або/? (д., b) = 0 для всіху Ф і. Цей випадок стосується каналу з малими завадами, які не можуть спотворити повідомлення а{- джерела А так, щоб спостерігач В помилився під час розпізнавання стану джерела В та вибору повідомлення br
Наведені вище умови означають повний збіг ансамблів А та В (нагадаємо, що до ансамблю входять множина повідомлень і множина імовірностей їх). А якщо це так, то середня кількість переданої інформації на одне повідомлення Н (А) при повній відсутності інформаційних втрат дорівнює такій самій кількості прийнятої інформації Н (В), тобто
■: І і -О І (А, В) = Н(А) = Н(В) = Н(А, В). (3.6)
50
51
Остання
рівність випливає з того, що за наведених
умов
Н(А/В) = Н(ВІА) = 0. (3.7)
Таким чином, кількість переданої інформації за відсутності завад дорівнює ентропії об'єднання джерел А та В або безумовній ентропії одного з них.
У разі повної статистичної незалежності джерел А та В, що характеризує високий рівень завад, коли повідомлення Ьі ніяк статистично незумовлене повідомленням аі9 маємо (див. п. 2.5)
Я (А/В) = Я (А); Я (В/А) = Я (В). (3.8)
При цьому ентропія об'єднання двох джерел становитиме
Н(А,В) = Н(В,А) = Н(А) + Н(В). (3.9)
У разі статистичної незалежності джерел А та В ніяка інформація від Ало В через її повне спотворення не передається. Інформаційною мірою цього спотворення є умовна ентропія одного джерела відносно іншого, яка збільшується від нуля згідно з (3.7) до максимуму згідно з (3.8) у міру зростання статистичної зумовленості джерел А та В.
У проміжному випадку неабсолютної статистичної залежності джерел А та В завади деякою мірою спотворюють повідомлення, що статистичне відбивається у вигляді матриць імовірностей перехресних переходів (див. п. 2.5). При цьому умовна ентропія має певні рівні:
0<Н(А/В)<Н(А);0<Н(В/А)<Н(В). (3.10)
Ураховуючи викладене, кількість інформації, що передається в каналі, можна визначити так. Якщо джерело А вибрало певне повідомлення, то воно виробляє кількість інформації, що дорівнює Я (А). Джерело В, вибравши повідомлення Ь- є В, за умови порушення повної статистичної залежності джерел А та В виробляє певну кількість інформації про джерело А, що міститься в джерелі В й дорівнює Я (А/В).
Спостерігач В (приймальний пристрій), вибравши повідомлення bj є В, приймає також рішення про повідомлення а, є А, яке передавалося, що є одним із його завдань. Прийнявши таке рішення, він виробляє кількість інформації про джерело А, яка дорівнює Я (А). Проте перед цим він уже одержав Я (А І В) бітів інформації про це джерело, тому кількість переданої в каналі інформації про джерело А як кількість нового відсутнього знання визначається різницею
.№ І(А,В) = Н(А)-Н(АІВ). (3.11)
Вираз (3.11) збігається повністю з (3.6) за умови (3.7) при малих завадах і з урахуванням того, що за умови статистичної незалежності (3.8) джерел (великі завади в каналі)
І(А,В) = 0. (3.12)
Згадаємо, щоН(А,В) = Н (В, А); тому
Н(А) + Н(В/А) = Н(В) + Н(А/В). (3.13)
Знак рівності тут не зміниться, якщо від обох частин (3.13) відняти суму Я {ВІЛ) + Я (А/В), тобто
Н(А)-Н (А/В) = Н(В)-Н (ВІА\ (3.14)
звідки
/ (А, В) = / (В, А). (3.15)
Таким чином, інформаційні втрати при передачі інформації в каналі визначаються умовною ентропією одного джерела відносно іншого, а кількість переданої інформації — безумовною ентропією джерела та інформаційними втратами за виразом (3.11) або (3.15).
З урахуванням (3.11), (3.13) і (3.15) можна записати
1 І(А,В) = Н(А)-Н(А/В) = Н(А)-[Н(А,В)-Н(В)] =
= Н(А) + Н(В)-Н(А,В); (3.16)
І(В,А) = Н(В)-Н(В/А) = Н(В)-[Н(В,А)-Н(А)] = h =H(B) + H(A)-H(B,A).
Спостерігається повна симетрія цих виразів.
- 3.3. ПРОПУСКНА ЗДАТНІСТЬ ДИСКРЕТНОГО КАНАЛУ
Максимально можлива швидкість передачі інформації по каналу зв'язку називається його пропускною здатністю С. Виходячи з виразу (3.5) маємо
C = kl(A,B)]max=l[H(A)-H{A/B)]max. (3.17)
Очевидно, вираз (3.17) досягає максимуму при абсолютному статистичному зв'язку джерел А та В, коли виконуються рівності (3.6) і (3.7). Це випадок малого рівня або відсутності спотворюючих завад. Тоді
С = ІЯ(Л)тах. (3.18)
52
53
Із п. 2.4 відомо, що безумовна ентропія джерела досягає максимуму при рівноймовірних і статистично незалежних повідомленнях ар і = 1... к. При цьому р (а) = \Ік для всіх і та
Я(^)тах=:І0е2/с-0тЖЄ'
C = ilog2A:. (3.19)
Цей вираз і визначає пропускну здатність каналу без завад.
Якщо в каналі є відчутні завади, а умовна ентропія на його вході та виході лежить у діапазоні (3.10), то пропускна здатність каналу із завадами визначається виразом
C = ±[log-2 k-H(A/B)]. (3.20)
При зменшенні завад цей вираз прямує до (3.19), а при їх збільшенні - до нуля.
3.4. ТЕОРЕМА ШЕННОНА
ПРО КОДУВАННЯ ДИСКРЕТНОГО ДЖЕРЕЛА
Головна теорема інформації, сформульована та доведена К. Шенноном [44], називається теоремою кодування дискрет ного джерела. Пізніше з'явилося багато її модифікацій для різ них обумовленостей та ситуацій [3,13, 28, 29, 35, 37, 38]. Нижче цю теорему та її модифікацію подамо без доведення, яке можна знайти в [3, 42], і коротко прокоментуємо їх. :
Нехай джерело повідомлень має ансамбль А - {я,}, і = 1, / та Р = (Р/Ь і = ІД Його безумовна ентропія дорівнює Н (А), а продуктивність —V^H (А), де Vm = Tm~] — кількість повідом лень джерела за одиницю часу.
Нехай канал без завад має алфавіт В = {bj}J - 1, k та ентропію Н (В). Тоді швидкість передачі інформації по каналу RK = = VKH(B). Використаємо безнадмірні вхідні повідомлення каналу, які мають максимальну ентропію, що забезпечує максимально можливу швидкість передачі інформації в каналі Ск = VK log2 k (згадаємо, що Н (В) = log2 k). Величина Ск називається пропуск-ною здатністю каналу з параметрами А: та VK - Тк~1, де Тк — тривалість передачі одного символу каналу.
Якщо взагалі надмірність повідомлень джерела не дорівнює нулю, то RK < Ск. Як довів К. Шеннон, відповідним добором способу кодування при будь-якій надмірності джерела А можна забезпечити швидкість передачі інформації по каналу без завад як завгодно близьку до його пропускної здатності Ск.
Таким чином, умовою узгодження джерела та каналу є відповідність продуктивності першого пропускній здатності другого. Для доведення цього твердження К. Шеннон використав поняття типових і нетипових послідовностей повідомлень. Нехай джерело А виробляє статистично незалежні повідомлення <7/? / = 1, / (це не має особливого значення, але спрощує розгляд). Розглянемо деякі властивості довгих послідовностей повідомлень джерела А. В бінарному випадку (алфавіт складається з двох повідомлень) імовірність того, що в послідовності п буде / повідомлень ах in- t повідомлень а2, визначається біномним законом розподілу імовірностей
р, = С'р\(1-Ріу->,
де Cln = n\/ [t\ (n - /)!] — кількість різних повідомлень із t елементами ах\п- t елементами а2;рх — імовірність появи повідомлення ах\ 1 -рх =р2 — ймовірність появи повідомлення а2.
Зі збільшенням п значення tin-ts кожній реалізації довгої послідовності прямуватимуть до своїх математичних сподівань, які дорівнюють прх і п (1 -рх) відповідно. Саме такі послідовності були названі типовими, оскільки незалежно від взаємного розміщення повідомлень ах та а2 в довгій послідовності кількість їх буде однакова. Послідовність з іншим співвідношенням кількості повідомлень ах та а2 називаються нетиповими, причому ймовірність появи їх із збільшенням п прямує до нуля.
Усі типові послідовності повідомлень мають однакову ймовірність
pT=pp»pf*9
якщо п прямує до нескінченності.
Аналогічно для k різних символів алфавіту В на виході каналу (де k збігається з кількістю символів каналу) маємо ансамбль В = {bj)J = 1, k та Р = {Pj}J = 1 Д. Тут із збільшенням п кількість появ кожного символу Ь: прямує до свого математичного сподівання, й саме така довга послідовність символів називається типовою. В ній незалежно від конкретної реалізації кількість кожного символу bj буде однаковою й дорівнює пр}. Ймовірність такої послідовності символів визначається виразом
„ - « Р\П « РіП „ РІГП
РТ ~Р\ ' Pi 2 -Рк •
Як бачимо, ймовірність/?т не залежить від конкретної реалізації типової послідовності символів, а залежить тільки від ансамблю (тобто від обсягу алфавіту та розподілу ймовірностей). Таким чином, імовірність рТ для всіх типових послідовностей джерела є величиною сталою.
54
55
Кількість різних типових послідовностей символів завдовжки п дорівнює п\/[ (пр{)\ (пр2)\... (прк)\], що випливає із законів комбінаторики. Всі типові послідовності символів рівноймовір-ні, а сума ймовірностей появи їх прямує до одиниці (це повна група випадків) при п —> оо. при цьому ймовірність нетипової послідовності прямує до нуля.
Таким чином, імовірність типової послідовності символів може бути подана якрт = IINT (А), де NT(A) — кількість типових послідовностей символів джерела.
Розглянуті властивості послідовностей формулюються у вигляді такої теореми [3,42]: кожна реалізація довгої послідовності повідомлень стаціонарного джерела А за умови достатньої довжини їх з імовірністю, як завгодно близькою до одиниці, збігається з однією з рівноймовірних типових послідовностей повідомлень.
їх рівноймовірність зумовлює максимальне значення ентропії джерела типових послідовностей повідомлень так, що на кожну з них припадає найбільша з можливих кількостей інформації ІТ = log2 NT (A). 3 іншого боку, ентропія джерела А визначається як
H(A) = (\-RHJlog2k9
де Лнад — надмірність джерела А. Це дає змогу визначити /т як
IT = nH(A) = n(\~RHajl)\og2k, звідки
log2NT(A) = n(l-RHJ\og2k.
Виходячи з визначення логарифма знаходимо
NT(A) = 2"(1" *"ад) ,082*.
Кількість усіх можливих послідовностей повідомлень завдовжки я, складених з елементів-повідомлень джерела А, становить
N(A) = k" = 2n]o^.
Тоді частка типових послідовностей повідомлень серед усіх можливих визначиться як
jVt (A)/ N(A) = 2-^над i°g2*.
При надмірності Лнад Ф 0 та п -» 0 ця частка прямує до нуля й лише при Днад = 0 маємо NT(A)I N (А) = 1, тобто в цьому разі кількість типових послідовностей повідомлень збігається з загальною кількістю послідовностей завдовжки п і всі вони рів-ноймовірні та використовуються для передачі інформації. Та-
ким чином, імовірність появи нетипових послідовностей повідомлень прямує до нуля.
На цьому ґрунтується теорема Шеннона про кодування дискретного джерела, або, як її інакше називають, теорема кодування дискретного каналу без завад. Формулюється вона так: якщо пропускна здатність дискретного каналу без завад перевищує продуктивність джерела повідомлень, тобто
VK\og2k>VmH(A), (3.21)
то існує спосіб кодування та декодування повідомлень джерела з ентропією Н(А), що гарантує як завгодно високу надійність зіставлення прийнятих комбінацій повідомлень з переданими; якщо VK log2 k < Кдж Н (А), то такого способу немає.
Для доведення теореми всі типові послідовності повідомлень тривалістю Т кодують в алфавіті В обсягом k у вигляді кодових комбінацій повідомлень тієї самої тривалості Т. Кількість символів на одну комбінацію нового алфавіту, що відображає типову послідовність повідомлень джерела А, становить пв = = TVK. Тоді кількість різних кодових комбінацій повідомлень у новому алфавіті В становитиме
N(B) = 2TV№2k.
Кількість же типових послідовностей повідомлень тривалістю Г з розрядністю п = ТУДЖ визначається як
NT(A) = 2TVwH(A\
Умову теореми можна записати у вигляді TVK \og2k > TV^Ji (A), або
N(B)>NT(A).
Перепишемо цю умову так: N(B) = NT(A) + є або N(B)/NT(A) >
2гє, де є > 0 — як завгодно мала величина. Виберемо є >
(log2e)/[7WT (А)]; тоді N(B)/NT(A) > е1/дгтИ) і, врахувавши розвинення в ряд є* = X хп /пі, дістанемо
/7=0
N(B)>NT(A)+l.
Таким чином, при виконанні умов (3.21) кількість різних кодових комбінацій повідомлень в алфавіті В принаймні на одиницю перевищує кількість типових послідовностей повідомлень джерела А, що забезпечує безпомилкове декодування їх. При невиконанні умови (3.21), коли VK log2 k < УШН (А), маємо 27Гкі°82* < 2гкджя^), або
Т N1(A)IN(B)>2n.
56
57
і Вибравши є < (log2 e)/[TN (В)], запишемо ?
NT (A)/N(B) > eVNW =i + \/N(B) + 1/pW2 (В)] + ...,
звідки випливає, що NT (А) > N (В) + 1, тобто кількість типових послідовностей повідомлень принаймні на одиницю перевищує кількість різних комбінацій коду з максимальною ентропією. Це означає, що навіть при найкращому кодуванні, яке забезпечує однакову ймовірність використання всіх кодових комбінацій на вході каналу, а також максимальну швидкість передачі інформації, неможливо закодувати та передати всі типові послідовності повідомлень NT (А) джерела. В цьому й полягає доведення розглядуваної теореми.
Питання, пов'язані з точністю передачі повідомлень, оцінкою вірогідності безпомилкової передачі їх, імовірністю помилок при відтворенні повідомлень тут не розглядалися. Про це йтиметься в розд. 9, де ці відомості знадобляться для оцінювання якості конкретних кодів і методів передачі інформації.
КОНТРОЛЬНІ ЗАДАЧІ
1. Ансамбль повідомлень джерела А визначено як А = {я,, av a3} та
р (а) = 0,65; р (а2) каналу має вигляд
0,25; р (д3) = 0,1. Матриця умовних імовірностей
0,99 0,13 0,15
0,005 0,75 0,35
0,005 0,12 0,5
P{bjlai):
Визначити кількість інформації, що передається в одному та 100 повідомленнях. Чому дорівнюють інформаційні втрати в каналі при передачі 100 повідомлень з алфавіту А!
Pibjla,)--
2. Визначити інформаційні втрати в каналі передачі з матрицею умовних імовірностей
1 |
0 |
0 |
0 |
0 |
1 |
0 |
0 |
0 |
0 |
1 |
0 |
0 |
0 |
0 |
1 |
Середня кількість інформації в будь-якому повідомленні be В дорівнює 2,312 біт. Умовна ентропія на виході В каналу передачі відносно його входу А становить Н (В/А) = 0,312 біт/повідомлення. Визначити кількість інформації, що передається в 10 000 повідомленнях, а також середню швидкість її передачі, якщо на передачу зазначеної кількості повідомлень витрачається 1/3 хв.
Матриця сумісних імовірностей каналу передачі має вигляд
0,15 0,25 0,2
0,15 0 0
0
0,1 0,15
P(ai,bj)--
Визначити інформаційні втрати в каналі та швидкість передачі інформації, якщо на передачу одного повідомлення витрачається 10~3 с.
Повідомлення передаються взаємонезалежними рівноймовірними символами тривалістю 5 • Ю-4 с Визначити швидкість передачі кожного символу та всієї інформації, якщо обсяг алфавіту дорівнює 8^, 16, 32.
Час передачі повідомлення 0 дорівнює 0,1 с, а повідомлення 1 - 0,6 с Знайти розподіл імовірностейр0 та/?,, за яких досягається максимальна швидкість передачі інформації.
Визначити продуктивність джерела з ансамблем А - {avav ау аА, а5, а6, av a$} тар.є {0,1; 0,2; 0,1; 0,15; 0,05; 0,1; 0,2; 0,1}; т.є {0,01; 0,001; 0,01; 0,005; 0,008; 0,006; 0,003; 0,001}. За яких умов ця продуктивність буде максимальною? Визначити її значення для того самого розподілу т..
Канал передачі задано ансамблем А = {av av я3} та/?, є {0,3; 0,2; 0,5}. Матриця умовних імовірностей каналу має вигляд
Pibjla^
0,97 0,015 0,015" 0,015 0,97 0,015 0,015 0,015 0,97
Визначити пропускну здатність каналу при т = 10-3 с і швидкість передачі інформації.
9. Визначити пропускну здатність каналу, матриця ймовірностей яко го при т = 10~2 с має вигляд
Г 0 0,2 0,15] p(ahb:) = \ 0 0,2 0
L°>3 ° °>15J
10. Чи можлива безпомилкова передача інформації по каналу, пара метри якого задано в попередній задачі, якщо продуктивність джерела V =9,6Кбіт/с?
дж '
КОНТРОЛЬНІ ЗАПИТАННЯ
Чим визначається продуктивність дискретного джерела?
Як можна визначити продуктивність дискретного джерела з різною тривалістю вибору повідомлень?
Як визначається швидкість передачі інформації по дискретному каналу?
Чому дорівнюють інформаційні втрати при передачі інформації по каналу зв'язку?
Чому дорівнюють втрати інформації в каналі з абсолютною статистичною залежністю його виходу та входу?
Чому дорівнюють втрати інформації в каналі із статистично незалежними його виходом і входом?
Як визначається кількість інформації, що передається в одному повідомленні?
Як проілюструвати принцип симетрії для кількості інформації, що передається по каналу?
Як визначається пропускна здатність каналу передачі?
Як визначається пропускна здатність каналу за відсутності завад?
Як формулюється теорема Шеннона про кодування дискретного джерела?
У чому полягає зміст теореми Шеннона про кодування дискретного джерела?
58
■лл
/І ХАРАКТЕРИСТИКИ JI НЕПЕРЕРВНИХ ^„.Д ДЖЕРЕЛ ІНФОРМАЦІЇ
Не всі повідомлення мають дискретний характер. Є й такі (мовні, телевізійні, факсимільні тощо), характер яких неперервний, на що треба звертати увагу. В цьому плані слід ураховувати втрати при перетворенні неперервних повідомлень на дискретні та інформаційні втрати при кодуванні неперервних джерел, уміючи оцінити швидкість передачі неперервних повідомлень і пропускну здатність неперервного каналу. Про все це йтиметься в цьому розділі.
