
- •7. Інформаційні характеристики каналів…………….36
- •1. Предмет і задачі теорії інформації
- •1.1. Основні поняття і визначення
- •1.2. Кількісна оцінка інформації
- •2. Безумовна та умовна ентропії
- •2.1 Безумовна ентропія і її властивості
- •2.2 Умовна ентропія
- •2.3 Ентропія об’єднання
- •Умовні ймовірності вигляду p(ai/bj) I p(bj/ai) обчислюються як
- •3. Диференціальна ентропія
- •3.1. Диференціальна ентропія
- •3.2. Епсилон-ентропія
- •4. Канали передачі інформації
- •4.1. Види каналів передачі інформації
- •4.2. Обчислення інформаційних втрат при передачі повідомлень по дискретним каналам зв’язку з шумами
- •5. Джерела повідомлень
- •5.1. Моделі сигналів
- •Спектр амплітуд є парною функцією k
- •5.2. Перетворення сигналів
- •5.3. Інформаційні характеристики джерела
- •Тоді повна ентропія джерела повідомлень
- •5.4. Інформаційні характеристики джерела
- •Модульна контрольна робота 1
- •6. Коди і кодування
- •6.1. Визначення кодів
- •6.2. Надмірність інформації
- •6.3. Оптимальне кодування
- •Для двоїчних кодів
- •Очевидно, що ця рівність вірна при умові, що довжина коду у вторинному алфавіті
- •У випадку нерівноймовірних і взаємозалежних символів
- •7. Інформаційні характеристики каналів зв’язку
- •7.1. Інформаційні характеристики дискретних каналів зв’язку
- •У випадку нерівноймовірних і взаємозалежних символів різної тривалості
- •7.2. Інформаційні характеристики неперервних каналів зв’язку
- •7.3. Узгодження фізичних характеристик сигналу і каналу
- •8. Ефективність і надійність систем передачі інформації.
- •8.1. Завадостійкість систем передачі інформації
- •8.2. Надійність систем передачі інформації
- •Для практичних розрахунків можна користуватись виразом
- •8.3. Цінність інформації
- •8.4. Інформаційна оцінка автоматизованих систем управління
- •В усталеному режимі буде додержуватись умова
- •Модульна контрольна робота 2
- •6.9.Як визначається ефективність онк?
- •Додатковий
Модульна контрольна робота 1
Перелік запитань до модульної контрольної роботи 1
1.1. Визначіть поняття “дані”, “повідомлення”, “інформація”, “сигнал”.
1.2.Яка залежність між кількістю інформації і кількістю комбінацій, складених із даного алфавіту?
1.3.Визначіть поняття “ентропія”
1.4.Як визначається ентропія та кількість інформації для рівноймовірних і взаємонезалежних символів (міра Хартлі)?
1.5.Як визначається ентропія та кількість інформації для нерівноймовірних символів (міра Шеннона)?
2.1. Як визначається безумовна ентропія?
2.2. Основні властивості ентропії.
2.3. Як визначається ентропія джерела і приймача повідомлень?
2.4. Як визначається умовна ентропія?
2.5. Часткова і загальна умовна ентропія.
2. 6. Ентропія об’єднання.
3.1.Яка особливість визначення ентропії неперервного джерела інформації?
3.2.Диференціальна ентропія і її основні властивості.
3.3.Які розподілення мають максимальну ентропію?
3.4.В чому сутність епсилон-ентропії випадкової величини?
3.5.Середньоквадратичний критерій вірності відтворення.
3.6.Визначення епсилон-ентропії через безумовну і умовну диференціальні ентропії.
4.1.Чому дорівнюють інформаційні втрати в каналах зв’язку без завад і в каналах зв’язку з високим рівнем завад?
4.2.Як описуються інформаційні характеристики реальних каналів зв’язку з використанням умовної ентропії?
4.3.Як описуються інформаційні характеристики реальних каналів зв’язку за допомогою ентропії об’єднання?
4.4.Які дані необхідно задати для повного опису каналу зв’язку?
5.1.В чому сутність частотного зображення сигналів?
5.2.Спектр амплітуд і спектр фаз.
5.3.Чим відрізняються спектри періодичного і неперіодичного сигналів?
5.4.Як визначається практична ширина спектру.
5.5.Дискретизація і квантування сигналів.
5.6.Теорема Котельникова.
5.7.Продуктивність джерела дискретних повідомлень.
5.8.Епсилон-продуктивність джерела неперервних повідомлень.
Перелік задач до модульної контрольної роботи 1
1.Тексти, які складені з 32 літер українського алфавіту, передаються по телетайпу за допомогою двох якісних ознак: наявності та відсутності струму. Чому дорівнює кількість інформації, яка припадає на одну прийняту літеру?
2.В алфавіті три букви А,В,С. Скласти максимальну кількість повідомлень, комбінуючи по три букви в повідомленні. Визначити кількість інформації на символ первинного алфавіту.
3.Скількома способами можна передати положення фігур на шаховій дошці? Чому дорівнює кількість інформації в кожному випадку?
4.Алфавіт складено із символів А,В,С,D. Імовірності появлення символів дорівнюють відповідно рА = рВ = 0,25;
рС = 0,34; pD = 0,16. Визначити кількість інформації на символ повідомлення, складеного з такого алфавіту.
5.Чому дорівнює кількість інформації при одержанні восьми повідомлень рівномірного чотиризначного потрійного коду?
6.Визначити об’єм і кількість інформації в тексті “Широка страна моя родная”, переданому стандартним телеграфним кодом №3.
7.Визначити ентропію джерела повідомлень, якщо статистика розподілення ймовірностей появлення символів на виході джерела повідомлень складає р(а1) = р(а2) = 0,25; р(а3) = 0,3: р(а4) = 0,2.
8.В результаті статистичних випробувань встановлено, що при передачі кожних 100 повідомлень довжиною по 5 символів в повідомленні символ К зустрічається 50 раз, а символ Т зустрічається 30 раз. Разом з символом К символ Т зустрічається 10 раз. Визначити умовні ентропії Н(К/Т) і Н(Т/К).
9.Визначити загальну умовну ентропію повідомлень, складених з алфавіту А, В, якщо ймовірності появлення символів в повідомленнях дорівнюють рА = 0,6; рВ = 0,4. Умовні ймовірності переходів одного символу в інший дорівнюють р(В/А) = 0,15; р(А/В) = 0,1.
10.В одному кошику 2 яблука і 1 груша, в другому 3 яблука і 1 груша, в третьому 2 яблука і 2 груші. Визначити повну умовну ентропію можливості витягнути яблуко навмання з будь-якого кошика.
11.Умовні ймовірності стану системи А відносно системи В: p(b1/a1)=p(b2/a1)=0,5; p(b2/a2)=0,666; p(b3/a2)= 0,334; p(b2/a3)=0,4; p(b3/a3)=0,6; p(b3/a1) = p(b1/a2)=p(b1/a3)=0. Який вигляд має матриця імовірностей об’єднаної системи АВ, якщо безумовні ймовірності системи А: р(а1)=0,2; р(а2)=0,3; р(а3)=0,5.
12.Визначити виграш у потужності при організації перешкод, які характеризуються ентропією, з допомогою джерела струму з гаусовою щільністю розподілення в порівнянні з джерелом з рівномірною щільністю розподілення.
13.Знайти -ентропію джерела інформації ансамбль станів якого описується нормально розподіленою випадковою величиною U з дисперсією 2 при вірності відтворення V(ZU) 2.
14.Канал зв’язку описано такою канальною матрицею:
|0,98 0,01 0,01|
p(b/a) = |0,1 0,75 0,15|
|0,2 0,3 0,5 |
Обчислити середню кількість інформації, яка переноситься одним символом повідомлення, якщо ймовірність появлення символів джерела повідомлень дорівнюють p(a1)=0,7; p(a2)=0,2; p(a3)=0,1. Чому дорівнюють інформаційні втрати при передачі повідомлення з 400 символів алфавіту a1 a2 a3 ?
15.Визначити кількість інформації при передачі повідомлень, які побудовані з алфавіту 1,2,3, якщо апріорні імовірності появлення символів первинного алфавіту рівні між собою, а внаслідок дії завад 5% символів можуть з однаковою ймовірністю перейти в будь-який інший символ даного алфавіту.
16.Визначити спектри амплітуд і фаз періодичної послідовності прямокутних імпульсів тривалістю і амплітудою u0, слідуючих з частотою 1 = 2/T.
17.Визначити за теоремою Котельнікова крок дискретизації t для детермінованої функції
2e-t при t 0,
u(t) =
0 при t 0,
при практичній ширині спектру з = 0,95.
Модуль 2