- •1.1 Основні теоретичні відомості
- •1.1.1 Методика визначення параметрів блоків системи
- •1.1.2 Методика визначення шумових властивостей електронної системи
- •1.2 Завдання
- •Параметри блоків наведені в табл. 1.2.
- •1.3 Вимоги до звіту
- •1.4 Контрольні запитання
- •2 Практичне заняття №2 «розрахунок параметрів електронних систем»
- •2.1 Основні теоретичні відомості
- •2.2 Завдання
- •2.3 Вимоги до звіту
- •2.4 Контрольні запитання
- •3 Практичне заняття №3 ”спектри періодичних сигналів”
- •3.1 Основні теоретичні відомості
- •3.2 Завдання
- •3.3 Вимоги до звіту
- •3.4 Контрольні запитання
- •4.1 Основні теоретичні відомості
- •4.2 Завдання
- •4.3 Вимоги до звіту
- •4.4 Контрольні запитання
- •5 Практичне заняття №5
- •5.1 Основні теоретичні відомості
- •5.1.1 Модуляція
- •5.1.2 Частотна модуляція аналогових повідомлень
- •5.1.3 Спектр сигналу з гармонічною частотною модуляцією
- •5.1.4 Частотна модуляція цифрових повідомлень
- •5.2 Завдання
- •5.3 Вимоги до звіту
- •5.4 Контрольні запитання
- •6 Практичне заняття №6 ”випадкові сигнали”
- •6.1 Основні теоретичні відомості
- •6.2 Завдання
- •6.3 Вимоги до звіту
- •6.4 Контрольні запитання
- •7 Практичне заняття № 7
- •7.1 Основні теоретичні відомості
- •7.1.1 Ансамблі та джерела повідомлень
- •7.1.2 Поняття кількості інформації у конкретному повідомленні
- •7.1.3 Одиниці вимірювання кількості інформації
- •7.1.4 Середня кількість інформації
- •7.1.5 Ентропія як міра невизначеності
- •7.1.6 Приклади розрахунків
- •7.2 Завдання
- •7.3 Вимоги до звіту
- •7.4 Контрольні запитання
- •Перелік рекомендованої літератури
7.1.4 Середня кількість інформації
Кількість
інформації в конкретному повідомленні
є
випадковою величиною. Для того, щоб
цілком охарактеризувати випадкову
величину i,
потрібно задати множину
всіх
її значень
і ймовірності
цих значень
.
Важливою числовою характеристикою
випадкової величини i
є
її математичне очікування, або середня
кількість інформації, що міститься
в Y
відносно X:
. (7.9)
Величина
називається також просто кількістю
інформації.
Кількість інформації можна представити в одному із таких виглядів:
де - середня кількість інформації, що міститься в значенні .
Якщо
випадкова величина Y
однозначно визначає випадкову величину
X,
то в цьому випадку
кількість інформації
є
функцією тільки розподілу
1),…,
n):
,
де
(7.10)
(формула
Шеннона). Величина
визначає кількість інформації, що
міститься в Х,
або середню кількість власної інформації
в Х
та називається мірою
Шеннона.
Середня
кількість інформації досягає максимуму
при рівномірному розподілі, коли
для всіх k
= 1,…, n
та
. (7.11)
Така міра кількості інформації називається мірою Хартлі.
У загальному випадку маємо:
.
Величина
описує середню кількість власної умовної
інформації, що міститься в Х,
чи просто кількість умовної інформації,
що визначається за формулою:
.
7.1.5 Ентропія як міра невизначеності
Ентропія – кількісна міра невизначеності ситуації. Термін і поняття ентропії по-різному вводиться в фізиці та теорії інформації.
В теорію інформації ентропію ввів американський математик К.Е.Шеннон. В теорії інформації ентропія – кількісна міра невизначеності випадкової величини.
Формули для визначення кількості інформації та ентропії подібні. Наприклад, ентропія системи, яка описується дискретною випадковою величиною Х із заданим рядом розподілу ймовірностей р(x1),…, р(xn), визначається з виразу
.
Поняття ентропії відіграє фундаментальну роль в теоремах Шеннона, що встановлюють основні закономірності оптимального кодування інформації реальних повідомлень при передачі їх по каналам зв’язку.
Ентропія має наступні властивості:
ентропія – величина дійсна та невід’ємна;
ентропія залежить від розподілу та не залежить від алфавіту
(змісту повідомлень);ентропія мінімальна та дорівнює нулю, якщо Х = const, тобто всі значення ймовірностей
дорівнюють нулю, крім одного, що дорівнює
1;ентропія максимальна і дорівнює logan, якщо всі ймовірності =1/n.
7.1.6 Приклади розрахунків
7.1.6.1 Приклад 1. Розрахунок кількості інформації.
Нехай
розподіли
задані таблицями 7.1 і 7.2.
Таблиця 7.1 Таблиця 7.2
k |
|
|
|
y1 |
y2 |
y3 |
1 |
1/4 |
x1 |
1 |
0 |
0 |
|
2 |
1/2 |
x2 |
1/4 |
1/2 |
1/4 |
|
3 |
1/4 |
x3 |
1/4 |
1/4 |
1/2 |
Треба знайти кількість інформації:
.
Використовуючи співвідношення теорії ймовірностей:
,
побудуємо
таблиці 7.3, 7.4, 7.5 значень величин:
.
Таблиця 7.3 Таблиця 7.4 Таблиця 7.5
|
|
|
|
|
l |
|
|
|
|
|
|
х1 |
1/4 |
0 |
0 |
1 |
7/16 |
y1 |
4/7 |
2/7 |
1/7 |
||
х2 |
1/8 |
1/4 |
1/8 |
2 |
5/16 |
y2 |
0 |
4/5 |
1/5 |
||
х3 |
1/16 |
1/16 |
1/8 |
3 |
1/4 |
y3 |
0 |
1/2 |
1/2 |
За допомогою формул (7.3), (7.7), (7.6) побудуємо таблиці значень шуканих величин в двійкових одиницях (таблиці 7.6 і 7.7).
Значення кількості інформації:
,
де
.
Таблиця 7.6 Таблиця 7.7
|
|
|
|
|
k, l |
|
|
|
|
|
1,194 |
-
|
- |
1 |
2 |
1,194 |
1,194 |
0,337 |
|
|
-0,806 |
0,678 |
0 |
2 |
1 |
1,678 |
1,137 |
0,478 |
|
|
-0,806 |
-0,322 |
1 |
3 |
2 |
2 |
0,218 |
0,500 |
Значення
"-"
для
,
утворюється
в результаті формальної підстановки
нульового значення апостеріорної
ймовірності
у формулі
(7.7) і означає, що поява відповідних пар
(x1
, y2),
(x1
, y3)
неможлива. У зв'язку з цим і можливість
появи значення "-"
дорівнює нулю. Значення "0" для
визначається тим, що значення x2
і y3
статистично незалежні:
та
.
Крім
того,
і в той же час
.
Це пов'язано
з тим, що
,
але
.
Функція
визначена
на множині
пар
і приймає на цій множині
з ненульовими ймовірностями ряд значень
від - 0,806 до 1,194. Становить інтерес розподіл
імовірностей цих значень. Шуканий
розподіл поданий у таблиці 7.8.
Таблиця 7.8 – Розподіл імовірностей
i |
-0,806 |
-0,322 |
0 |
0,678 |
1 |
1,194 |
P( i ) |
3/16 |
1/16 |
2/16 |
4/16 |
2/16 |
4/16 |
Знайдемо математичне очікування величини :
.
Значення
може бути знайдено також шляхом
усереднення:
,
а також за допомогою даних, приведених у таблиці 7.8:
=
0,4221 дв.од.
7.1.6.2 Приклад 2. Дискретне джерело А виробляє статистично незалежні повідомлення з розподілом імовірностей РА={0,4; 0,3; 0,15; 0,1; 0,03; 0,02}. Знайти ентропію даного джерела повідомлень.
Рішення. Ентропія Н(А) визначається за формулою:
=0,41,322+0,31,737+0,152,737+0,13,322+
+0,035,059+0,025,644 = 2,0573 біт/повідомлення.
