Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Н. О. 0 Теорія інформації рекомендовано Міністе...doc
Скачиваний:
0
Добавлен:
24.02.2020
Размер:
4.27 Mб
Скачать

Розв'язання

Умовні ймовірності p(yj/xi) при i=j характеризують вплив завад у каналі зв'язку.

Часткова умовна ентропія спостерігача Y щодо джерела X визначається за формулою

.

Знайдемо часткові умовні ентропії для всіх xi, i=1, …,3

(біт/сим);

(біт/сим);

(біт/сим).

Знаходимо загальну умовну ентропію дискретної випадкової величини (д. в. в.) Y стосовно д. в. в. X:

(біт/сим).

Скориставшись формулою множення ймовірностей

p(xiyj)=p(xi)p(yj/xi),

побудуємо матрицю ймовірностей системи д. в. в. X, Y:

Перевіряємо умову нормування: = 0,6305+0,013+0,0065+

+0,03+0,258+0,012+0,0015+0,004+0,0445=1.

З матриці сумісних ймовірностей p(x, y) знаходимо взаємну ентропію д. в. в. X, Y:

(біт/сим).

Скориставшись заданим рядом розподілу ймовірностей д. в. в. X, знайдемо ентропію X:

(біт/сим).

Перевірка: H(XY)=HX+H(Y/X)=1,142+0,3851,527 (біт/сим).

Виконавши в матриці сумісних ймовірностей pij= p(xy) згортку за i, отримаємо приблизний безумовний розподіл д. в. в. Y:

;

;

.

Перевіряємо умову нормування

p(y1)+ p(y2)+ p(y3)=0,662+0,275+0,063=1.

Знаючи приблизний безумовний закон розподілу Py={0,662; 0,275; 0,063}, знайдемо матрицю умовних ймовірностей p(x/ y), скориставшись формулою

.

.

Перевіряємо умови нормування:

;

;

.

Виходячи з розподілу безумовних ймовірностей д. в. в. Y, знайдемо ентропію Y:

(біт/сим).

З матриці умовних ймовірностей p(x/ y) знайдемо часткові умовні ентропії д. в. в. X стосовно д. в. в. Y:

(біт/сим);

(біт/сим);

(біт/сим).

Тоді загальна умовна ентропія X стосовно Y

(біт/сим).

Перевірка: H(XY)=HY+H(X/Y)=1,157+0,369=1,527 (біт/сим).

Відповідь: H(Y/x1)0,222 (біт/сим); H(Y/x2)0,705 (біт/сим);

H(Y/x3)0,593 (біт/сим); H(Y/X)0,385 (біт/сим); H(X/y1)0,289 (біт/сим); H(X/y2)0,383 (бітим); H(X/y3)1,148 (біт/сим); H(X/Y)0,369 (біт/сим).

Приклад 2 Матриця сумісних ймовірностей каналу зв'язку має вигляд

.

Знайти інформаційні втрати, пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення =10-3 с.

Розв'язання

Інформаційні втрати в каналі зв'язку визначаються умовною ентропією H(X/Y) одного джерела щодо іншого.

Для того щоб обчислити повну умовну ентропію H(X/Y), потрібно знайти розподіли безумовних ймовірностей p(xi), p(yj) і побудувати матрицю умовних ймовірностей p(xi/yj).

Безумовний закон розподілу p(xi) знаходимо, виконавши в матриці сумісних ймовірностей p(xi, yj) згортку за j:

p(x1)= 0,15+0,15+0=0,3, i=1;

p(x2)= 0+0,25+0,1=0,35, i=2;

p(x3)= 0+0,2+0,15=0,35, i=3.

Перевіряємо умову нормування

p(x1)+ p(x2)+ p(x3)=0,3+0,35+0,35=1.

Виходячи з розподілу безумовних ймовірностей д. в. в. X, обчислимо її ентропію:

(біт/сим).

Безумовний закон розподілу p(yj) знаходимо, виконавши в матриці сумісних ймовірностей p(xiyj) згортку за i:

p(y1)= 0,15+0+0=0,15, j=1;

p(y2)= 0,15+0,25+0,2=0,6, j=2;

p(y3)= 0+0,1+0,15=0,25, j=3.

Перевіряємо умову нормування:

p(y1)+ p(y2)+ p(y3)=0,15+0,6+0,25=1.

Матрицю умовних ймовірностей знаходимо, скориставшись формулою множення ймовірностей p(xi, yj)=p(yj)p(xi/yj).

Звідси випливає, що .

Отже, матриця умовних ймовірностей p(xi/yj) знаходиться так:

.

Для матриці умовних ймовірностей p(xi/yj) повинна виконуватися умова нормування

.

Перевіряємо цю умову:

,

,

.

Скориставшись матрицею умовний ймовірностей p(xi/yj), обчислимо часткові умовні ентропії X стосовно Y:

(біт/сим);

(біт/сим);

(біт/сим).

Виходячи з безумовного закону розподілу д. в. в. Y та знайдених часткових умовних ентропій H(X/yj), відшукуємо їх математичне сподівання – загальну умовну ентропію

(біт/сим). Отже, інформаційні втрати в каналі зв'язку H(X/Y)1,18 (біт/сим).

Пропускна здатність каналу із шумом обчислюється за формулою

,

де через k позначено об'єм алфавіту джерела; - час вибору повідомлення джерелом.

Отже, отримаємо (бод).

Кількість переданої по каналу інформації, що припадає на одне повідомлення джерела, знаходиться, виходячи із середньої кількості інформації, що виробляється джерелом – його ентропії і інформаційних втрат в каналі:

I(XY)=HX-H(X/Y)=1,581-1,1760,406 (біт/сим).

Швидкість передачі інформації знаходиться так:

(бод).

Відповідь: H(X/Y)1,18 (бітим); C409 (бод); v=406 (бод).

Задачі до розділу 2

  1. Дослідження каналу зв'язку між джерелом X і спостерігачем Y виявило такі умовні ймовірності вибору повідомлень yjY:

.

Знайти часткові H(X/yj) і загальну H(X/Y) умовні ентропії повідомлень у цьому каналі, якщо джерело задане ансамблем {x1, x2, x3} з ймовірностями {0,3; 0,2; 0,5}.

  1. Два статистично залежних джерела X та Y визначаються матрицею сумісних ймовірностей

.

Знайти часткові й загальну умовні ентропії H(X/yj), H(X/Y) і взаємну інформацію I(XY).

  1. Два статистично залежних джерела X та Y визначаються матрицею сумісних ймовірностей

.

Знайти часткові й загальну умовні ентропії H(X/yj), H(X/Y) і взаємну інформацію I(XY).

  1. Матриця сумісних ймовірностей каналу зв'язку має вигляд

.

Знайти часткові й загальну умовні ентропії H(X/yj), H(X/Y) і взаємну інформацію I(XY).

  1. Дослідження каналу зв'язку між джерелом X і спостерігачем Y виявило такі умовні ймовірності вибору повідомлень yjY:

.

Знайти часткові й загальну умовні ентропії повідомлень у цьому каналі H(X/yj), H(X/Y), якщо джерело задане ансамблем {x1, x2, x3} з ймовірностями {0,7; 0,2; 0,1}.

  1. Джерело повідомлень X задано ансамблем {x1, x2, x3} з ймовірностями p(x1)=0,65, p(x2)=0,25, p(x3)=0,1. Матриця умовних ймовірностей каналу має вигляд

.

Знайти кількість інформації, передану в одному й 100 повідомленнях джерела, інформаційні втрати в каналі при передачі 100 повідомлень з алфавіту X?

  1. Канал передачі інформації заданий ансамблем {x1, x2, x3} з ймовірностями {0,3; 0,2; 0,5}. Матриця умовних ймовірностей каналу має вигляд

.

Знайти інформаційні втрати в каналі, пропускну здатність каналу й швидкість передачі повідомлень джерелом, якщо час передачі одного повідомлення =10-3 c.

  1. Матриця сумісних ймовірностей каналу зв'язку має вигляд

.

Знайти інформаційні втрати в каналі й швидкість передачі інформації, якщо час передачі одного повідомлення =10-3 c.

  1. Знайти кількість переданої інформації в одному повідомленні джерела й пропускну здатність каналу зв'язку при =10-3 c, де - час, затрачуваний на передачу одного повідомлення, якщо матриця сумісних ймовірностей каналу має вигляд

.

  1. Знайти пропускну здатність каналу зв'язку при =10-2 c, де - час, затрачуваний на передачу одного повідомлення, якщо матриця сумісних ймовірностей каналу має вигляд

.

Чи можлива безпомилкова передача в цьому каналі, якщо продуктивність джерела Vдж=96 сим/с?

  1. Знайти інформаційні втрати в каналі й пропускну здатність дискретного каналу зв'язку при =10-3 c, де - час, затрачуваний на передачу одного повідомлення, якщо матриця сумісних ймовірностей каналу має вигляд

.

Чи можлива безпомилкова передача інформації в цьому каналі, якщо продуктивність джерела Vдж=860 сим/с?

Контрольні запитання до розділів 1-2

1 Які існують види інформації?

2 Як перевести неперервну інформацію в дискретний (цифровий) вигляд?

3 Що таке частота дискретизації неперервної інформації?

4 Як формулюється теорема дискретизації?

5 Що таке інформація, кодування, канал зв'язку, шум?

6 У чому полягають основні положення Шеннона до визначення кількості інформації?

7 Як визначається кількість інформації, що міститься в одному повідомленні дискретного джерела?

8 Як визначається кількість інформації на одне повідомлення джерела взаємозалежних повідомлень?

9 Що таке ентропія джерела? Які її властивості?

10 За яких умов ентропія джерела максимальна?

11 Як визначається кількість інформації? Які властивості кількості інформації?

12 Що таке умовна ентропія?

13 Як описується модель системи передачі інформації?

14 Які є види умовної ентропії?

15 Які основні властивості умовної ентропії?

16 Як знаходиться часткова умовна ентропія?

17 Як знаходиться загальна умовна ентропія?

18 Чим обумовлена статистична надмірність джерела інформації?

19 Чим визначається ентропія об'єднання двох джерел інформації?

20 Які основні властивості взаємної ентропії?

21 Як знаходиться кількість інформації на одне повідомлення двох статистично залежних джерел?

22 Що таке продуктивність джерела інформації?

23 Як визначається швидкість передачі інформації по каналу зв'язку?

24 Чим визначаються інформаційні втрати при передачі інформації по каналу зв'язку?

25 Чим визначаються інформаційні втрати в каналі за відсутності завад?

26 Чим визначаються інформаційні втрати в каналі при великому рівні завад?

27 Чим визначаються інформаційні втрати в каналі за наявності завад?

28 Як знаходиться кількість інформації, передана в одному повідомленні?

29 Чим визначається пропускна спроможність каналу зв'язку?

30 Чим визначається пропускна спроможність каналу зв'язку за відсутності завад?

31 Як формулюється теорема Шеннона про кодування дискретного джерела за відсутності завад?

32 Як формулюється теорема Шеннона про кодування дискретного джерела за наявності завад?

33 Як формулюється зворотна теорема Фано про кодування дискретного джерела за наявності завад?

Частина II Економне кодування інформації. Статистичні та словникові методи стиснення даних

Розділ 3 ОПТИМАЛЬНІ СТАТИСТИЧНІ МЕТОДИ СТИСНЕННЯ ІНФОРМАЦІЇ