ТІК / Теорія Інформації та Кодування / Лаб робота №1
.docДва статистично незалежних джерела А та В визначаються матрицею сумісних ймовірностей P (ai, bj). Визначити часткову та загальну умовну ентропію, ентропію об’єднання, безумовну ентропію цих джерел, а також кількість інформації, що припадає на пару повідомлень аі, bj.
Варіант №1
0,22 0 0,1 P (ai, bj) = 0,18 0,1 0
0 0,25 0,15
Варіант №2
0,22 0,12 0,04 0
0,1 0,15 0,05 0,01
P (ai, bj) = 0,06 0,07 0,06 0
0,08 0 0,03 0,01
Варіант №3
0,17 0,2 0 P (ai, bj) = 0,2 0 0
0,03 0,15 0,25
Варіант №4
0,17 0,02 0,03 0,01
0,12 0,2 0,1 0,01
P (ai, bj) = 0,01 0,02 0,07 0,01
0,16 0,05 0,01 0,01
Варіант №5
0,12 0,25 0,05 P (ai, bj) = 0,15 0,05 0,05
0,08 0,1 0,15
Варіант №6
0,02 0,05 0,02 0,02
0,12 0,1 0,04 0,03
P (ai, bj) = 0,1 0,04 0,1 0,06
0,02 0,03 0,2 0,05
Варіант №7
0,12 0,09 0,01 0,02
0,05 0,1 0,15 0,03
P (ai, bj) = 0,02 0,06 0,15 0,03
0,02 0,03 0,11 0,01
Варіант №8
0,2 0,01 0,02 0,03
0,02 0,16 0,03 0,01
P (ai, bj) = 0,01 0,04 0,17 0,02
0,03 0,05 0,1 0,1
Варіант №9
0,27 0,01 0,07 0,04
0 0,1 0,04 0,02
P (ai, bj) = 0,02 0,03 0,1 0
0,07 0,02 0,11 0,1
Варіант №10
0,25 0 0,1 P (ai, bj) = 0,15 0,3 0,1
0 0,05 0,05
Варіант №11
0,32 0,02 0,04 0
0,07 0,05 0,09 0,01
P (ai, bj) = 0 0,01 0,05 0,05
0,07 0,01 0,16 0,05