
- •“Теория информации”
- •1. Общие методические указания
- •2. Введение
- •3. Энтропия как мера степени неопределенности состояния физической системы
- •3.1. Энтропия сложной системы. Теорема сложения энтропии
- •4. Условная энтропия. Объединение зависимых систем
- •5. Энтропия и информация
- •6. Энтропия и Информация для систем с непрерывным множеством состояний
- •7. Пропускная способность канала. Теоремы Шеннона
- •7.1. Производительность источника дискретных сообщений. Скорость передачи информации
- •7.2. Пропускная способность дискретного канала
- •8. Математические модели сигналов
- •8.1. Понятие сигнала и его модели
- •8.2. Формы представления детерминированных сигналов
- •9. Равномерная дискретизация. Теорема Котельникова
- •10. Кодирование информации
- •10.1. Кодирование как процесс выражения информации в цифровом виде
- •10.2. Определение проверочных равенств
- •11. Введение в криптографию
- •11.1. Шифры замены
- •11.2. Шифры перестановки
- •12. Задания на контрольную работу
- •12.1 Задание1
- •Вариант n 2
- •Вариант n 3
- •Вариант n 4
- •12.2 Задание №2
- •Вариант № 2
- •Вариант № 3
- •Вариант № 4
- •12.3 Задание№3
- •12.4 Задание № 4 Вариант № 1
- •Вариант № 2
- •Вариант № 3
- •Вариант № 4
- •13. Указание для выполнения контрольной работы
- •Задание №2 вариант № 1
- •Вариант № 2
- •Вариант № 3
- •Вариант № 4
- •14. Список литературы
3.1. Энтропия сложной системы. Теорема сложения энтропии
На практике часто приходится определять энтропию для сложной системы, полученной объединением двух или более простых систем.
Под объединением двух систем Х и Y с возможными состояниями x1,…,xn, у1, ..., уn понимается сложная система (X, Y), состояния которой (хi, уj) представляют собой все возможные комбинации состояний систем Х и Y.
Очевидно, число возможных состояний системы (X, Y) равно п X т. Обозначим Рij вероятность того, что система (X, Y) будет в состоянии (xi, уj):
Рij==Р((X=xi)(Y=yj)).
Энтропия сложной системы
Н(Х,Y)= - Pij logPij (2)
Теорема при объединении независимых систем их энтропии складываются
H(X,Y) = H(X) +H(Y) (3)
4. Условная энтропия. Объединение зависимых систем
Пусть имеются две системы Х и Y, в общем случае зависимые. Предположим, что система Х приняла состояние х,. Обозначим Р(уj/хi) условную вероятность того, что система Y примет состояние уj при условии, что система X находится в состоянии хi.
Условная энтропия системы Y при условии, что система Х находится в состоянии хi Обозначим ее Н(Y\xi). По общему определению, имеем:
H(Y\xi)= - P(yj/xi)logP(yj/xi)) (4)
Cреднюю, или полную, энтропию системы
H(Y/X)= - piP(yj/xi) log P(yj/xi) (5)
Пример 2. Имеются две системы Х и Y, объединяемые в одну (X, Y);
вероятности состояний системы (X, Y) заданы таблицей №1
Таблица №1
-
Yj/xi
X1
X2
X3
Rij
Y1
0,1
0,2
0
0,3
Y2
0
0,3
0
0,3
Y3
0
0,2
0,2
0,4
Pi
0,1
0,7
0,2
Определить полные условные энтропии Н(Y X) и Н(Х/ Y).
Решение. Складывая вероятности Рij по столбцам, получим вероятности рi = Р (X = хi).
P1= 0,1; р2 = 0,7; p3 = 0,2.
Записываем их в нижней, добавочной строке таблицы. Аналогично, складывая pij по строкам, найдем;
R1=0,3; r2=0,3; r4=0,4 (rj = P(Y=yj)) и запишем справа дополнительным столбцом. Деля Рij , на рi, получим таблицу №2 условных вероятностей Р(уj/хi):
Таблица №2
-
Yj/xi
X1
X2
X3
Y1
1
02,/07
0
Y2
0
0,3/0,7
0
Y3
0
0,2/0,7
1
По формуле (5) находим H(Y/ X).
H(Y/X) = 0,7(0,2/0,7log(0,2/0,7)+0,3/0,7log(0,3/0,7) + 0,2/0,7log(0,2/0,7)
Пользуясь таблицей 1 приложения, находим
H(Y/X) = 1,09 (дв. ед.).
Теорема Если две системы Х и Y объединяются в одну, то энтропия объединенной системы равна энтропии одной из ее составных частей плюс условная энтропия второй части относительно первой:
H(X/Y) = H(X) + H(Y/X) (6)