Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
104
Добавлен:
23.02.2015
Размер:
2.8 Mб
Скачать

Энтропия объединения

Объединением называется совокупность двух и более взаимозависимых ансамблей дискретных случайных переменных.

Рассмотрим объединение, состоящее из двух ансамблей XиY, например, из двух дискретных измеряемых величин, связанных между собой вероятностными зависимостями.

Схема ансамбля X:

x1 x2 xi xn;

p(x1) p(x2) … p(xi) … p(xn). (15)

Схема ансамбля Y:

y1 y2 yi ym;

p(y1) p(y2) … p(yi) … p(ym). (16)

Схема объединения XиY:

x1 x2 xn

y1 p(x1, y1) p(x2, y1) … p(xn, y1); (17)

y2 p(x1, y2) p(x2, y2) … p(xn, y2);

……………………………….

ym p(x1, ym) p(x2, ym) … p(xn, ym).

Вероятность произведения (совпадения) совместных зависимых событий XиYравна произведению безусловной вероятностиp(x) илиp(y) на условные вероятностиp(y|x) илиp(x|y).

Таким образом, имеем:

p(x,y) =p(x)p(y|x) =p(y)p(x|y). (18)

Отсюда находятся условные вероятности

p(y|x) = ; (19)

p(x|y) = (20)

в зависимости от того, какое событие является причиной, а какое – следствием.

В рассмотренном случае дискретных переменных XиYчастные условные вероятности могут быть записаны для х=хккак

p(y1|xk) = ; p(y2|xk) = ; (21)

p(ym|xk) = . (22)

С объединением связаны понятия безусловной, условной и взаимной энтропии (ниже см. табл.2.1). Их иногда также называют зависимой, коррелированной и взаимной энтропией, или трансинформацией.

Энтропия объединения

Таблица 2.1

Наименование

Обозначе-ние

Соотношения

Диаграмма

Безусловная

энтропия

H(X)

H(Y)

H(X)H(X|Y)

H(X) = H(X|Y) +

+ H(X*Y)

H(Y)H(Y|X)

H(Y) = H(Y|X) +

+ H(X*Y)

X Y

X Y

Условная

энтропия

H(X|Y)

H(Y|X)

H(X|Y) = H(X) –

- H(X*Y)

H(Y|X) = H(Y) –

H(X*Y)

X Y

X Y

Продолжение табл. 2.1

Совместная

энтропия

H(X,Y) =

= H(Y, X)

H(X, Y) = H(X) +

+ H(Y|X) = H(Y) +

+ H(X|Y) = H(X) +

+ H(Y) – H(X*Y)

XY

Взаимная

энтропия

H(X*Y) =

= H(Y*X)

H(X*Y) = H(X) –

- H(X|Y) = H(Y) –

H(Y|X) = H(X,Y) –

- H(X|Y) – H(Y|X)

Последовательность символов х1, х2, …, хi, …, xn, создаваемая источником, может претерпевать искажения по пути к приемнику.

Символ хiможет быть принят не только как однозначно ему соответствующий символyi, но и как любой из возможных символовy1, y2, …, yj, …,ym с соответствующими вероятностями.

Различные виды энтропии имеют следующий смысл:

H(X) –безусловная энтропия источника, или среднее количество информации на символ, выдаваемое источником;

H(Y) –безусловная энтропия приемника, или среднее количество информации на символ, получаемое приемником;

H(X,Y)– взаимная энтропиясистемы передачи – приема в целом, или средняя информация на пару (переданного и принятого) символов;

H(Y|X) – условная энтропия Y относительно Х, или мера количества информации в приемнике, когда известно, что передается Х;

H(Х|Y) –условная энтропияХ относительноY, или мера количества информации об источнике, когда известно, что принимаетсяY.

Если в системе нет потерь и искажений, то условные энтропии равны нулю, а количество взаимной информации равно энтропии либо источника, либо приемника.

На основании статистических данных могут быть установлены вероятности событий у1, у2, …, уmпри условии, что имели место события хi, а именноp(y1|xi),p(y2|xi), …,p(ym|xi). Тогда частная энтропия будет равна:

. (23)

Далее нужно подсчитать среднее значение H(Y|xi) для всех переданных символов х. Это будет условная энтропия канала

. (24)

Аналогично получается условная энтропия H(X|Y), учитывающая условные вероятностиp(xi|yj):

. (25)

Безусловная энтропия ансамбля Х

. (26)

Безусловная энтропия ансамбля Y

. (27)

Соседние файлы в папке конспект ТИ