Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЭлектрОТИ-Сложность1.docx
Скачиваний:
7
Добавлен:
01.03.2025
Размер:
583.2 Кб
Скачать
    1. Свойства энтропии.

Здесь в качестве справки мы приведем некоторые свойства энтропии по Шеннону. Это даст вам возможность лучше понять смысл этого понятия и сферу его практического применения.

Случайный источник можно трактовать как событие с множеством исходов, вероятности которых заданы.

Рассмотрим два события X и Y. Исходы первого события будем обозначать через x, а второго - через y. Введем по определению понятие условной энтропии H(X/y).

H(X|y) = .

Это случайная величина. А теперь усредним H(X|y) по всему множеству Y и получим уже неслучайную величину H(X|Y).

Перейдем теперь к перечислению свойств. В некоторых случаях приводятся доказательства.

  1. H(X) 0 .

  2. H(X) является выпуклой вверх функцией своих аргументов функция своих аргументов p1pn .

  3. H(X) log|X| (если все события равновероятны, то энтропия максимальна).

  4. H(X|Y) H(X) (Аналог свойства 3 для условной энтропии. Дополнительная

информация не увеличивает энтропию).

  1. Пусть Х и Y – независимые события. Справедливо равенство

H(XY) = H(X) + H(Y).

  1. Пусть два события имеют равное число исходов, а вероятности этих исходов как множества совпадают, т.е. они состоят из одних и тех же (p1,…,pn), но в разном порядке. Справедливо равенство

H(X) = H( X).

  1. Пусть есть событие Х = (p1,…,pn) и некоторое подмножество его исходов А (p1,…,pn). Построим новое событие ХА таким образом, что его исходы задаются вероятностями («сглаживание» фрагмента).

Справедливо неравенство

H(х) H(ХА).

Доказательство. Доказательство следует из свойств следует из (2) и (6).

По свойству (2) энтропия выпуклая вверх функция своих аргументов, а для такой функции f выполняется неравенство Йенсена .(Здесь числа α1αn , αi>0 , .)

Без ограничения общности считаем, что первые m элементов Х образуют подмножество А, т.е. исходы X задаются вероятностями p1pmpm+1pn

Строим вспомогательные события:

X 1 = X

X2 = p2p3pmp1 pm+1pn

X3 = p3p4p1p2 pm+1pn

Xm = pmp1pm-2pm-1 pm+1pn

Из свойства (6)следует, что H(X) = H(X1) = … = H(Xm) (все события состоит из одинаковых множеств значений вероятностей). Тогда можно ХА представить в виде (H(X) + H(X1)+ … + H(Xm))/m. Применяем неравенство Йенсена, где все αi=1/m. Получаем H(ХА)≥ (H(X) + H(X1)+ … + H(Xm))/m. Отсюда следуетH(ХА)≥H(A).

  1. H(XY) = H(X) + H(Y|X) = H(Y) + H(X|Y).

Следует из известных в теории вероятностей соотношений: P(XY) = P(X) P(Y|X) и P(XY) = P(Y) P(X|Y).

  1. H(X1X2Xn) = H(X1) + H(X2| X1) + H(X3| X1 X2) + … + H(Xn| X1 X2Xn-1).

Следует из известных в теории вероятностей соотношения: P(X1Xn) = P(X1) P(X2|X1) … P(Xn|X1,…,Xn-1).

  1. H(X|YZ) H(X|Y).

Доказывается по аналогии с доказательством свойства (4).

  1. Пусть задано событие X и на множестве его исходов определена функция y = g(x). Введем событие Y с множеством исходов y = g(x). Тогда H(Y) H(X). Равенство H(Y) = H(X) достигается тогда и только тогда, когда существует обратная функция g 1.

Доказательство. Следует из свойства (8).

H(X) + H(Y|X) = H(Y) + H(X|Y) H(Y) = H(X) + H(Y|X) – H(X|Y) 0.

Т.к. у полностью определяется по х, то H(Y|X) = 0.