Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
104
Добавлен:
23.02.2015
Размер:
2.8 Mб
Скачать

Энтропия ансамбля

Ансамблем называется полная группа событий, или, иначе, поле совместных событий с известным распределением вероятностей, составляющих в сумме единицу. Здесь имеется в виду конечное множество событий и, следовательно, дискретная система состояний, значений положений и т.д.

Энтропия ансамбля есть количественная мера его неопределенности, а следовательно, и информативности.

В статистической теории информации (теории связи), предложенной Шенноном в 1948 г., энтропия количественно выражается как средняя функция множества вероятностей каждого из возможных исходов опыта.

Пусть имеется всего Nвозможных исходов опыта, из нихkразных, иi-й исход повторяетсяniраз и вносит информацию, количество которой оценивается какIi. Тогда средняя информация, доставляемая одним опытом,

. (12)

Но количество информации в каждом исходе связано с его вероятностью piи выражается в двоичных единицах (битах) через логарифм

Тогда

. (13)

Но т.к. отношения ni/Nпредставляют собой частоты повторения исходов, а следовательно, могут быть заменены их вероятностями:

ni/N=pi,

поэтому средняя информация в битах может быть выражена следующим образом:

или

Полученную величину Шеннон назвал Энтропией и обозначил буквой Н, бит:

(14)

Основание логарифма определяет единицу измерения энтропии и количества информации. Двоичная единица, соответствующая основанию, равному двум, называется битом.

Чаще всего применяют двоичный логарифм, так как он непосредственно дает количество информации в битах, хорошо согласуется с двоичной логикой, двоичным кодированием и двоичной (релейной) техникой.

Энтропия может быть определена так же, как среднее количество информации на одно сообщение или математическое ожидание количества информации Iдля измерения величиныX.

Функция H(p), гдеp= (p1, …, pk) – вектор вероятности исходов, была выбрана Шенноном так, чтобы она удовлетворяла следующим требованиям:

H(p) непрерывна на интервале 0Pi1, т.е. при малых изменениях р величинаHизменяется мало;

H(p) симметрична относительно р, т.е. не изменяется при любой перемене мест аргументов pi;

H(p1, p2, …, pk-1, q1, q2) = H(p1, p2, …, pk) + pk * H(q1/pk, q2/pk),

то есть если событие xk состоит из двух событий x’k и x’’k с вероятностями q1 и q2;

если q1+q2=pk, то общая энтропия будет равна сумме энтропии – неразветвленной системы и разветвленной части с весомpkпри условных вероятностяхq1/pkиq2/pk.

Кроме того, энтропия характеризуется следующими свойствами:

Энтропия всегда неотрицательна, так как значения вероятностей выражаются дробными величинами, а их логарифмы – отрицательными величинами, так что члены log2pi= -(-a) неотрицательны.

Энтропия равна нулю в том крайнем случае, когда одно событие равно единице, а все остальные нулю. Это тот случай, когда об опыте или величине все известно заранее, и результат не приносит никакой новой информации.

Энтропия имеет наибольшее значение при условии, когда все вероятности равны между собой

p1 = p2 = … = pi = … = pk = 1/k.

При этом логарифмическая статистическая мера информации связана с аддитивной логарифмической мерой Хартли

I’ =log2h.

Совпадение оценок количества информации по Шеннону и по Хартли свидетельствует о полном использовании информационной емкости системы. В случае неравных вероятностей количество информации по Шеннону меньше информационной емкости системы. Так, энтропия для двух неравновероятных состояний одного элемента (h= 2) равна

H = - (p1 log2 p1 + p2 log2 p2).

Она меньше информационной емкости двоичной ячейки, составляющей 1 бит.

Максимум H= 1 достигается при р = 0,5, когда два состояния равновероятны. При вероятностях р = 0 или р = 1, что соответствует полной невозможности или полной достоверности события, энтропия равна нулю.

Соседние файлы в папке конспект ТИ