Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория информации - Лекции.doc
Скачиваний:
66
Добавлен:
20.03.2016
Размер:
992.77 Кб
Скачать

Энтропия и информация

Энтропия как мера неопределённости

Для практики важно уметь численно оценивать степень неопределённости самых разно-образных опытов, чтобы иметь возможность их сравнивать.

Начнём с рассмотрения опытов имеющих K равновероятных исходов. Степень неопре-делённости каждого такого опыта определяется числом K. При K = 1 исход опыта не яв-ляется случайным. При большом значении K предсказание результата опыта становится затруднительным.

14

Таким образом, искомая численная характеристика степени неопределённости должна зависть от K, т.е быть функцией f(k); f(1) = 0; при возрастании аргумента, функция должна возрастать. Для более полного определения функции f(k) необходимо предъ-явить к ней дополнительные требования.

Рассмотрим сложный опыт , состоящий в одновременном выполнении опытов и . Неопределённость выполнения сложного опыта больше неопределённости опыта , т.к. к его неопределённости надо добавить неопределённость опыта . Поэтому естествен-но считать, что степень неопределённости опыта равна сумме неопределённостей, характеризующих и .

Пусть имеет k l равновероятных исходов, k ; l . Приходим к следующему усло-вию, которму должна удовлетворять функция f(kl) = f(k) + f(l). Последнее усло-вие наталкивает на мысль принять за меру неопределённости опыта, имеющего K рав-новероятных исходов число log k: log(kl) = log k + log l. Такое определение меры неопределённости согласуется с первоначальными условиями, что f(1) = log 1 = 0; f(k) - возрастающая функция. Можно доказать, что логарифмическая функция являет-ся единственной, удовлетворяющей этим условиям.

Замечание: отметим, что выбор основания логарифма большой роли не играет, посколь-ку в силу известной формулы перехода можем написать logb a = logc a/ logc b logb k = logb a logak сводится к домножению на константу, т.е. равносилен простому изменению единицы измерения степени неопределённости. Обычно за меру степени неопределён-ности берут логарифмы при основании 2: log2k = logk, причём основание 2 не фиксиру-ют. Т.е. за единицу измерения степени неопределённости принимают неопределённость опыта, имеющего 2 равновероятных исхода: log2 2 = 1 бит. Везде далее будем пользо-ваться двоичными единицами измерения.

Таблица вероятности для опыта, имеющего K равновероятных исходов:

Исходы

A1

A2

: : :

Ak

Вероятности

1

1

: : :

1

k

k

k

Поскольку при наших допущениях неопределённость равна f(k) = log k. В этом случае каждый отдельный исход вносит неопределённость k1 . logk k = k1 log k = k1 log k1 .

В самом общем случае опыт имеет следующую таблицу вероятности:

Исходы

A1

A2

: : :

Ak

Вероятности

P (A1)

P (A2)

: : :

P (Ak)

Для опыта общая мера неопределённости равна −p(A1) log p(A1)−p(A2) log p(A2) : : : p(Ak) log p(Ak) = H( ) - энтропия опыта

Рассмотрим некоторые свойства энтропии H( ):

  1. H( ) > 0

Доказательство:

p(A) log p(A) > 0 (множители промежутку (0 6 p(A) 6 1) )

p(A) log p(A) = 0 ⇐⇒ {p = 0; p = 1}

15

В случае, если опыт имеет K попарно несовместных исходов, то H( ) = 0 равно-сильно тому, что один исход - достоверное событие, а все другие - невозможны, так как p(A1) + : : : + p(Ak) = 1 . Это обстоятельство хорошо согласуются с величиной

( )

H( ) - только в этом случае опыт вообще не содержит неопределённости.

  1. Из всех опытов c K исходами самым неопределённым является опыт опыт с K рав-новероятными исходами. Можно показать, что имеет место неравенство

H( ) = −p(A1) log p(A1) − : : : − p(Ak) log p(Ak) 6 H( 0) H( 0) = log k =k1 − : : : − k1 .

Равенство достигается при равных вероятностях P (Ai); i = [1; k]

Пример: Имеется две урны с 20-ю шарами каждая. Первая - 10 белых, 5 чёрных, 5 крас-ных. Вторая - 8 белых, 8 чёрных, 4 красных.

Из каждой урну вынимают по 1 шару. Исход какого из двух опытов следует считать более неопределённым?

Решение: Обозначим опыты как А1 и A2. A1

Исходы

Бел

Чёр

Крас

Вероятности

1/2

1/4

1/4

A2

Исходы

Бел

Чёр

Крас

Вероятность

2/5

2/5

1/5

Энтропия опыта A1: H( 1) = 12 log 12 14 log 14 14 log 14 = 12 1 12 (2) = 12 + 1 = 1; 5бита.

Энтропия опыта A2: H( 2) = 25 log 25 25 log 25 15 log 15 = 45 (log 2 log 5) 15 (log 1 log 5) = 0:8 + 45 log 5 + 15 log 5 = 0:8 + log 5 = 1; 52 бита.

Вывод: Если оценивать степень неопределённости опыта его энтропией, то исход второго опыта более неопределённый, нежели первого.