- •Министерство образования и науки Российской Федерации Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования
- •Решение:
- •Правило сложения вероятностей для двух событий:
- •Теорема сложения вероятности для совместных случайных событий.
- •Теорема умножения вероятности для двух независимых событий:
- •Решение:
- •Решение:
- •Решение:
- •Энтропия и информация
- •Историческая справка
- •Решение:
- •Литература по кодированию и декодирова-нию
Энтропия и информация
Энтропия как мера неопределённости
Для практики важно уметь численно оценивать степень неопределённости самых разно-образных опытов, чтобы иметь возможность их сравнивать.
Начнём с рассмотрения опытов имеющих K равновероятных исходов. Степень неопре-делённости каждого такого опыта определяется числом K. При K = 1 исход опыта не яв-ляется случайным. При большом значении K предсказание результата опыта становится затруднительным.
14
Таким образом, искомая численная характеристика степени неопределённости должна зависть от K, т.е быть функцией f(k); f(1) = 0; при возрастании аргумента, функция должна возрастать. Для более полного определения функции f(k) необходимо предъ-явить к ней дополнительные требования.
Рассмотрим сложный опыт , состоящий в одновременном выполнении опытов и . Неопределённость выполнения сложного опыта больше неопределённости опыта , т.к. к его неопределённости надо добавить неопределённость опыта . Поэтому естествен-но считать, что степень неопределённости опыта равна сумме неопределённостей, характеризующих и .
Пусть имеет k ∗ l равновероятных исходов, k ; l . Приходим к следующему усло-вию, которму должна удовлетворять функция f(kl) = f(k) + f(l). Последнее усло-вие наталкивает на мысль принять за меру неопределённости опыта, имеющего K рав-новероятных исходов число log k: log(kl) = log k + log l. Такое определение меры неопределённости согласуется с первоначальными условиями, что f(1) = log 1 = 0; f(k) - возрастающая функция. Можно доказать, что логарифмическая функция являет-ся единственной, удовлетворяющей этим условиям.
Замечание: отметим, что выбор основания логарифма большой роли не играет, посколь-ку в силу известной формулы перехода можем написать logb a = logc a/ logc b ⇒ logb k = logb a ∗ logak сводится к домножению на константу, т.е. равносилен простому изменению единицы измерения степени неопределённости. Обычно за меру степени неопределён-ности берут логарифмы при основании 2: log2k = logk, причём основание 2 не фиксиру-ют. Т.е. за единицу измерения степени неопределённости принимают неопределённость опыта, имеющего 2 равновероятных исхода: log2 2 = 1 бит. Везде далее будем пользо-ваться двоичными единицами измерения.
Таблица вероятности для опыта, имеющего K равновероятных исходов:
|
|
|
|
|
|
|
|
|
|
|
|
Исходы |
A1 |
A2 |
: : : |
Ak |
|
Вероятности |
1 |
1 |
: : : |
1 |
|
k |
k |
k |
|
Поскольку при наших допущениях неопределённость равна f(k) = log k. В этом случае каждый отдельный исход вносит неопределённость k1 . logk k = k1 log k = −k1 log k1 .
В самом общем случае опыт имеет следующую таблицу вероятности:
|
|
|
|
|
|
|
|
|
|
Исходы |
A1 |
A2 |
: : : |
Ak |
Вероятности |
P (A1) |
P (A2) |
: : : |
P (Ak) |
Для опыта общая мера неопределённости равна −p(A1) log p(A1)−p(A2) log p(A2)− : : : − p(Ak) log p(Ak) = H( ) - энтропия опыта
Рассмотрим некоторые свойства энтропии H( ):
-
H( ) > 0
Доказательство:
−p(A) log p(A) > 0 (множители ∈ промежутку (0 6 p(A) 6 1) )
−p(A) log p(A) = 0 ⇐⇒ {p = 0; p = 1}
15
В случае, если опыт имеет K попарно несовместных исходов, то H( ) = 0 равно-сильно тому, что один исход - достоверное событие, а все другие - невозможны, так как p(A1) + : : : + p(Ak) = 1 . Это обстоятельство хорошо согласуются с величиной
( )
H( ) - только в этом случае опыт вообще не содержит неопределённости.
-
Из всех опытов c K исходами самым неопределённым является опыт опыт с K рав-новероятными исходами. Можно показать, что имеет место неравенство
H( ) = −p(A1) log p(A1) − : : : − p(Ak) log p(Ak) 6 H( 0) H( 0) = log k = −k1 − : : : − k1 .
Равенство достигается при равных вероятностях P (Ai); i = [1; k]
Пример: Имеется две урны с 20-ю шарами каждая. Первая - 10 белых, 5 чёрных, 5 крас-ных. Вторая - 8 белых, 8 чёрных, 4 красных.
Из каждой урну вынимают по 1 шару. Исход какого из двух опытов следует считать более неопределённым?
Решение: Обозначим опыты как А1 и A2. A1
Исходы |
Бел |
Чёр |
Крас |
|
|
Вероятности |
1/2 |
1/4 |
1/4 |
|
|
A2 |
|
|
|
|
|
|
|
|
|
|
|
Исходы |
Бел |
Чёр |
Крас |
|
|
Вероятность |
2/5 |
2/5 |
1/5 |
|
|
Энтропия опыта A1: H( 1) = −12 log 12 − 14 log 14 − 14 log 14 = −12 ∗ 1 − 12 ∗ (−2) = −12 + 1 = 1; 5бита.
Энтропия опыта A2: H( 2) = −25 log 25 − 25 log 25 − 15 log 15 = −45 (log 2 − log 5) − 15 (log 1 − log 5) = −0:8 + −45 log 5 + 15 log 5 = −0:8 + log 5 = 1; 52 бита.
Вывод: Если оценивать степень неопределённости опыта его энтропией, то исход второго опыта более неопределённый, нежели первого.