Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информатика учебное пособие часть 1.doc
Скачиваний:
31
Добавлен:
16.09.2019
Размер:
882.18 Кб
Скачать

3.2 Условная энтропия

Найдем энтропию сложного опыта  в том случае, если опыты не являются независимыми, то есть если на исход  оказывает влияние результат опыта .

Например, если в ящике всего 2 разноцветных шара и  состоит в извлечении первого, а  – второго из них, то  полностью снимает неопределенность сложного опыта , то есть H()=H(), а не сумме энтропии.

Связь между  и  состоит в том, что какие-то из исходов А() могут оказывать влияние на исходы из B(), то есть некоторые пары событий AiBj не является независимыми, тогда следует р(AiBj)= р(Ai)рAi(Bj), где рAi(Bj) – вероятность наступления исхода Bj при условии того, что в первом опыте имел место исход Ai – условная вероятность. Энтропия такого опыта

log2р(AiBj)=log2р(Ai) + log2рAi(Bj). (3.5)

Окончательно для энтропии сложного опыта:

H() = H()+ H(), где H() – средняя условная энтропия опыта  при условии выполнения опыта .

Относительно условной энтропии верны следующие утверждения:

  1. Условная энтропия является величиной неотрицательной.

H()=0, только в том случае, если любой исход  полностью определяет исход  (пример с двумя шарами), то есть HA1()= HA2() = HA3()= … = = HAn() = 0. Тогда H() = H().

2. Если опыты  и  независимы, то H() = H(), причем это оказывается наибольшим значением условной энтропии. Другими словами, опыт  не может повысить неопределенность опыта  – он может либо не оказать никакого влияния (если опыты независимы), либо понизить энтропию .

Утверждения 1 и 2 можно объединить неравенством 0  H()  H().

3. Из соотношений 1 и 2 следует, что H()  H() + H(), причем равенство реализуется только в том случае, если опыты  и  – независимы.

Пример 3. В ящике имеются 2 белых шара и 4 черных. Из ящика извлекают последовательно 2 шара без возврата. Найти энтропию, связанную с 1-ым извлечением, 2-м извлечением, а также энтропию обоих извлечений.

Будем считать опытом  извлечение 1-го шара.

Он имеет 2 исхода: A1 – вынут белый шар р(A1)= 2/6 = 1/3,

A2 – вынут черный шар р(A2) = 4/6 = 2/3.

H=  р(A1)log2р(A1)  р(A2)log2р(A2) = бит.

Опыт  также имеет 2 исхода: B1 – вынут белый шар;

B2 – вынут черный шар.

Однако их вероятности будут зависеть от того, каким был исход опыта . В частности,

при A1 рA1(B1) = 1/5 рA1(B2) = 4/5,

при A2 рA2(B1) = 2/5 рA2(B2) = 3/5.

Следовательно, энтропия второго опыта является условной:

HA1() = .

HA2() = .

H = 0,722 + 0,971 = 1,693.

H() = р(A1) HA1() + р(A2) HA2()= бит.

H() = H()+ H() = 0,918 + 0,888 = 1,806 бит.

3.3 Статистическое определение информации

Поучительность только что рассмотренного примера в том, что у него отчетливо видно, как предшествующий опыт () может уменьшить количество исходов, и, следовательно, неопределенность последующего опыта ().

Разность H() и H(), очевидно, показывает, какие новые сведения относительно  получаем, проведя опыт .

Эта величина называется информацией (I) относительно опыта , содержащейся в опыте 

I (,) = H().

Данное выражение открывает возможность численного измерения количества информации, поскольку оценивать энтропию уже умеем. Из него легко получить ряд следствий:

Следствие 1. Поскольку единицей измерения энтропии является бит, то в этих же единицах может быть измерено количество информации.

Следствие 2. Пусть опыт  = , то есть просто произведен опыт . Поскольку он несет полную информацию о себе самом, неопределенность исхода полностью снимается, то есть

H() = 0. Тогда I (,) = H (), следовательно,

энтропия равна информации относительно опыта, которая содержится в нем самом, или

энтропия опыта равна той информации, которую получаем в результате его осуществления.

Отметим ряд свойств информации:

1. I (,)  0, причем I (,) = 0 тогда и только тогда, когда опыты  и  независимы.

2. I (,) = I (,), то есть информация симметрична относительно последовательности опыта.

3. Формула определения количественного значения информации

I =  . (3.6)

То есть информация опыта равна среднему значению количества информации, содержащейся в каком-либо одном его исходе.

Пример 4. Какое количество информации требуется, чтобы узнать исход броска монеты?

n=2, события равновероятны р1=р2= и

I = .

Пример 5. «Угадайка-4». Некто задумал число в интервале от 0 до 3. Опыт состоит в угадывании этого числа. На наши вопросы Некто может отвечать лишь Да/Нет. Какое количество информации должны получить, чтобы узнать задуманное число? Как правильно построить процесс угадывания?

Возможные исходы: А1 – задуман 0, А2 – задумана 1, А3 – задумана 2, А4 - задумана 3.

Так как все исходы равновероятны, то р1) = р2) = р3) = р4) = ,

I = ( бит информации.

Какие вопросы надо задать, чтобы процесс угадывания был оптимальным, то есть содержал минимальное их число?

Дерево вопросов для угадывания приведено на рисунке 3.1. Вопросы, задаваемые отгадывающим игроком – бинарные (т.е. имеют 2 возможных равновероятных ответа).

Следовательно, для решения задачи оказалось достаточно 2-х вопросов независимо от того, какое число было задумано. Совпадение между количеством информации и числом вопросов с бинарными ответами неслучайно.

Количество информации численно равно числу вопросов с равновероятными бинарными вариантами ответов, которые необходимо задать, чтобы полностью снять неопределенность задачи.

Если все n исходов равновероятны, то формула (3.6) приобретает вид

, то есть

I = log2 n . (3.7)

Эта формула была выведена в 1928 году американским инженером З. Хартли и носит его имя. Она связывает количество равновероятных состояний (n) и количество информации в сообщении (I), что любое из этих состояний реализовалось.

Частным случаем для n = 2k является I = k бит (примеры с монетой и «Угадайка-4»).