Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория информации - Лекции.doc
Скачиваний:
66
Добавлен:
20.03.2016
Размер:
992.77 Кб
Скачать

Историческая справка

Исторически первые шаги к введению понятия энтропии были сделаны в 1928 году американским инженером-связистом Хартли, предложившим характеризовать степень неопределённости опыта c К различными исходами числом log k. Предложенная им мера степени неопределённости иногда бывает удобна в некоторых практических задачах, но часто оказывается малопоказательной, поскольку полностью игнорирует различие меж-ду характером имеющихся исходов. Поэтому почти невероятному исходу у Хартли при-даётся такое-же значение, как и исходу весьма вероятному. Однако, он считал, что раз-личия между отдельными исходами определяются в первую очередь "психологическими факторами" и должны учитываться лишь психологами, но не инженерами или математи-ками.

16

Ошибочность точки зрения Хартли была показана другим американским инженером - математиком К. Шенноном. Он предложил принять в качестве меры неопределённости опыта с K различными исходами A1; : : : ; Ak величину

H( ) = −p(A1) log p(A1) − : : : − p(Ak log p(Ak).

Иначе говоря, исходу Ai следует приписать неопределённость, равную log p(Ai). В качестве неопределённости всего опыта H( ) принимается среднее значение случай-ной величины (математическое ожидание), равное H( ) ,где принимают значения log p(Ai) с вероятностями p(Ai).

Таким образом, загадочные "психологические факторы" учитываются с помощью исполь-зования понятия вероятности, имеющего чисто математический, а точнее статистический характер.

Использование величины H( ) в качестве меры неопределённости опыта A оказалось полезным во многих областях, а особенно в теории передачи сообщений по линиям свя-зи.

Энтропия сложных событий. Условная энтропия

Условная энтропия. Пусть имеются два независимых опыта A; B с таблицей вероятностей

A1; p(A1); : : : ; Ak; p(Ak); B1; p(B1); : : : ; Bl; p(Bl).

Рассмотрим сложный опыт , когда осуществляются оба опыта одновременно, имею-щий k l исходов (A × B - декартово произведение).

A1B1 : = A1; = B1

Очевидно, что неопределённость опыта больше неопределённости каждого из опы-тов, из-за осуществления обоих опытов. Поэтому имеет место соотношение H( ) = H( ) + H( ). Написанное равенство называется правилом сложения энтропии для опы-тов и .

Для доказательства этого равенства рассмотрим выражение

H( ) = −p(A1B1) log p(A1B1) − : : : − p(AkBl) log p(AkBl)

; - независимы, следовательно p(AiBj) = p(Ai) p(Bj)

log p(AiBj) = log p(Ai)p(Bj) = log p(Ai) + log p(Bj):

Предположим далее, что и - зависимые опыты (пример: , - последовательные из-влечения двух шаров из одной урны.) Постараемся выяснить, чему равна энтропия слож-ного опыта в этом случае.

Здесь уже нельзя заменить p(A1B1); p(A1B2); : : : произведением вероятностей, а необ-ходимо использовать условную вероятность p(A1B1) = p(A1) p(B1|A1)

В этом случае можно доказать следующую формулу:

17

H( ) = H( ) + [p(A1) H( |A1) + p(A2) H( |A2) + : : : + p(Ak) H( |Ak)] () , где

H( |Ai) - условная энтропия опыта при условии, что значение опыта равно Ai.

H( |Ai) =p(B1|Ai) log p(B1|Ai)p(B2|Ai) log p(B2|Ai) − : : : − p(Be|Ai) log p(Be|Ai)(∗∗)

Это выражение представляет собой энтропию опыта при условии, что имеет место со-бытие Ai.

H( ; ) = H( ) + H( )

( для независимых ; )

{ H( ; ) = H( ) + [ : : : ](

) ( для зависимых ; )

Первый член последнего выражения () - энтропия опыта . Что же касается второго - он есть математическое ожидание случайной величины, принимающей с вероятностя-ми p(A1); : : : ; p(Ak) значения H( |A1); : : : ; H( |Ak), то есть значения, равные услов-ной энтропии опыта , при условии, что опыт имеет исходы : A1; : : : ; Ak. Это сред-нее значение естественно назвать условной энтропией выполнения опыта при условии выполнения опыта ,

H( | ) = [ : : : ]() = p(A1)H( |A1) + p(A2)H( |A2) + : : : + p(Ak)H( |Ak)

Тогда соотношение () переписывается как H( ) = H( ) + H( | )(); ; - зависимы.

Это и есть общее правило для определения энтропии сложного опыта . Его также мож-но назвать правилом сложения энтропии, для зависимых опытов .

Укажем основные свойства условной энтропии:

  1. H( | ) > 0.

  1. p(A1); : : : ; p(Ak) ≠ 0 (опыт имеет к штук исходов).

Тогда H( | ) = 0 ⇐⇒ H( |A1) = : : : = H( |Ak) = 0, т.е. при любом исходе опыта результат опыта полностью определён, и при этом имеем H( ) = H( ).

Если и независимы, то тогда H( | ) = H( ), и H( ) = H( ) + H( ).

  1. Во всех случаях условная энтропия H( | ) заключается между 0 и H( ):

0 6 H( | ) 6 H( ).

Таким образом случаи, когда исход полостью предопределяется исходом и когда опыты и независимы, являются в определённом смысле крайними.

  1. Условная энтропия.

H( ) = H( ) H( ) + H( | ) = H( ) + H( | )

H( | ) = H( | )(:) + H( ) − H( )

H( | ) = 0 (исход опыта полностью определяет опыта

H( | ) = H( )H( )

18

Задача: Задача о болезненной реакции.

Известно, что некоторой болезнью в среднем болеют 2 человека из 100. Для выявления больных используется определённая реакция, которая всегда оказывается положитель-ной в том случае, когда человек болен. Если же человек здоров, то она столь же часто бывает положительной, как и отрицательной. Пусть опыт состоит в определении то-го болен или здоров человек, а опыт - в определении результата указанной реакции. Спрашивается, какова будет энтропия H( ) =? опыта и условная энтропия H( | ) =?.

Решение: Очевидно, что имеет 2 исхода: : {B1 - здоров; B2 - болен}.

p(B1) = 0:98; p(B2) = 0:02.

H( ) =0:98 log 0:980:02 log 0:020:14бит:

H( )0:14:

Рассмотрим опыт : : A1 положительная реакция; A2 отрицательная реакция

p(A1) = p( B21 + B2) = p( B21 ) + p(B2) = 0:49 + 0:02 = 0:51.

p(A2) = p( B21 ) = 0:49.

= A1 : p(B1|A1) =

p(B1A1)

=

0:49

=

49

:

p(A1)

0:51

51

= A2 : p(B2|A1) =

p(B2A1)

=

0:02

=

2

:

p(A1)

0:51

51

Пользуясь этими данными мы можем найти условную энтропию H( ) при выполнении события A1

H( |A1) =

49

log

49

2

log

2

≈ 0:24 бит.

51

51

51

51

При = A2 = B1; H( |A2) = 0, т.е. мы с уверенностью можем утверждать, что человек здоров, и опыт имеет исход B1.

Таким образом, условная энтропия при условии осуществления будет равна

H( ) = 0:14|sysH( |A1)0:045H( |A2) = 0 ∼∼

H( | ) = p(A1)H( |A1) + p(A2)H( |A2)0:51 0:24 + 0:49 0 = 0:12 бит.

Иначе говоря, выполнение опыта уменьшает неопределённость опыта на 0:002 бита.

19

Понятие об информации.

Вернёмся вновь к величине H( ), характеризующей степень неопределённости опыта . Равенство этой величины 0 означает, что исход опыта заранее известен. Большее или меньшее значение числа H( ) отвечает большей или меньшей проблематичности определения результата опыта . Какое-либо измерение или наблюдение в виде опыта , предшествующее может ограничить количество возможных исходов опыта , и тем самым уменьшить степень его неопределённости: так, к примеру степень неопределён-ности опыта, состоящего в нахождении самого тяжёлого из 3 грузов уменьшается после сравнения на весах двух из них.

Для того, чтобы результат измерения(наблюдения) мог сказаться на последующем опы-те необходимо, чтобы не был известен заранее. Поэтому, можно рассматривать как вспомогательный опыт, также имеющий несколько допустимых исходов.

Тот факт, что осуществление уменьшает степень неопределённости отражается в неравенстве, где условная энтропия H( | ) 6 H( ) первоначальной энтропии опыта

.

При этом, если опыт не зависит от , то осуществление не уменьшает энтропии . Это значит, что H( | ) = H( ). Если же результат полностью предопределяет ис-ход опыта , то энтропия уменьшается до 0: H( | ) = 0. Таким образом, разность

I( ; ) = H( )H( | )() .

Таким образом написанная разность указывает, насколько осуществление уменьшает неопределённость , т.е. как много мы узнаём об исходе опыта , произведя измере-ние(наблюдение) в виде опыта . Эта разность () называют количеством информации относительно опыта , содержащейся в опыте . Таким образом, мы получаем возмож-ность численного измерения информации. К примеру, в условиях задачи о болезненной реакции можно сказать, что используемая реакция в виде опыта даёт информацию о заболевании в виде опыта , равное 0:14 0:12 = 0:02 бита. Эта цифра и оценивает пользу реакции.

Соотношение между понятиями энтропии и информации напоминает соотношение меж-ду физическими понятиями потенциала и разности потенциалов. Энтропия есть абстракт-ная мера неопределённости. Ценность этого понятия в значительной мере заключается в том, что оно позволяет оценить влияние на опыт какого-либо другого опыта как разность энтропий по формуле ().

Подчеркнём также, что информация относительно опыта , содержащаяся в опыте представляет собой среднее значение (математическое ожидание) случайной величины H( )H( |Ai), связанной с отдельными исходами Ai опыта .

Пример: Задача о шарах и предварительной информации.

Пусть опыт состоит в извлечении одного шара из урны:

: 1 шар из 5 чёрных и 10 белых.

А опыт k состоит в предварительном извлечении (без возвращения обратно) K шаров:

k : K шаров извлечено.

H( ) = ?

20

I( ; 1) = ?

I( ; 2) = ?

I( ; 13) = ?

I( ; 14) = ?

Чему равна энтропия H( ) и информация, содержащаяся в опыте 1?