Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
peregudov_tarasenko.doc
Скачиваний:
606
Добавлен:
25.03.2015
Размер:
4.38 Mб
Скачать

§ 5.6. Энтропия

Установив, что случайные процессы являются адекватной моделью сигналов (см. § 5.3), мы получаем возможность воспользоваться результатами и мощным аппаратом теории случайных процессов. Кроме того, обнаружив, что некоторые типы непрерывных сигналов допускают дискретное представление (см. § 5.5), мы упрощаем задачу, сводя все к рассмотрению случайных величин.

Это не означает, что теория вероятностей и теория случайных процессов дают готовые ответы на все вопросы о сигналах: подход с новых позиций выдвигает такие вопросы, которые раньше просто не возникали. Так и родилась теория информации [9], специально рассматривающая сигнальную специфику случайных процессов. При этом были построены принципиально новые понятия (которые мы рассмотрим в данном и следующем параграфах) и получены новые, неожиданные результаты, имеющие характер научных открытий (наиболее важные из них мы обсудим в § 5.8).

ПОНЯТИЕ НЕОПРЕДЕЛЕННОСТИ

Первым специфическим понятием теории информации является понятие неопределенности случайного объекта, для которой удалось ввести количественную меру, названную энтропией. Начнем с простейшего варианта – со случайного события. Пусть, например, некоторое событие может произойти с вероятностью 0,99 и не произойти с вероятностью 0,01, а другое событие имеет вероятности соответственно 0,5 и 0,5. Очевидно, что в первом случае результатом опыта “почти наверняка” является наступление события, во втором же случае неопределенность исхода так велика, что от прогноза разумнее воздержаться.

Для характеристики размытости распределений широко используется второй центральный момент (дисперсия) или доверительный интервал. Однако эти величины имеют смысл лишь для случайных числовых величин и не могут применяться к случайным объектам, состояния которых различаются качественно, хотя и в этом случае можно говорить о большей или меньшей неопределенности исхода опыта. Следовательно, мера неопределенности, связанная с распределением, должна быть некоторой его числовой характеристикой, функционалом от распределения, никак не связанным с тем, в какой шкале измеряются реализации случайного объекта.

ЭНТРОПИЯ И ЕЕ СВОЙСТВА

Примем (пока без обоснования) в качестве меры неопределенности случайного объекта А с конечным множеством возможных состояний

А1, ..., Аn с соответствующими вероятностями p1, ..., рn величину

, (1)

которую и называют энтропией случайного объекта А (или распределения {рi}). Убедимся, что этот функционал обладает свойствами, которые вполне естественны для меры неопределенности.

10Н(р1, ..., рn) = 0 в том и только в том случае, когда какое-нибудь од­но из {рi} равно единице (а остальные – нули). Это соответствует случаю, когда исход опыта может быть предсказан с полной достоверностью, т.е. когда отсутствует всякая неопределенность. Во всех других слу­чаях энтропия положительна. Это свойство проверяется непосредственно.

20Н(р1, ..., рn) достигает наибольшего значения при р1 = р2 = = ... = рn = 1/n, т.е. в случае максимальной неопределенности.

Действительно, вариация Н по рi при условии рi = 1 дает рi = = const = .

30. Если А и В – независимые случайные объекты, то

Н(А  В) = Н({?ik =рiqk}) = Н({рi}) + Н({qk}) = Н(А) +Н(В).

Это свойство проверяется непосредственно.

40. Если А и В – зависимые случайные объекты, то

Н(АВ) = Н(А) + Н(В | А) =Н(В) +Н(А | В), (2)

где условная энтропия Н(В | А) определяется как математическое ожидание энтропии условного распределения.

Это свойство проверяется непосредственно.

50Имеет место неравенство Н(А)  Н(А | В), что согласуется с интуитивным представлением о том, что знание состояния объекта В может только уменьшить неопределенность объекта А, а если они независимы, то оставит ее неизменной.

Это свойство доказывается с помощью тождественного неравенства

,

справедливого для любой выпуклой функции f(х), если в этом неравенстве положить f(х) = хlogх, ?k = рk, хk = qk | l.

Как видим, свойства функционала Н позволяют использовать его в качестве меры неопределенности. Интересно отметить, что если пойти в обратном направлении, т.е. задать желаемые свойства меры неопределен­ности и искать обладающий указанными свойствами функционал, то уже только условия 20 и 40 позволяют найти этот функционал, и при­том единственнымобразом (с точностью до постоянного множителя).

ДифференциальнаЯ ЭНТРОПИЯ

Обобщение столь полезной меры неопределенности на непрерывные случайные величины наталкивается на ряд сложностей. Можно по-разному преодолеть эти сложности; выберем кратчайший путь. Прямая аналогия

не приводит к нужному результату; плотность р(х) является размерной величиной*, а логарифм размерной величины не имеет смысла. Однако положение можно исправить, умножив р(х) под знаком логарифма на величину E, имеющую ту же размерность, что и х:

.

Теперь величину E можно принять равной единице измерения х, что приводит к функционалу

, (3)

который получил название дифференциальной энтропии. Это аналог энтропии дискретной величины, но аналог условный, относительный: ведь единица измерения произвольна. (Здесь [p(x)] есть безразмерное представление плотности.) Запись (3) означает, что мы как бы сравниваем неопределенность случайной величины, имеющей плотность р(х), с неопределенностью случайной величины, равномерно распределенной в единичном интервале. Поэтому величина h(Х) в отличие от Н(Х) может быть не только положительной. Кроме того, h(Х) изменяется при нелинейных преобразованиях шкалы х, что в дискретном случае не играет роли. Остальные свойства h(Х) аналогичны свойствам Н(Х), что делает дифференциальную энтропию очень полезной мерой.

Пусть, например, задача состоит в том, чтобы, зная лишь некоторые ограничения на случайную величину (типа моментов, пределов сверху и снизу области возможных значений и т.п.), задать для дальнейшего (ка­ких-то расчетов или моделирования) конкретное распределение. Одним из подходов к решению этой задачи дает принцип максимума энтропии: из всех распределений, отвечающих данным ограничениям, следует выбирать то, которое обладает максимальной дифференциальной энтропией. Смысл этого критерия состоит в том, что, выбирая экстремальное по энтропии распределение, мы гарантируем наибольшую неопределенность, связанную с ним, т.е. имеем дело с наихудшим случаем при данных условиях.

ФУНДАМЕНТАЛЬНОЕ СВОЙСТВО ЭНТРОПИИ СЛУЧАЙНОГО ПРОЦЕССА

Особое значение энтропия приобретает в связи с тем, что она связана с очень глубокими, фундаментальными свойствами случайных процессов. Покажем это на примере процесса с дискретным временем и дискретным конечным множеством возможных состояний.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]