Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы на экзаменационные билеты (2).docx
Скачиваний:
67
Добавлен:
28.06.2014
Размер:
1.58 Mб
Скачать

6. Энтропия нескольких источников информации.

Пусть имеются два источника XиY, которые выдают события {x1;x2;...xi;...xn} и {y1;y2;...yj;...ym}. Рассмотрим одновременное наступление двух событийxiиxj. Вероятность его появления обозначимp(xi;yj), а вероятности появления любых пар (xi;yj) составят матрицу ||p(xi;yj)||, где 1 ≤in, а 1 ≤jm.

Количество информации, которое будет получено от факта наступления события (xi;yj) будет равноI= –logp(xi;yj).

Среднее количество информации на одну пару, или энтропия объединения двух событий подсчитывается по формуле:

Для независимых случайных событий XиYвероятность совместного наступления объединения двух событийxiиyjопределяется как произведение вероятностей появления каждого из этих событий, то естьp(xi;yj) =p(xi) ·p(yj). Учитывая это энтропию объединения можно подсчитать по следующей формуле:

то есть энтропия объединения двух независимых источников XиYравна сумме энтропий этих источников. То же можно утверждать об энтропии объединения многих независимых случайных источников, то есть

.

Вероятность совместного наступления объединения двух взаимозависимых событий p(xi;yj) подсчитывается как произведение вероятности появления одного из них на условную вероятность появления второго при условии, что имеет место факт появления первого события, то есть

.

Учитывая это, энтропию объединения двух взаимозависимых источников следует считать по иному:

Где – условная энтропия источникаYотносительно событияxi;

H(YX) – условная энтропия источникаYотносительно источникаX, так как при расчете учитываются все состояния, которые может принимать источникX.

Для объединения из трех взаимозависимых источников X;Y;Zможно записать:

H(X;Y;Z) =H(X) +H(YX) +H(ZX;Y).

Для объединения двух взаимозависимых событий можно записать пределы, в которых может меняться его энтропия:

max[H(X);H(Y)] ≤H(X;Y) ≤H(X) +H(Y), то есть

энтропия объединения всегда больше энтропии одного из источников, но меньше суммы их энтропий. Первое утверждение верно, когда имеет место линейная зависимость одного из источников от другого, а второе – когда источники независимы.

Рассмотрим пример расчета энтропии объединения двух источников. Пусть нам задана матрица ||p(xi;yj)|| следующего вида:

На матрицу наложены следующие ограничения:

.

Требуется определить H(X;Y) тремя способами:

Надо определить источники XиYвзаимозависимы или нет.

Матрицу ||p(xi;yj)|| можно задать самим при условии, что m и n не более четырех, а можно запросить у ЭВМ, которая ее (матрицу) сгенерирует.

При расчетах следует учитывать, что

;

7. Энтропия непрерывного источника. Относительная энтропия.

При попытке оценить неопределенность непрерывной случайной величины (с непрерывным множеством возможных состояний) – появляются особенности.

  1. «Непрерывность» имеет смысл только для количеств, то есть объект с непрерывным множеством возможных состояний – это количественная случайная величина.

  2. Распределение вероятности по состояниям характеризуется в этом случае плотностью вероятности p(x). Плотность вероятности величина размерная. Размерность обратная размерности случайной величины X, так как вероятность p(xdx безразмерна.

Переход к безразмерной случайной величине X, проведем путем деления размерной случайной величины X* на единицу ее измерения X0. Тогда и плотность вероятности будет безразмерной. Разобьем всю область (–Ґ; +Ґ) возможных значений случайной величины X на интервалы, разделенные отстоящими на равных расстояниях Δx друг от друга интервалами (x-1; x0;...xk;...).

Всякий раз, когда реализуется значение x О (xk; xk + Δx) будем считать, что реализовалось значение xk величины X.

Рис. 2.3

Таким образом перешли к дискретной случайной величине, которая характеризуется распределением вероятностей. Вероятность наступления какого-либо состояния равна

.

Очевидно, что при Δx ® 0 квантованная величина Xд будет все более и более полно отражать все свойства непрерывной величины X. С другой стороны, к величине Xд (дискретной) можно применить понятие энтропии

.

Устремим Δx ® 0. При достаточно малых Δx примем . Поэтому

Таким образом предел энтропии H(Xд) за счет второго члена (–log Δx) стремится к бесконечности при Δx ® 0. Убедившись в том, что непрерывные случайные величины не допускают введения конечной абсолютной меры неопределенности, введем относительную меру. В качестве стандарта для сравнения можно брать неопределенность какого-либо простого распределения, например – равномерного в интервале шириной e. Разделим интервал e также на участки Δx и подсчитаем

.

Будем характеризовать неопределенность непрерывной случайной величины X числом, к которому стремится разность энтропий квантованных величин Xд (случайной величины X любого распределения) и Xд;равн(случайной величины, распределенной по равномерному закону на интервале e):

.

Эта разность конечна.

Если взять за стандарт неопределенность случайной величины, равномерно распределенной в единичном интервале, то есть принять (e = 1), то

.

Число He=1(X) обычно и называют относительной энтропией непрерывной случайной величины. По численному значению относительной энтропии различные источники сообщения можно сравнить между собой.

Относительная энтропия характеризуется теми же свойствами, что и энтропия дискретного источника:

1. Не зависит от конкретного содержания случайной величины.

2. Энтропия объединения двух независимых источников выражается формулой:

.

3. Энтропия объединения двух статистически зависимых источников:

,

где

.

4. He(X; Y) ≤ He(X) + He(Y).

5. Всякое сглаживание функций распределения p(X) ведет к росту He(X).

Рис. 2.4

Hε1(X) < Hε2(X).

Исключение составляет лишь то, что He(X) может принимать отрицательные значения, так как He(X) – это разность энтропий, а случайная величина X может быть распределена на небольшом интервале меньшем, чем (e = 1).

Примеры.

Подсчитайте относительную энтропию непрерывного источника, имеющего следующий закон распределения плотности вероятности случайной величины X:

1.

Рис. 2.5

He(x) = 0.

2.

Рис. 2.6

He(x) = –1;

.

3.

Рис. 2.7

He(x) = 1;

.