Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЧТОТО ПОХОЖЕЕ НА ШАЛИМОВА.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
406.02 Кб
Скачать

2. Средняя собственная информация (энтропия) Энтропия

Дискретный источник удобнее характеризировать количеством собственной информации, содержащимся в среднем в одном символе ансамбля X.

Это среднее количество собственной информации есть

I(X)=M[ –log p(X)]= (8)

и названо энтропией.

Основные свойства энтропии

1. Энтропия неотрицательна

H(X)  0. (9)

Знак равенства имеет место, когда X – не случайна, т.е. p(xj)=1, а p(xi)= 0 для i j. При этом неопределенность относительно ансамбля X отсутствует. Т.о., энтропия есть мера неопределенности случайного ансамбля.

2. Величина энтропии удовлетворяет неравенству

H(X)  log n. (10)

Знак равенства имеет место при равновероятности символов ансамбля Х, т.е. при p(xj)=1/n.

3. Свойство аддитивности энтропии.

В последовательности n независимых символов энтропия равна сумме энтропий, содержащихся в отдельных символах

H[X(1), …, X(n)]=H(X(1)) + …+ H(X(n)). (11)

Вычисление энтропии по формуле (8) можно упростить, введя функцию

(p) = –p log p, тогда формула примет вид

. (12)

Условная энтропия

Пусть имеются два статистически зависимых конечных ансамбля символов X и Y. Пары символов xjyk с вероятностями p(xj , yk) можно рассматривать как элементарные символы объединенного ансамбля X Y с энтропией

(13)

Появление символа xjX вызовет появление символа ykY с условной вероятностью

При этом условная энтропия ансамбля Y в предположении, что выбран символ xj будет

(14)

Здесь каждому xj соответствует свое значение энтропии H(Y/xj), т.е. H(Y/xj) – случайная величина

Тогда средняя условная энтропия случайной величины Y, вычисленная при условии, что известно значение другой случайной величины X, равна

(15)

Энтропия объединенного ансамбля H (XY) удовлетворяет следующим соотношениям:

а) H (XY) = H (X) + H (Y/ X) = H (Y) + H (X/ Y) , (16) если X и Y зависимы;

б) H (XY) = H (X) + H (Y), если X и Y независимы. (17)

Для объединенного ансамбля XY условная энтропия удовлетворяет неравенствам:

H (Y/ X)  H (Y), (18)

H (X/ Y)  H (X).

Избыточность

Считают, что имеется избыточность, если количество информации, содержащейся в сигнале (энтропия сигнала), меньше того количества, которое этот сигнал мог бы содержать по своей физической природе. Ведем количественную меру избыточности.

Пусть сигнал длиной в n символов (отсчетов) содержит количество информации H. Пусть далее наибольшее количество информации, которое в принципе может содержаться в данном сигнале с учетом наложенных на него ограничений (заданное основание кода, заданная средняя мощность сигнала и т.п.), равно Hmax. Иногда количественной мерой избыточности является величина

(19)

Причины появления избыточности – это статистическая связь между символами (отсчетами) сигнала и неэкстремальность распределения вероятностей отдельных символов (отсчетов). Введение избыточности приводит к удлинению сигнала, но зато повышает его информационную устойчивость при воздействии помех.

Задачи для решения в аудитории.

Пример 1.

На измерительной станции имеются два прибора. Первый имеет шкалу, содержащую100 делений, его показания могут меняться через каждые 0,05 с. Шкала второго прибора имеет 10 делений, и его показания могут меняться каждые 0,01 с.

Какова наибольшая средняя информация, поставляемая двумя приборами в 1 секунду?

Решение.

1-й прибор.

Энтропия одного значения (отсчета) по формуле (10)

H1(X)=log m1=log 100.

Число отсчетов в 1 с n1=1/0,05=20.

2-й прибор.

Энтропия одного значения (отсчета) по формуле (10)

H2(X)=log m2=log 10.

Число отсчетов в 1 с n2=1/0,01=100.

Энтропия двух приборов в 1 с по формуле (11)

H[X]=n1 H1 (X) + n2 H2 (X)=20 log2 00 + 100 log210 =

= 20*6.64+100*3.32  465 бит, с

Пример 2.

Производится стрельба по двум мишеням, по одной сделано 2 выстрела, по второй – 3. Вероятности попадания при одном выстреле соответственно равны ½ и 1/3. Исход стрельбы (число попаданий) по какой мишени является более определенным, если число попаданий в мишень подчинено биномиальному закону распределения

p(X=m)=Cnm pm (1–p) n–m , где

Cnm =

n!

m!(n m)!

Составим ряд распределения для числа попаданий в первую мишень при n=2 и р=1/2

m

0

1

2

Cnm

1

2

1

pm

1

1/2

1/4

(1–p) n–m

1/4

1/2

1

p(X=m)

1/4

1/2

1/4

и вторую мишень при n=3 и р=1/3

m

0

1

2

3

Cnm

1

3

3

1

pm

1

1/3

1/9

1/27

(1–p) n–m

8/27

4/9

2/3

1

p(X=m)

8/27

4/9

2/9

1/27

Мерой неопределенности исхода стрельбы служит энтропия числа попаданий. Энтропия числа попаданий при стрельбе по первой мишени

m1

H1(X)= –

p(xj) log p(xj)=

j=1

= – = 1+ 0,5 = 1,5 бит.

По второй мишени

m2

H2(X)= –

p(xj) log p(xj)=

j=1

= – =

= 1,7 бит.

Сравнивая H1(X) и H2(X), получаем

H1(X) H2(X), т.е. исход стрельбы по второй мишени обладает большей неопределенностью.