Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
№3 оценка энтропийных характерисик .doc
Скачиваний:
0
Добавлен:
25.01.2020
Размер:
147.46 Кб
Скачать

Количество информации в сообщении. Формула Хартли

Пусть имеем множество {X}=(x1, x2,…xm) элементов N=2n . Какое количество информации (двоичных разрядов) необходимо, чтобы каждому элементу xi Є X присвоить двоичную комбинацию? Нетрудно догадаться, что количество двоичных разрядов составит:

n= log2N бит/символ. (1)

Если множество не кратно степени двойки, т.е. N≠2n , количество информации выразится той же формулой:

2n< log2M<2n+1

Выражение (1) называется формулой Хартли (1928 г.)

Закон аддитивности информации

Пусть задано множество X, содержащее N1 элементов xi Є X, а также множество Y, содержащее N2 элементов yj Є Y. Составим пары элементов (xi yj ). Очевидно, что множество пар будет содержать N1·N2 элементов.

Количество информации (двоичных разрядов), необходимое, чтобы каждой паре (xi yj ) поставить в соответствие двоичный код составит:

log2(N1·N2)= log2 N1+ log2 N2

Последнее выражение носит название закона аддитивности информации.

Формула Хартли получена при ограничениях.

1. Отсутствие смысловой ценности информации.

2. N возможных состояний равновероятны:

log N = -log 1/N = -log p

p = 1/N — вероятность появления одного сообщения.

3. Между элементарными сигналами отсутствует корреляция, и все значения равновероятны. Утверждение об отсутствии корреляции следует из того, что для передачи сообщений используются все возможные сигналы. Равная вероятность всех N значении сигналов следует из формулы:

log N = - log 1/N= - log p

р=1/N— вероятность появления любого значения из N возможных.

Возникают ситуации, в которых отмеченные выше ограничения не действуют, поэтому для них формула Хартли дает неверные результаты. Другое представление количества информации было найдено Клодом Шенноном примерно через 20 лет после опубликования формулы Хартли.

Пусть дан некоторый ансамбль сообщений с указанием вероятности появления каждого из них {X,P(x)}. При этом суммарная вероятность всех сообщений должна быть равна единице. В этом случае говорят, что ансамбль представляет собой полную группу событий. В ансамбле не указывается конкретное число сообщений, т.к. оно не имеет особого значения.

x1, x2,… xi xn Σ Pi = 1

{X,P(x)} =

P1, P2,…Pi…Pn

Верхняя строка содержит сообщение (значение дискретной случайной величины), нижняя — вероятности их появления.

Пусть получено сообщение xi, вероятность которого Pi . Очевидно, что сообщение содержит некоторую информацию, обозначим её I(xi). Что принять в качестве количественной меры информации в данном случае. Поскольку кроме вероятности появления этого сообщения ничего неизвестно, то естественным является связать количество информации в этом сообщении с вероятностью его появления.

Жизненный опыт подсказывает, что информация о событии тем значительнее, чем меньше вероятность появления такого события. Однако, мера количества информации в виде 1/P(xi) не удобна по двум причинам: она не обладает свойством аддитивности и не обслуживает случай достоверного события.

В теории информации в качестве меры количества информации принята логарифмическая мера.

Определение 1. Количеством собственной информации в сообщении xi Є X называется число I(xi), определяемое соотношением:

I(xi)= log 1/P(xi)=-log P(xi) (1)

Единица измерения количества информации и её названия зависит от основания логарифма. Если основанием логарифма является:

  • Число 2, т.е. log2P(xi) [бит]

  • Число e, т.е. logeP(xi)=lnP(xi) [нат] «natural digit»

  • Число 10, т.е. . lg10P(xi) [дит]

Собственная информация неотрицательно и сообщение, имеющее меньшую вероятность несет большую информацию.

Количество информации, определяемое соотношением (1) является действительной функцией на ансамбле {X,P(x)} и следовательно, представляет собой случайную функцию со значениями I(x1), I(x2),…, I(xn).

Среднее количество информации, содержащееся в одном сообщении можно выразить:

M [I(xi)]=Σ Pi I(xi)=-Σ P ilogPi (2)

Выражение (2) является формулой Шеннона и решает одну из основных задач теории информации, задачу количественной меры информации. Для двоичных сообщений формула имеет вид:

I[X] = -Σ Pi log2Pi [бит]

Формула Шеннона отображает общий случай, для произвольного закона распределения, когда вероятности отдельных сообщений не равны. Легко показать, что формула Хартли является частным случаем формула Шеннона, когда вероятности сообщений равны между собой. Если в формуле Шеннона принять одинаковую вероятность всех сообщений равную Pi(xi)=1/N=1/2n, если N=2n, то после преобразований получим:

-Σ Pi log2Pi = N·1/N·log2 1/(1/N) = log2N = n

Следует подчеркнуть, что получить информацию можно только в результате опыта (наблюдения) и количество её зависит от вероятностных свойств источника, а свойства, в свою очередь от природы самого источника.