Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТИ_2006_ВСЕ.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
4.19 Mб
Скачать

1.3. Количественные аспекты информации

Количество информации по Хартли и Шеннону

Понятие количество информации отождествляется с понятием информация. Эти два понятия являются синонимами. Впервые дать меру количества информации попытался в 1928г. Р.Хартли. Он исходил из того, что количественная мера информации должна согласовываться с интуитивным представлением о содержании информации в сообщении (сигнале). Так, например, чем длиннее телеграмма, тем больше информации она обычно содержит. Следовательно, мера информации должна монотонно возрастать с увеличением длительности сообщения (сигнала), которую естественно измерять числом символов в дискретном сообщении и временем передачи в непрерывном случае. Кроме того, на содержание количества информации должны влиять и статистические характеристики, так как сигнал должен рассматриваться как случайный процесс.

При этом Хартли наложил ряд ограничений:

  1. Рассматриваются только дискретные сообщения.

  2. Множество различных сообщений конечно.

  3. Символы, составляющие сообщения равновероятны и независимы.

В этом простейшем случае число N различных сообщений длиною в k символов из алфавита содержащего m символов, равно mk. Пусть, например, алфавит состоит из трех символов: a, b, c, а k=2. Тогда количество различных сообщений будет составлять N=32=9. Это будут aa, ab, ac, ba, bb, bc, ca, cb, cc. Если k=3 то мы уже получим N=33=27 различных сообщений. То есть с увеличением длительности сообщений растет и количество информации. И в этом случае, казалось бы, в качестве меры информации можно было бы взять число N различных сообщений. Но Хартли указал, что экспоненциальная зависимость N от k не позволяет использовать величину N в качестве меры информации. Хартли впервые предложил в качестве меры количества информации принять логарифм числа возможных последовательностей символов.

I=log mk=log N (1.9)

К.Шеннон попытался снять те ограничения, которые наложил Хартли. На самом деле в рассмотренном выше случае равной вероятности и независимости символов при любом k все возможные сообщения оказываются также равновероятными, вероятность каждого из таких сообщений равна P=1/N. Тогда количество информации можно выразить через вероятности появления сообщений I=log P. Далее Шеннон рассуждал следующим образом.

Пусть вероятность i го символа (i=1,2,…,m) равна pi. Символы образуют полную группу событий, то есть, Чтобы сообщения были равновероятными, необходим чтобы относительные частоты появления отдельных символов во всех возможных сообщениях были равны. При ограниченной длине сообщений  это условие не выполняется. Но при достаточно длинных сообщениях условие равной вероятности возможных сообщений будет, приближенно выполнятся.

В силу статистической независимости символов, вероятность сообщения длиной в k символов равна . Если iй символ повторяется в данном сообщении ki раз, то , так как при повторении i символа ki раз k уменьшается до m. Из теории вероятностей известно, что, при достаточно длинных сообщениях (большое число символов k) kik·pi и тогда вероятность сообщений будет равняться . Тогда окончательно получим

(1.10)

Данное выражение называется формулой Шеннона для определения количества информации. Формула Хартли является частным случаем формулы Шеннона. В самом деле, при равновероятных символах, то есть при pi=1/m формула Шеннона переходит в формулу Хартли: .

Формула Шеннона для количества информации на отдельный символ сообщения совпадает с энтропией. Тогда количество информации сообщения состоящего из k символов будет равняться I=k·H.