Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы Гос-Экзамен (Часть 1).docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
853.9 Кб
Скачать

1. Мера информации предложенная автором теории информации Клодом Шенноном:

Мера информации, предложенная автором теории информации Клодом Шенноном, и ее экстремальные свойства.

Существует несколько видов статистических мер информации. В дальнейшем будем рассматривать только одну их них ─ меру Шеннона. Мера Шеннона количества информации тесно связана с понятием неопределенности ситуации ─ энтропии ─ и равна уменьшению этой неопределенности после получения сообщения, т.е. разности априорной (до получения сообщения) и апостериорной (после получения сообщения) энтропии.

Если произошло событие (например вы получили сообщение), в результате чего неопределенность была полностью снята, априорная вероятность возникновения которого Р, количество информации по Шеннону, которое вы при этом получаете, равно

  1. I = - log2 P

Если же событие не произошло, но вам известна вероятность его появления, вы имеете дело с неопределенностью в отношении этого события - энтропией, которая вычисляется по аналогичной формуле:

  1. H = - log2 P

В зависимости от происхождения и, соответственно, смысла, который вкладывается в вероятность, которая используется для вычисления количества информации и энтропии, меняется смысл получаемой информации и энтропии. Если же после получения сообщения неопределенность снимается не полностью, количество информации измеряется как разность между априорной энтропией (неопределенностью до получения сообщения) и апостериорной энтропией (неопределенностью после получения сообщения):

I = Наприорная - Напостериорная .

Надо при этом иметь в виду, что как информация, так и энтропия ─ понятия относительные и имеют смысл по отношению к некоторым определенным событиям, вероятности которых используются в соответствующих формулах.

1.2 Аддитивная мера количества информации, ее связь с мерой к. Шеннона и сфера применения.

Аддитивную меру можно рассматривать как более удобную для ряда применений комбинаторную меру. Наши интуитивные представления об информации предполагают, чтобы количество информации увеличивалось приблизительно объему сообщения и объему используемого при этом алфавита. Ни геометрическая, ни комбинаторная меры этим свойством не обладают. Геометрическая мера вообще не учитывает свойства алфавита, объем же информации в случае комбинаторной меры растет не прямо пропорционально размеру сообщения, а по закону геометрической прогрессии. Например, если сообщение представлено не одной, а двумя перфокартами ─ число возможных комбинаций возрастет в 2800 раз и станет равным 21600.

В 1929 году Хартли была предложена аддитивная мера. Словом аддитивность (суммируемость) здесь подчеркивается важное свойство этой меры, заключающееся в том, что измеренное при ее помощи количество информации в совокупности нескольких сообщений равно сумме количеств информации в каждом из сообщений в отдельности.

Количество информации по Хартли измеряется в битах (binary digit) и вычисляется как двоичный логарифм от числа состояний в котором может находиться сообщение или его источник.

Вернемся к нашему примеру с перфокартой. Каждая позиция на поверхности перфокарты может находиться в двух состояниях ─ с отверстием и без него. Таких позиций 800. Следовательно перфокарта может находиться в 2800 состояниях. Количество информации по Хартли в этом случае равно Ih =log22800=800 бит.

Две перфокарты будут иметь в совокупности 21600 состояний, что соответствует 1600 битам информации, т.е. количество информации по Хартли в двух перфокартах 2 два раза больше, чем в одной. Это соответствует принципу аддитивности (сложения).

Аддитивная мера проста и удобна для многих приложений, в частности, она широко используется в вычислительной технике, однако не отражает нашего интуитивного представления о связи количества информации со степенью неожиданности появления того или иного сообщения. Ведь обычно мы считаем, что в редких и неожиданных, т.е. маловероятных сообщениях, заключено больше информации.

Таким образом, более совершенная, отвечающая нашим интуитивным представлениям об информации мера информации должна быть связана с вероятностью появления сообщения, что и имеет место в статистических мерах информации.