Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
inf.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
491.92 Кб
Скачать

11. Мера количества информации к. Шеннона для сообщений с неравновероятными независимыми символами.

Любая теория математически строга своими допущениями и ограничениями. Так, формула Хартли, с точки зрения теории вероятности, справедлива только в том случае, если символы в сообщении, формируемом дискретным источником, равновероятны и несовместны (это определил и сам Хартли), но также и независимы (это доказали К. Шеннон А.Я. Хинчин). В реальных СПИ такие ограничения чаще всего не выполняются.

Особенно это характерно для передачи текстовых сообщений на различных языках. Так в тексте, написанном на английском языке чаще всего встречается буква е, на русском языке – буква а, на украинском языке – буква о. В русском тексте вероятность появления буквы о принято считать равной 0,09, в то время как для буквы ф – 0.002. Для оценки количества информации в таких сообщениях применение меры Р. Хартли становится некорректным.

Это ограничение снял в своей теории Клод Шеннон. Покажем, как он решил задачу определения количества информации в сообщениях, в которых символы являются несовместными, независимыми и неравновероятными.

Рассмотрим множество Х случайных событий х1, х2,...хN , наступающих с вероятностями:

р(х1)= р1, р(х2)= р2 , ..., р(хN)=рN

Назовем это законом распределения вероятностей. Пусть эти события независимы, несовместны и составляют полную группу событий, т.е. р1 + р2 + ...+ pN = 1.

Множество, удовлетворяющее указанным требованиям, Шеннон назвал ансамблем случайных событий.

Неопределенность исхода опыта с ансамблем, который записывается законом распределения вида

Х = х1, х2, ... , хm

p1 p2 pm ( 11 )

, причем ,

К.Шеннон предложил находить по формуле

( 12 )

Эта формула в теории информации носит название формулы Шеннона.

Пример 2. Пусть источник информации формирует сообщение Х, состоящее из 4 –х символов х1234 , вырабатываемых с вероятностями р(х1) = 1/2 , p(x2) = 1/4, p(x3) = p(x4) = 1/8.

Требуется найти среднее количество информации, передаваемое с каждым символом

I(X) = H(X) = - (1/2 log 21/2 +1/4 log2 1/4+ 2 1/8 log2 1/8) =

    • (- 1/2 -1/2 – 3/4) = 7/4 дв.ед/ симв. (бит/симв.)

В формуле (12) величину Н(Х) – Шеннон назвал энтропией ансамбля дискретных сообщений(в Н(Х) – Х – не аргумент функции, а обозначение ансамбля). Такие сообщения, которые в любой момент времени могут принимать только одно значения называют простыми.

Чем руководствовался Шеннон при выводе формулы (12)? Чтобы ответить на этот вопрос, рассмотрим ряд примеров.

Пример 1. Пусть имеем систему, которая может принимать два независимых несовместных состояния х1 и х2 с вероятностями соответственно р(x1)=р(x2)=0,5 и другую систему Y, которая также может принимать два состояния y1 и y2, но с вероятностями соответственно p(y1)=0,1 и P(y2)=0,9.

С точки зрения неопределенности состояния систем Х и Y можно качественно предположить, что у системы Х она больше, чем у системы Y, так как для системы Y наиболее вероятно, что она находится в состоянии y2. Следовательно, можно отметить, что степень неопределенности, а также ее количественная мера – энтропия являются функциями вероятностных характеристик, того или иного состояния системы (исхода опыта).

По формуле Шеннона это можно доказать количественно. Например, при основании логарифма а = 2, получим

- для системы Х:

I(X) = H(X)до опыта =

= -(

= ;

- для системы Y:

I(Y) = H(Y)до опыта =

= -(

= .

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]