Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Основы оптоинформатики Раздел 1_end.doc
Скачиваний:
174
Добавлен:
08.11.2018
Размер:
10.51 Mб
Скачать

§1.2. Количество информации в системе событий с различными вероятностями. Подход Шеннона

Рассмотренный §1.1. подход с равновероятностными результатами соответствует идеализированному случаю, когда до опыта (априори) нет никакой информации об изучаемом объекте. На практике, как правило, экспериментатор располагает некоторыми априорными сведениями о свойствах исследуемого объекта, что позволяет делать предсказания. Следовательно, в этом случае различные исходы опыта уже не равновероятны, и их неопределенность уменьшается по сравнению с опытом, имеющим равновероятные исходы.

Рассмотрим следующий эксперимент. Человек открывает страницу некоторой книги и не глядя, наугад выбирает одну букву. Какой результат он получит? Если у него не имеется никаких сведений о статистических свойствах литературного русского языка, то предсказание исхода невозможно и получение любой из 33 букв в результате опыта для него равновероятно. Однако процесс естественного развития языков привел к тому, что различные буквы встречаются в текстах с неодинаковыми частотами. Вероятности появления, или относительная частота появления в тексте букв в русском языке приведены в таблице 1, относительная частота появления пробела или знака препинания в русском языке составляет 0,174.

Таблица 1. Относительная частота появления в тексте букв в русском языке

Буква

Частота

Буква

Частота

Буква

Частота

Буква

Частота

о

0.09

0.038

з

0.016

ж

0.007

е, ё

0.072

л

0.035

ы

0.016

ш

0.006

а

0.062

к

0.028

б

0.014

ю

0.006

и

0.062

м

0.026

ь,ъ

0.014

ц

0.004

н

0.053

д

0.025

г

0.013

щ

0.003

т

0.053

п

0.023

ч

0.012

э

0.003

с

0.045

у

0.021

й

0.01

ф

0.002

р

0.04

я

0.018

х

0.009

Из табл.1 видно, что из 1000 наудачу выбранных в тексте букв около 90 раз встретится буква "о", 62 раза - "а", 26 раз-"м" и только 2 раза - "ф".

Таким образом, имея приведенную в таблице информацию можно априори предсказать, что в результате опыта экспериментатор с вероятностью ро = 0,090 выберет букву "о", а о вероятностью ре = 0,072 - букву "е" и т.д., то есть результаты такого опыта имеют меньшую неопределенность, чем результаты опыта в случае отсутствия данных таблицы 1.

Вопросы оценки количества информации, получаемой в опыте с не равновероятными результатами, впервые в 1948 году были рассмотрены американским ученым Клодом Шенноном, который заложил основы современной теории информации. Клод Шеннон в своих работах по теории связи выписывает формулы для вычисления количества информация и энтропии. Термин энтропия используется Шенноном по совету патриарха компьютерной эры фон Неймана, отметившего, что полученные Шенноном для теории связи формулы для ее расчета совпали с соответствующими формулами статистической физики, а также то, что “точно никто не знает” что же такое энтропия.

Предположим, что в эксперименте измеряются значения некоторой дискретной случайной величины X . Совокупность всех возможных значений величины X образует полную систему взаимонезависимых случайных событий, называемую ансамблем:

(9)

где xi (i = 1,2,…., N)- значения случайной величины X, которые она может принять в результате проведения опыта; pi (i = 1,2,…., N) - вероятности получения соответствующих значений xi . Поскольку cиcтема событий полная, выполняется условие нормировки

. (10)

Предположим далее, что в результате проведения одного опыта с полной определенностью стало известно, что случайная величина приняла некоторое значение xk (1 ≤ kN ). Количество информации, полученное в этом опыте, по определению считается равным

Ik = - log2 pk , (11)

где pk - априорная вероятность события "Случайная величина приняла значение xk". Величина Ik называется частной информацией, поскольку она характеризует неожиданность (неопределенность) появления отдельного конкретного события (Х = xk) или, иными словами, количество информации связанное с появлением этого события. Определение (11) является естественным обобщением меры количества информации по Хартли (6) на случай опыта с неравновероятными исходами. Из соотношения (11) видно, что наибольшая информация достигается, если в результате опыта произошло наименее вероятное (наиболее неожиданное) событие. Заметим, что количество информации в виде (11) всегда положительно, постольку в соответствии с условием (10) вероятность каждого из событий всегда меньше единицы.

Усредненной оценкой количества информации при многократных повторениях опыта по измерению величины X является математическое ожидание частной информации – мера Шеннона:

. (12)

Мера Шеннона характеризует количество информации, приходящееся в среднем на одно событие. Свойства меры Шеннона:

  1. обращается в нуль, когда одно из состояний достоверно, а другие невозможны;

  2. непрерывна относительно pk и достигает максимального значения, когда состояния системы равновероятны, например: p1 = p2 = 0.5, E = -(0.5log(1/2) + 0.5log(1/2)) = 1, если p1 = 0.25 p2 = 0.75 то E = -(-0.75* 0.415 - 0.25*2) = 0.811;

  3. является монотонно возрастающей функцией N ;

  4. обладает свойством аддитивности, то есть в случае объединения независимых систем их информации складываются.

На выходе реальных информационных систем количество информации, содержащееся в сообщении, определяется следующим образом:

I = Ни - Н0 , (13)

где I - количество информации, содержащееся в сообщении; Ни - исходная неопределенность ансамбля событий, известная априори; Н0 - неопределенность ансамбля событий, оставшаяся после опыта. До получения информации ситуация характеризуется неопределенностью того, от какого источника она будет направлена, т.е. априорной энтропией:

. (14)

Энтропия дискретной случайной величины — это минимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной случайной величины. В термодинамике энтропия означает вероятность теплового состояния вещества, в математике – степень неопределенности ситуации или задачи, в информатике она характеризует способность источника отдавать информацию. Энтропия источника бинарных (двоичных) сообщений изменяется от нуля до единицы в зависимости от вероятности сообщений и имеет максимум при p1 = p2 = 0,5 . В этом случае мера Шеннона совпадает с мерой Хартли. Источник с энтропией в 1 бит полностью согласован с каналом, например, реле, имеющим информационную емкость в 1 бит. При неравновероятности сообщений канал будет недогружен. Зависимость энтропии от вероятности для бинарного источника иногда называют функцией Шеннона (рис. 41.)

Рис. 41. Энтропия бинарного источника

Таким образом, маловероятное событие несет большее количество, информации, чем событие высоковероятное. Это свойство количества информации соответствует психологической реакции человека. Действительно, как показано в экспериментальных исследованиях, чем неожиданнее (маловероятнее) происходящее перед глазами человека событие, тем больше соответствующее ему время задержки реакции человека на это событие; при этом соблюдается пропорциональная зависимость между временем задержки и количеством информации, найденным по формуле (11). Для примера на рис. 42 за­имствованном из работы американского психолога Р. Xаймана кружками отмечены данные восьми опытов, состоящих в определении среднего времени, тре­бующегося испытуемому, чтобы указать, какая из k лам­почек (где k менялось от 1 до 8) зажглась.

Рис.42. Опыт с лампочками

Это среднее время определялось из большого числа серий зажиганий, в каждой из которых частоты зажиганий всех лампочек были одинаковыми, причем предварительно испытуемый специально тренировался в подобных опытах. По оси ординат на рис. 42 отложено среднее время реакции, а по оси абсцисс — величина log2 k; при этом, как мы видим, все 8 кружков довольно точно укладываются на одну прямую.