Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информатика учебное пособие часть 1.doc
Скачиваний:
31
Добавлен:
16.09.2019
Размер:
882.18 Кб
Скачать

3.4 Энтропия и информация

Обобщим и осмыслим еще раз вышеприведенные результаты.

1. Выражение (3.6) является статистическим определением понятия «информация», поскольку в него входят вероятности возможных исходов опыта.

Выражение I(, можно интерпретировать следующим образом: если начальная энтропия опыта Н1, а в результате сообщения информации I энтропия становится равной Н2, (Н1Н2), то

I = Н1 – Н2 , – то есть информация равна убыли энтропии.

В частном случае, если изначально равновероятных исходов было n1, в результате передачи информации I неопределенность уменьшилась и число исходов стало n2 (n2n1), то I = log2n1 – log2n2 = log2 .

Таким образом, можно дать следующее определение:

Информация – это содержание сообщения, понижающего неопределенность некоторого опыта с неоднозначным исходом. Убыль связанной с ним энтропии является количественной мерой информации.

В случае равновероятных исходов информация равна логарифму отношения числа возможных исходов до и после получения сообщения.

2. Следствием аддитивности энтропии независимых опытов оказывается аддитивность информации. Пусть с выбором одного из элементов хА множества А, содержащего nА элементов, связано IA = log2nA информации, а с выбором хВ из множества В с nВ элементами информации связано IB=log2nB. Если второй выбор никак не связан с первым, то при объединении множеств число возможных состояний элементов составляет n=nAnB и для выбора комбинации хАхВ потребуется количество информации

I = log2(nAnB) = log2na + log2nB = IA + IB.

3. Вернемся к утверждению о том, что количество информации может быть измерено числом вопросов с двумя равновероятными ответами. Означает ли это, что I должно быть всегда целой величиной?

Из формулы Хартли I = k бит только в случае n = 2k. А в остальных ситуациях? Например, с карточной колодой из 36 карт I = log236 Число вопросов в ряде случаев должно быть 5, а в ряде случаев – 6. Усреднение по случаям как раз и дает нецелую величину. Таким образом,

величина I, определяемая описанным выше способом, показывает, сколько в среднем необходимо сделать парных выборов для установления результата (полного снятия неопределенности), если опыт повторить многократно.

4. Необходимо понимать также, что не всегда с каждым из ответов на вопрос, имеющим только 2 варианта ответа (бинарный вопрос), связан ровно 1 бит информации.

Р ассмотрим опыт, реализующийся посредством двух случайных событий; Так как их всего два, то они являются дополнительными друг к другу.

Если эти события равновероятны, то р1 = р2 = 0,5 и I = 1 бит.

Однако если их вероятности различны р1 = р, то р2 = 1 – р и

I(p)=  рlog2р  (1  р) log2(1 – р).

При р  0 и при р  1, функция I(p) 0. График этой функции приведен на рис.3.2. Кривая симметрична относительно р=1/2 и достигает максимума при этом значении.

Ответ на бинарный вопрос может содержать не более 1 бит информации. Информация равна 1 бит только для равновероятных ответов; в остальных случаях она меньше 1 бит.

Пример 7. При угадывании результата броска игральной кости задается вопрос «Выпало 6?» Какое количество информации содержит ответ?

бит  1 бит.

«Выпало больше 2»? .

I = 0.387+0.527=0.914.

5. Формула (3.6) приводит еще к одному выводу. Пусть некоторый опыт имеет два исхода А и В, причем рА = 0.99, а рВ = 0.01.

В случае исхода А получим количество информации IА =  log20.99 = 0.0145 бит, а в случае исхода В IB =  log20.01 = 6.644 бит. Следовательно,

больше информации связано с теми исходами, которые менее вероятны.

Действительно, то, что наступит А, почти наверняка знали и до опыта; поэтому реализация такого исхода мало добавляет к нашей осведомленности.

Наоборот, исход В – очень редкий; информации связано с ним больше, осуществилось трудно ожидаемое событие.

Однако такое большое количество информации будем при повторах получать редко, поскольку мала вероятность В. Среднее количество информации

I = 0,99 IA + 0,01 IB = 0,081 бит.

6. В данном разделе рассмотрен вероятностный подход к определению количества информации. Он не является единственным. Как будет показано далее, количество информации можно связать с числом знаков в дискретном сообщении – такой способ измерения называется объемным. Можно доказать, что при любом варианте кодирования I вер.  I об.

7. Объективность информации. При использовании людьми одна и та же информация может иметь различную оценку с точки зрения важности (значимости). Определяющим в такой оценке оказывается смысл (содержание) сообщения для конкретного потребителя.

Однако при решении практических задач технического характера содержание сообщения может не играть роли. Например, задача любой линии связи – точная и безошибочная передача сообщения. Техническое устройство не может оценить важность информации.

Вышеприведенное определение информации в статистическом смысле не зависит от того, кто и каким образом осуществляет выбор, а связанная с ним количественная мера одинакова для любого потребителя. Следовательно, появляется возможность описывать информационные процессы математическими уравнениями.

8. Информация и знание. На бытовом уровне, в науках социальной направленности, «информация» отождествляется с «информированностью», то есть человеческим знанием. В теории информации, напротив, информация является мерой нашего незнания чего-либо (но что в принципе может произойти). Состоявшееся событие не несет информации, поскольку пропадает его неопределенность.

Недопонимание указанных различий порождает попытки применения законов теории информации в тех сферах, где условия ее применимости не выполнены. Любая теория справедлива лишь в рамках своих исходных ограничений.