Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ФОПИ_л02-2015.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
521.73 Кб
Скачать

Раздел 1. Информация о физических величинах

Лекция № 2

Тема. Синтаксические, семантические и прагматические аспекты информации

Учебные вопросы.

Вопрос 1. Количество информации. Обоснование меры неопределенности. Меры неопределенности Р. Хартли и К.Шеннона. 1

Вопрос 2. Основы семиотической теории информации 8

Вопрос 3. Определение ценности информации. Апостериорный подход 11

Вопрос 4. Мера ценности информации (А.Харкевича) 16

Вопрос 1. Количество информации. Обоснование меры неопределенности. Меры неопределенности р. Хартли и к.Шеннона.

1.1. Количество информации.

Основной количественной характеристикой информации является ее количество - количество информации.

Для ее оценки сначала рассмотрим вспомогательный термин – неопределенность (энтропия).

Энтропия – (H) есть информационная мера неорганизованности или разнообразия (сложности, неопределенности) ситуации или объекта материального мира.

Назовем исходную неопределенность, до получения информации, априорной Hapr, а неопределенность после получения информации – апостериорной Haps.

Тогда под количеством информации, содержащейся в сообщении понимают разность между априорной и апостериорной неопределенностями:

I = Hapr – Haps . (1.1)

Из выражения (1.1) следует, что

0 ≤ IHapr, (1.2.)

причем:

I = 0 если Hapr = Haps, т.е. после получения сообщения неопределенность не уменьшилась;

I = Hapr, если Haps = 0, т.е. после получения сообщения неопределенности не осталось.

1.2. Обоснование меры неопределенности.

Исходя из логики здравого смысла, мера неопределенности должна обладать следующими свойствами или, иначе, удовлетворять следующим требованиям:

1. Быть неотрицательной

H ≥ 0; (1.3)

2. Быть равной нулю, если об объекте известно все (неопределенность отсутствует), а остальных случаях должна быть больше нуля

, (1.4)

где K – количество возможных состояний объекта;

3. Быть монотонно возрастающей функцией количества K состояний объекта

K1 < K2 H(K1) < H(K2); (1.5)

4. Целесообразно, чтобы выполнялось свойство аддитивности, т.е. общая неопределенность нескольких стохастически независимых систем равнялась сумме неопределенностей этих систем).

Перечисленным выше требованиям могут удовлетворять различные меры энтропии.

Теперь для построения меры количества информации нам остается установить, какой именно функциональной зависимостью она связана с мощностью исходного множе­ства.

1.3. Информационная мера неопределённости р. Хартли (энтропия комбинаторная).

Всем перечисленным выше требованиям, в том числе и требованию аддитивности, удовлетворяет комбинаторная мера (мера неопределенности Р. Хартли).

Л. Бриллюэн:

О п р е д е л е н и е Комбинаторная мера неопределенности есть логарифм количества состояний объекта

H(К) = loga K, (1.6)

где K = card (A), и а – произвольное основание логарифма, выбираемое произвольно, с учетом особенностей задачи. В частности, если основание логарифма a равно 2, то единицей неопределенности H(А) является бит, если десять – дит, а если логарифм натуральный (a = e = 2,17…), то – нит:

H(А) = log2 K, [бит];

H(А) = lg K, [дит];

H(А) = ln K, [нит].

Пример:

а). Неопределенность H(А) двоичного N – разрядного слова равна N бит:

H(А) = log2 2N = N бит;

б). Неопределенность H(А) десятичного N – разрядного числа равна N дит:

H(А) = lg 10N = N дит.

Следует помнить, что мера Р. Хартли применима только для тех случаев, множество А состояний объекта конечно

K = card (A) < ∞.

1.4. Энтропия к. Шеннона.

Пусть в качестве сообщения ожидается текст на русском языке.

Принята первая буква текста. Учитывая, что буквы алфавита имеют различную частоту встречаемости в текстах (например буква «а» и буква «ъ») количество информации в принятой букве «ъ» должно быть больше, чем в принятой букве «а». Мера Хартли этого не учитывает.

Статистические свойства элементов сообщения учитываются селективной энтропией или статистической неопределенностью, неопределенностью К. Шеннона.

Пусть дано множество X = {x1, …, xi, …, xN }, состоящее из N элементов и вероятности P(X) ={P(x1 ), …, P(xi ), …, P(xN )} появления этих элементов (табл. 1.1).

Таблица 1.1.

Распределение вероятностей P(X) появления объектов множества X

X

x1

x2

xi

xN

P(X)

P( x1 )

P( x2 )

P( xi )

P(xN )

Поскольку все события появления элементов множества X составляют полную группу несовместных событий, справедливо равенство

(1.7)

О п р е д е л е н и е. Частная энтропия H(xi) появления события xi

H(xi ) = - logа P(xi ). (1.8)

Анализ выражения (1.8) показывает, что при P(xi) = 0 и при P(xi) =1 частная энтропия равна нулю H(xi) = 0, т.е. если появление события xi невозможно или достоверно, то никакой неопределенности нет, в остальных случаях она больше нуля. Причем, чем «дальше» P(xi) от нуля и единицы, тем по существу неясность (неопределенность) больше и численно значение H(xi ) также больше. Таким образом, частная энтропия удовлетворяет требованиям, предъявляемым к мерам неопределенности.

О п р е д е л е н и е. Статистическая энтропия Шеннона ( средняя энтропия) источника дискретных сообщений есть математическое ожидание частных энтропий появления всех событий

. (1.9)

Можно заметить, что энтропия Хартли есть частный случай энтропии Шеннона при i: P(xi)= 1/N, т.е. когда все события равновероятны, что соответствует наибольшей неопределенности

(1.10)

С введенным понятием тесно связан ряд других, производных мер.

Пусть имеются два множества X и Y и известны: вероятность P(xi ) появления элемента xi X, вероятность P(yj ) появления элемента yj Y и условная вероятность1 P(xi /yj ) появления xi при известном исходе yj.

О п р е д е л е н и е. Энтропия условнаяэнтропия, определяемая при известном исходе другой ситуации:

. (1.11)

Анализ выражения (1.11) показывает, что H(X/Y) ≤ H(X) и при статистической независимости X и Y в Y нет информации о X и H(X/Y) = H(X).

Если же X и Y взаимосвязаны функционально, т.е. по известному yj точно определяется xi, то H(X/Y) = 0.

О п р е д е л е н и е. Энтропия совместная двух случайных событий есть величина, определяемая выражением

H(X,Y) = H(Y) + H(X/Y) = H(X)+ H(Y/X). (1.12)

Анализ выражения (1.12) показывает, что H(X,Y) ≤ H(X)+H(Y) и при статистической независимости X и Y

H(X,Y) = H(X) + H(Y). (1.13)

О п р е д е л е н и е. Взаимная информацияинформация, содержащаяся в множестве Y относительно множества X

I(Y,X) = H(X) – H(X/Y), (1.14)

т.е. насколько уменьшится неопределенность множества X при снятии неопределенности с множества Y.

Из (1.12) и (1.14) следует равенство:

I(Y,X) = H(X) + H(Y) – H(X,Y) = I(X,Y) (1.15)

Из (1.13) и (1.15) следует, что если Y и X статистически независимы, то взаимная информация равна нулю I(Y,X)=0.

Приведенная мера неопределенности, также как и мера Р.Хартли применима для объектов с конечным количеством состояний. Однако, заменой вероятностей на плотности вероятностей мера неопределенности по К.Шеннону может быть распространена на объекты, состояния которых являются непрерывными случайными величинами. В этом случае используется дифференциальная энтропия.

Пусть события выбираются из бесконечного множества – множества действительных чисел.

Разобьем всю числовую ось на равные интервалы x. Тогда вероятность P(xi) принятия случайной величиной X значения из интервала xi равна площади прямоугольника

xi (1.16)

где p(x) – плотность вероятности СВ Х,

xi – середина интервала xi,

а все xi =∆x

Подставим (1.16) в (1.9):

(1.17)

Перейдем к пределу –> 0:

(1.18)

Разложим логарифм произведения в сумму логарифмов:

(1.19)

Второе слагаемое

Здесь важно не ошибиться и не воспользоваться формулой:

,

там сумма вероятностей и она конечно равна единице, а в нашем случае имеются плотности вероятностей и единице будет равна сумма плотностей, умноженных на интервал х

При переходе от суммы к интегралу первое слагаемое

Тогда средняя энтропия непрерывной случайной величины

. (1.20)

log a x не зависит от распределения p(x) и не характеризует его. Он является константой (при фиксированном интервале x), может служить константой интегрирования, или интерпретироваться как задание системы координат .

Таким образом, только первое слагаемое выражения (3.14) характеризует неопределенность источника и называется дифференциальная энтропия источника непрерывной случайной величины:

(1.21)

и H(X) = HД(X) – loga x.

Энтропия принадлежности случайной величины интервалу )

не зависит от x.

Мера неопределенности К. Шеннона лежит в основе множества математических выражений позволяющих рассчитывать многие прикладные характеристики (скорость передачи информации по каналу с помехами и т.д.).