Скачиваний:
31
Добавлен:
16.12.2013
Размер:
15.36 Кб
Скачать

126. Измерение информации. Различные подходы к измерению информации. Синтаксическая мера к измерению информативности(нэгэнтропия).

Измерение информации осуществляется соответственно также в трех аспектах : синтактическом , семантическом и прагматическом. Потребность в таком различном измерении информации , как будет показано ниже, диктуется

практикой проектирования и организационной работы информационных систем . Три различных подхода к измерению информации не противоречат и не исключают друг друга. (количество, новизна и полезность информации). Синтактическая мера информации - мера Шеннона-Виннера. В теории Ш-В исследуется неопределенность, связанная с неполнотой сведений , относительно систем, поддающихся описанию вероятностными законами. Неопределенность- отсутствие однозначного знания о состоянии объекта у получателя информации. Степень неопределенности зависит не только от числа возможных состояний , но и от вероятностей их наступления. Неопределенность системы , состоящей из двух независимых подсистем, равнв сумме неопределенностей этих подсистем , взятых в отдельности.

Матеметическое описание свойств неопределенности

Пусть система Х имеет n возможных состояний х1, х2,...,хn , которые она принимает с вероятностями р(х1),р(х2),...

р(хn).Поскольку система Х обязательно находится в одном из состояний хi ( i=от 1 до n) , то сумма вероятностей х I=

=1.

Н(х) - это численная характеристика неопределенности системы Х . Т.о. Н(х) является функцией от n и вероятностей

р(х1),р(х2),...,р(х). Т.о. :

Н(х)=f(n,р(х1),р(х2),...,р(хn))

Для двух независимых систем Х и У:

Н(ХUУ)= Н(Х) + Н(У) .

В теории информации доказано , существует лишь единственная функция , удовлетворяющая указанным свойствам,

Эта функция называется энтропией системы Х , и она имеет следующий вид:

Н(Х)= - сумма от 1 до n р(хi)*log р(хi)

Другими словами количество неопределенности наших знаний о чем-либо.

при этом максимальная энтропия выглядит так : max Н(Х)=log n .

Под содержательностью или семантикой сообщений понимается наличие понятий и суждений , характеризующих действительное и возможное состояние объектов.Теория Бар-Хиллела и Карнапа: не рассматривает потребительской ценности сообщений и строится для простого языка, который содержит только повествовательные предложения ( высказывания ), выражающие отношения между конечным числом объектов и свойств с помощью логических связок : не , и , если , то , если и только если. Основой теории является предположение ,что данное высказывание тем более содержательно , чем меньшей определенностью оно обладает , т.е. чем большее количество описаний состояния объекта оно исключает из числа возможных , и чем больше число элементов содержания, котогые логически из него следуют. Таким образом , содержание высказывания определяется не тем , что оно содержит , а тем , что исключает.

В теории вводятся две связянные между собой меры содержания высказывания : вероятностная мера cont (Si) и информационная мера inf (Si) . Мера cont(Si) принимает значения от 0 до 1 , причем cont(Si)=0 , если высказывание Si является тавтологией, а cont(Si)= 1 , когда Si - логически ложное . В остальных случаях cont(Si)= 1- p(Si) , где p(Si)-

-логическая вероятность высказывания Si.

inf(Si) = log 1/(1 - cont (Si))= - log p(Si) и является мерой величины неожиданности высказывания Si . Мера inf(Si) учитывает , что нового несет получателю сообщение по сравнению с тем , что он знал или предполагал.

Единой концкпции прагматической информации не сущестует. Исследование и измерение прагматического качества информации невозможно без категории цели или критерия принятия решения. Исходя из этого Харкевич предложил определять меру ценности информации I как измерение логарифма вероятности достижения цели в результате получения сообщения:

I=log p1 - logp0 = logp1/p0 , где р0 - априорная субъективная вероятность достижения цели;

р1 - субъективная вероятность достижения цели после получения сообщения.

Соседние файлы в папке Ответы к ГАКу на степень бакалавра