Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Исследование систем управления организациями.doc
Скачиваний:
169
Добавлен:
28.06.2014
Размер:
1.01 Mб
Скачать

Статистические меры информации

В статистической теории информации (теории связи) энтропия H выражается следующей формулой

,

где р=(р1,…, pk) – вектор вероятности исходов,

и представляет среднюю информацию, доставляемую одним опытом.

Энтропия Н характеризуется следующими свойствами:

    1. энтропия всегда неотрицательна ;

    2. энтропия равна нулю, если

(а остальные ),

т.е. когда об исходе опыта заранее все известно и результат не приносит никакой новой информации;

    1. энтропия имеет наибольшее значение при условии, когда все вероятности равны между собой:

p1 = p2 = … = pi = pk = 1/k, при этом

H = -log21/k = log2k.

Логарифмическая статистическая мера информации связана с аддитивной логарифмической мерой Хартли:

I = log2 h.

Когда алфавит состоит из h-знаков, то вероятность появления каждого знака равна pi = 1/h.

Количество информации и избыточность

В общем случае можно считать, что количество информации есть уменьшение энтропии вследствие опыта:

I = H1H2,

где H1 – начальная энтропия (до опыта);

H2 – конечная энтропия (после опыта).

Наибольшее количество информации получается тогда, когда полностью снимается неопределенность (H2 = 0). Причем I = Imax, если H1= H1max (что достигается, когда вероятности всех событий одинаковы).

I= Нmax.

Абсолютная избыточность информации

Dабс = I – Н = НmaxН.

Относительная избыточность

D = (НmaxН)/ Нmax = 1 – H/ Нmax .

Семантические меры информации

Под семантикой понимается смысл, содержание информации. Под прагматикой – полезность информации.

Зачастую прагматические оценки сливаются с семантическими, поскольку не имеющие смысл сведения бесполезны, а бесполезные сведения бессмысленны.

Для целей измерения смысла информации Карнан и Бар-Хиллел предложили использовать функции истинности и ложности логических высказываний (предложений).

Полученная таким образом оценка получила название содержательности информации.

Содержательность информации

Содержательность события i (cont(i)) выражается через функцию меры m(i)

cont(i)=m(~i)=1–m(i),

~ – знак отрицания.

Содержательность изменяется в пределах

0 m(i) 1.

Логическая оценка количества информации, обозначается Inf

,

где m(i) – логическая функция истинности;

m(~i) – логическая функция ложности.

Целесообразность(полезность) информации

Если информация используется в системах управления, то ее полезность разумно оценивать по тому эффекту, который она оказывает на результат управления. Харкевичем А.А. была предложена мера целесообразности информации, которая определяется как изменение вероятности достижения цели при получении дополнительной информации:

Iцел=log2 p1 – log2 p0 = log2 p1/p0 ,

где p0 и p1 – начальная(до получения информации) и конечная (после получения информации) вероятности достижения цели.

Если вероятность достижения цели при получении информации не изменяется, то эта информация является пустой, ее полезность равна нулю. В некоторых случаях полученная информация, используемая для управления, может уменьшить вероятность достижения цели. В этом случае полезность информации является отрицательной величиной. В случае, когда полученная информация, используемая для управления, увеличивает вероятность достижения цели, то полезность информации является положительной величиной.