Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Конспект.doc
Скачиваний:
55
Добавлен:
15.06.2014
Размер:
474.11 Кб
Скачать

Cреднее количество взаимной информации. (дискретный случай)

Формальная постановка:

Пусть ансамбль X=x1…xi…xn описывает интересующее нас событие

p(x1)…p(xi)…p(xn)

Х – ненаблюдаемая случайная величина и пусть ансамбль Y=y1…yi…yn

p(y1)…p(yi)…p(yn)

характеризует опыты, по которым мы судим о том, какое событие Х имело место. Нас интересует, какое количество информации в среднем (математическое ожидание) содержится в Y относительно Х.

I(YX)=?

I(yj xi )= log2pc(xi)/ p(xi)

pc(xi)= p(xi /yj)

p('e')=0.1

p('e '/ 'e')=0.0001

I(yj xi )=M{ I(yj xi )}= p(xi ,yj)*log2 p(xi /yj)/ p(xi).

Лекция 9

Направления:Меры информации:

С

ИТ

интаксические - Хартли, Шеннона, Кульбаза

Семантические - Карнала, Бар-Хиллела, Кемени, Войшвилло, Шрейдера

Прагматические - Харкевича, Бонгарда, Стратоковича

На базе Шенноновской меры была разработаны классическая или статистическая (Шенноновская) теория информации. Попытки создать информационную теорию как некоторую мета–теорию успехом не увенчались. Огромную роль в развитии ряда прикладных и теоретических дисциплин оказала Шенноновская теория.

Основы (элементы) статистической теории информации. Количественная мера информации. Количество информации при конечном числе равновозможных исходов.

  1. Монета

  1. Игральная кость

  1. Имеется деталь l=12525 мм.n=51,p­

Выполнено измерение l=125±5 мм.n=11

Найти размер детали с точностью до 1мм.

Какое количество информации мы получили в результате опыта I-?

(бит)

k=1 (так полагают)

a=2 (двоичная система информации - бит)

a=e(натуральная единица)

  1. (бит)

Таким образом получение одной двоичной единицы информации соответствует тому, что мы узнаем какое из двух равновероятных событий имело место, или какаяиз двух равновероятных гипотез справедлива.

  1. (бит)

  2. (бит)

n

(бит) Формула Хартли (1928г.)

Количество информации как случайная величина. Энтропия.

Ряд распределения

- среднее математическое ожидание

- количество информации

Дискретную случайную величину называют ансамблем.

Энтропия в (бит/опыт)

Энтропия характеризует среднюю неопределенность случайной величины или среднее количество информации, получаемой в одном опыте.

Пример:

Определить энтропию следующего ансамбля:

Основные свойства энтропии

  1. Энтропия одномерной случайной величины (одномерного дискретного ансамбля) Х – величина неотрицательная.

, тогда и только тогда, если все вероятности ансамбля, за исключением одного равны нулю, а эта единственная равна единице.

В остальных случаях

  1. Энтропия ансамбля Х максимальная

, где

n– число событий данного ансамбля только в том случае, если

(т.е. если события равновесны)

  1. Двумерная случайная величина

Энтропия источника в установившемся состоянии определяется по следующей формуле:

Пример1.

Пример 2.

17.04.03

Вспомним:

Х1,……., Хn наблюдаемая

X= p(x1),…..., p(xn) случайная величина

(температура)

Y1,…….,Yn (показывает

Y= p(y1),…..., p(yn) градусник)

I Y X ?

Опыт Y перераспределяет (изменяет) α

I Yj Xi =log2 pci) ∕ p(αi)

Pc(α i) – апостериорная вероятность.

Теория вероятности имеет дело не со случайностями, а с закономерностями.

I Y X = ∑∑ p (αi ∕ yi) log2 [p(αi ∕ yi) ∕ p(αi)]

Если воспользоваться свойством log и провести ряд элементарных преобразований, то нетрудно получить, что

I Y X = H X - H X/Y (*)

(см. выкладку 4-ого свойства энтропии)

где H (α)=-∑p(αi) log2 p(αi)

(энтропия ансамбля α)

а H (α∕y)=-∑p(yj) ∑p(αi, yj) log2 p(αi ∕ yj)

(условная энтропия ансамбля α )

Если помех нет, то

I Y X = H (α)

при чем

H X/Y = 0

H X/Y характеризует остаточную неопределенность

Получим фундаментальное соотношение теории информации:

I Y X =

=∑∑ p(αi, yj)log2 [p(αi ∕ yj) ∕ p(αi) (p(yj)∕ p(yj))]=

= p(αi, yj) = ∑∑ p(αi, yj) log2 [p(αi, yj) ∕ p(αi) p(yj)]

I Y X = ∑∑ p(αi, yj) log2 [p(αi, yj) ∕ p(αi) p(yj)]

(фундаментальное соотношение теории информации)

Если преобразовать это выражение, то

I Y X = H X + H Y - H X,Y (**)

Получим еще одно соотношение:

p(α i, yj )= p(α i) p(yj ∕α i)

значит

I Y X = ∑∑ p(αi, yj) log2 [p(yj ∕ α i)∕ p(yj)]

Если выполнить преобразования, аналогичные формулам (*) и (**), то получим следующее:

I Y X = H Y - H Y/X

I Y X = I X Y

I Y X (***)

Наиболее удобна формула

I Y X = H X + H Y - H X,Y (**)