Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Пособие по теории информации.doc / Пособие по теории информации.doc
Скачиваний:
415
Добавлен:
30.03.2015
Размер:
4.68 Mб
Скачать

2.4. Условная собственная информация. Взаимная информация

Обозначим возможные различные символы на входе некоторого блока системы передачи информации через , i = 1,…, m, а выходные символы через yj, j = 1,…,n. Под символом можно подразумевать символы источника, информационные последовательности, сигналы на входе линии связи, а под символами yj - символы закодированных сообщений, кодовые последовательности, сигналы на выходе линии связи.

Рассмотрим простейший случай, когда , i = 1,…, m, взаимно независимые. При этом источник X полностью описывается априорными вероятностями ,i=1,…,m, которые и характеризуют первоначальное незнание (первоначальную неопределенность) о появлении конкретного символа на входе блока.

При наличии помех между символами и yj нет однозначного соответствия, т.е. символ может перейти в любой символ yj с некоторой условной вероятностью , которую можно вычислить, если известен механизм такого перехода. Зная вероятности и,i=1,…,m, j=1,…,n, нетрудно найти вероятности появления на входе блока символов , i = 1,…, m, при условии, что на выходе блока наблюдался символ yj. Эти вероятности, называемые апостериорными, характеризуют оставшееся незнание (оставшуюся неопределенность) о появлении на входе символов , i = 1,…, m, при наблюдении символа yj на выходе блока.

Таким образом, полученная информация о символе при наблюдении символа yj приводит к изменению вероятности появления символа от ее априорного значения к ее апостериорному значению.

Тогда, по аналогии с собственной, информация, содержащаяся в символе xi при условии, что сигнал принял значение yj, определяется как

I(xi / yj) = - log p(xi / yj),

(2.6.)

и называется условной собственной информацией.

Ее можно интерпретировать как количество информации, доставляемое событием xi при известном событии yj, или как количество информации, которое должно доставляться некоторым другим событием для однозначного определения события при известном yj.

В изучении проблем передачи – приема информации, кроме рассмотренных выше величин, важную роль играет среднее значение взаимной информации между элементами различных ансамблей.

Рассмотрим снова ансамбли X и Y. Пусть ансамбли зависимы. В результате опыта (приема символа yj) апостериорная вероятность появления символа xi изменяется по сравнению с априорной.

Тогда количество информации относительно символа сообщения xj, доставляемое символом yk, определяется как логарифм отношения апостериорной вероятности к априорной

I(xi; yj) = log (p(xi / yj))/ p(xi),

(2.7.)

и называется взаимной информацией.

Поскольку , то

.

Последнее выражение указывает на симметрию выражения для количества информации относительно сигналов и.

Выражение (2.7.) может быть представлено в виде

.

(2.8.)

Первый член этого выражения может рассматриваться как количество информации в сигнале , а второй – как потери информации, связанные с искажением сигналапри преобразованиив. Если преобразование однозначно, то р(/)=1 приi=j, то

.

При отсутствии каких – либо статистических связей между ир (/)=р(), и тогда.

Ниже приведены основные свойства взаимной информации.

1. Взаимная информация может быть отрицательной, положительной или равной нулю, в зависимости от соотношения между априорной и апостериорной вероятностями

- < I(xi; yj) <

2. Взаимная информация не превышает собственную

I(xi ; yj) I(xi)

I(xi ; yj) I(yj).

При данной вероятности p(xi) взаимная информация I(xi; yj) достигает максимума, когда принятый символ yj однозначно определяет переданный символ xj и это максимальное значение взаимной информации I(xi; yj) = - log p(xj), равно собственной информации, определяемой только априорной вероятностью символа xi .

3. Свойство симметрии

I (xi; yj) = I (yj; xi),

т.е. информация, содержащаяся в yak относительно ax , равна информации, содержащаяся в xj относительно yak . В силу этого свойства информацию I(xj; yak) называют взаимной информацией между xj и yak .

4.Свойство аддидивности количества информации

I(xi , zk; yj, ql) = I(xi ; yj) + I( zk ; ql) .

Если пара X,Y независима от пары Z,Q , то информация, содержащаяся в паре yj, ql относительно пары xi , zk, равна сумме информации, содержащейся в yj относительно xi , и информации, содержащейся в ql относительно zk .

Рассмотрим условное среднее значение взаимной информации для объединенного ансамбля XY. Пусть сигнал принял значение yk. Тогда информация, содержащаяся в реализации yk принятого сигнала относительно ансамбля передаваемых сообщений X, есть

средняя взаимная информация между ансамблем X и реализацией yj:

(2.9.)

Аналогично информация, содержащаяся в ансамбле принятых сигналов Y относительно реализации переданного сообщения xj, определяется как средняя взаимная информация между ансамблем Y и реализацией xj:

(2.10.)

Наконец, средняя взаимная информация между ансамблем принимаемых сигналов Y и ансамблем передаваемых сообщением X есть то количество информации, которое содержится в среднем в ансамбле принимаемых символов Y относительно ансамбля передаваемых символов X.

(2.11.)

Взаимную информацию записать в одной из следующих форм:

.

Пример 2.56. По дискретному каналу передаются сообщения x1 и x2. Вследствие действия шумов на выходе канала появляются сигналы y1, y2 и y3. Вероятности совместного появления заданы в таблице

xj

yk

y1

y2

y3

x1

1/4

1/16

1/8

x2

1/8

3/16

1/4

Вычислить среднее количество информации

I(X;y1), I(x1;Y), I(X;Y).

Решение. а) Средняя взаимная информация в реализации сигнала на выходе y1 относительно случайной величины X на входе канала:

Известны вероятности:

p(x1)=7/16, p(x2)=9/16, p(y1)=3/8, p(y2)=1/4, p(y3)=3/8.

Определим условные вероятности:

Средняя информация

б) Средняя взаимная информация в выходной величине Y относительно реализации случайной величины на входе x1:

Условные вероятности:

Средняя информация

в) Средняя взаимная информация в случайной величине Y на выходе канала относительно случайной величины X на входе:

Воспользовавшись результатами вычислений I(x1;Y), получим для средней взаимной информации

Пример 2.57. Рассматривается ансамбль сообщений, приведенный в таблице

xi

x0

x1

x2

x3

x4

x5

x6

p(xj)

1/2

1/4

1/8

1/32

1/32

1/32

1/32

Код

001

010

100

011

101

110

111

Сообщение x4 поступает в кодер. Вычислить дополнительную информацию об этом сообщении, доставляемую каждым последующим символом на выходе кодера.

Решение. На вход кодера поступают сообщения x0,x1,…, x6 и кодер порождает соответствующие таблице двоичные символы. Так, сообщению x4 . соответствует кодовое слово 101. Символы на выходе кодера появляются последовательно, т.е. первый символ 1, второй 0 и третий 1. Первый символ кодового слова содержит некоторую информацию относительно того, какое сообщение поступает на вход кодера. Так, первый символ 1 показывает, что на выходе могут быть сообщения x2, x4, x5 или x6 . Второй символ 0 сужает выбор – теперь на входе возможно одно из двух сообщений: x2 или x4 . И, наконец, последний, третий символ 1 однозначно определяет переданное сообщение.

Как известно, взаимная информация есть некоторая (логарифмическая) функция изменения вероятностей. Тогда взаимная информация, содержащаяся в первом кодовом символе 1 относительно сообщения x4 ,

I(x4 ; 1) = log (p(x4 / 1))/ p(x4).

Вероятность p(x4 / 1) может быть найдена по формуле Байеса. Условная вероятность гипотезы

В нашем случае гипотезы x0,x1,…, x6 (Hi) , а случайное событие А, имеющее место при некоторой гипотезе, есть появление кодового символа 1 на выходе кодера. Тогда формула Байеса примет такой вид:

где

т.е. условная вероятность p(1/ x4)=0 для гипотез, у которых первый кодовый символ 0, и p(1/ x4)=1 для гипотез, у которых первый кодовый символ 1. В формуле Байеса учитываются, таким образом, те гипотезы, при которых возможно появление 1 на первом месте.

Итак

и взаимная информация, содержащаяся в первом кодовом символе относительно сообщения x4,

Информация, содержащаяся во втором кодовом символе 0 при условии, что первый кодовый символ был 1, есть

Информация, содержащаяся в третьем кодовом символе 1 при условии, что ему предшествовали 10, есть

Так как сообщения xj и кодовые слова однозначно связаны, то

I(x4) = I(x4;1) + I(x4;0/1) + I(x4;1/10).

Действительно, I(x4) = - log2 p(x4) = - log2 32 =5 бит и это равно

I(x4) = I(x4;1) + I(x4;0/1) + I(x4;1/10=2.2 + 0.48 + 2.32 =5 бит.

Пример 2.58. Алфавит источника сообщений состоит из двух элементов: a и b. Рассмотрим случаи передачи информации с помощью этих элементов:

1) Элементы независимы и равновероятны. Количество информации, которое несет каждый символ сообщения: