2.Дискретные каналы

2.1. Собственная информация. Взаимная Информация

Описание дискретного канала

Дискретным называется канал, сигналы на входе и выходе которого являются последовательностями случайных дискретных величин (символов).

Для полного описания канала на интервале времени, соответствующем передаче одного символа, необходимо задать ансамбли символов на входе X и выходе Y и условные вероятности переходов p(yk/xj).

Будем обозначать

X={x1,x2,…,xj,…,xn; p(x1),p(x2),…,p(xj),…,p(xn)} - ансамбль сообщений на входе,

Y={y1,y2,…,yk,…,yn; p(y1),p(y2),…,p(yk),…,p(yn)} - ансамбль сообщений на выходе.

Собственная информация

Поскольку появление символа сообщения xj на входе дискретного канала есть событие случайное, то говорят, что имеет место неопределенность исхода. В результате опыта неопределенность уменьшается, и при этом получается некоторое количество информации.

Тогда собственная информация символа xj (количество информации, доставляемое самим символом xj или любым другим, однозначно с ним связанным) определяется как

I(xj) = log 1/p(xj) = - log p(xj), (2.1.1)

т.е. информация в каком-либо событии измеряется логарифмом величины, обратной вероятности его появления.

Выбор основания логарифма loga p(xj) определяет единицу количества информации. Если а = 2, то единица информации называется двоичной (бит), при а = е - натуральной (нат), а при а = 10 - десятичной (дит, хартли). Двоичная единица количества информации, например, есть собственная информация символа, обладающего двумя равновозможными состояниями. Переход от одной системы логарифмов к другой равносилен простому изменению единицы измерения информации. Этот переход осуществляется по формуле

logb k = logb a loga k .

Отсюда 1 нат = log2 e бит= 1,443 бит,

1 дит = log2 10 бит = 3,32 бит.

Условная собственная информация

В общем случае символы X и Y на входе и выходе дискретного канала зависимы. Пусть p(xj / yk) - условная вероятность того, что реализовалось состояние xj ансамбля X при условии, что ансамбль Y принял состояние yk. Тогда, по аналогии с собственной, информация, содержащаяся в символе xj при условии, что сигнал принял значение yk, определяется как

I(xj / yk) = - log p(xj / yk), (2.1.2)

и называется условной собственной информацией.

Взаимная информация

Рассмотрим снова ансамбли X и Y. Пусть ансамбли зависимы. В результате опыта (приема символа yk) апостериорная вероятность появления символа xj изменяется по сравнению с априорной. Тогда количество информации относительно символа сообщения xj, доставляемое символом yk, можно определить как логарифм отношения апостериорной вероятности к априорной

I(xj ; yk) = log (p(xj / yk))/ p(xj). (2.1.3)

Таким образом и определяется взаимная информация.

Основные свойства взаимной информации

1.Взаимная информация может быть отрицательной, положительной или равной нулю, в зависимости от соотношения между априорной и апостериорной вероятностями

- < I(xj ; yk) < (2.1.4)

2.Взаимная информация не превышает собственную

I(xj ; yk) I(xj)

I(xj ; yk) I(yk). (2.1.5)

При данной вероятности p(xj) взаимная информация I(xj ; yk) достигает максимума, когда принятый символ yk однозначно определяет переданный символ xj , при этом

и это максимальное значение взаимной информации

I(xj ; yk) = - log p(xj) ,

равно собственной информации, определяемой только априорной вероятностью символа xj .

3.Свойство симметрии

I(xj ; yk) = I( yk ; xj) , (2.1.6)

т.е. информация, содержащаяся в yk относительно xj , равна информации, содержащаяся в xj относительно yk . В силу этого свойства информацию I(xj ; yk) называют взаимной информацией между xj и yk .

4.Свойство аддидивности количества информации

I(xj , zi; yk, ql) = I(xj ; yk) + I( zi ; ql) . (2.1.7)

Если пара X,Y независима от пары Z,Q , то информация, содержащаяся в паре yk, ql относительно пары xj , zi, равна сумме информации, содержащейся в yk относительно xj , и информации, содержащейся в ql относительно zi .

Решение типовых примеров

Пример 2.1.1. Определить собственную информацию, содержащуюся в изображении, при условии, что оно разлагается на 500 строк по 500 элементов в каждой строке. Яркость каждого элемента передается 8 квантованными уровнями. Различия градации яркости равновероятны, а яркости разных элементов статистически независимы.

Решение. Обозначим случайной величиной Х яркость одного элемента изображения. По условию задачи все градации яркости одинаково вероятны, т.е. p(xj) = 1/n, где n = 8 и, следовательно, собственная информация одного элемента по формуле (2.1.2)

I(xj) = log2 n .

Изображение содержит

N = 500500 = 2.5105 элементов.

Так как яркости элементов независимы, то по свойству аддитивности информации

I(изображения) = N I(xj) = N log2 n = 2.51053 = 7.5105 бит.

Пример 2.1.2. На экране индикатора РЛС, представляющего поле с 10 вертикальными и 10 горизонтальными полосами, появляется изображение объекта в виде яркостной отметки. Все положения объекта равновероятны.

Определить количество информации, содержащееся в сообщениях:

а)объект находится в 46-м квадрате экрана;

б)объект находится в 5-й горизонтальной строке экрана.

Решение. а) Пусть х46 – сообщение о том, что объект находится в 46-м квадрате экрана.

Собственная информация в этом сообщении по формуле (2.1.1) I(x46)=-log2 x46. Безусловная вероятность сообщения - объект находится в 46-м квадрате экрана – равна

p(x46) = m / n,

где n – общее число возможных исходов (квадратов поля),

m – число исходов, благоприятствующих событию x46 .

По условию задачи n=100 (квадратов), а m =1. Тогда

p(x46) = 1 / 100 и I(x46)=-log2 1/100= log2 100=6.64 бит.

б) Вероятность события y5 - объект находится в 5-й горизонтальной строке экрана, по аналогии с рассмотренным случаем а), определяется так:

p(y5) = m / n где n=100, m =10 и p(y5) = 10 / 100 =1/10.

Собственная информация

I(y5) =)= -log2 1 / 10 = log2 10 = 3.32 бит.

Пример 2.1.3..Рассматривается ансамбль сообщений, приведенный в таблице

xi

x0

x1

x2

x3

x4

x5

x6

p(xj)

1/2

1/4

1/8

1/32

1/32

1/32

1/32

Код

001

010

100

011

101

110

111

Сообщение x4 поступает в кодер. Вычислить дополнительную информацию об этом сообщении, доставляемую каждым последующим символом на выходе кодера.

Решение. На вход кодера поступают сообщения x0,x1,…, x6 и кодер порождает соответствующие таблице двоичные символы. Так, сообщению x4 . соответствует кодовое слово 101. Символы на выходе кодера появляются последовательно, т.е. первый символ 1, второй 0 и третий 1. Первый символ кодового слова содержит некоторую информацию относительно того, какое сообщение поступает на вход кодера. Так, первый символ 1 показывает, что на выходе могут быть сообщения x2, x4, x5 или x6 . Второй символ 0 сужает выбор – теперь на входе возможно обно из двух сообщений: x2 или x4 . И, наконец, последний, третий символ 1 однозначно определяет переданное сообщение.

Как известно, взаимная информация есть некоторая (логарифмическая) функция изменения вероятностей. Тогда по формуле (2.1.3) взаимная информация, содержащаяся в первом кодовом символе 1 относительно сообщения x4 ,

I(x4 ; 1) = log (p(x4 / 1))/ p(x4).

Вероятность p(x4 / 1) может быть найдена по формуле Байеса. Условная вероятность гипотезы

В нашем случае гипотезы x0,x1,…, x6 (Hi) , а случайное событие А, имеющее место при некоторой гипотезе, есть появление кодового символа 1 на выходе кодера. Тогда формула Байеса примет такой вид:

где

т.е. условная вероятность p(1/ x4)=0 для гипотез, у которых первый кодовый символ 0, и p(1/ x4)=1 для гипотез, у которых первый кодовый символ 1. В формуле Байеса учитываются, таким образом, те гипотезы, при которых возможно появление 1 на первом месте.

Итак

и взаимная информация, содержащаяся в первом кодовом символе относительно сообщения x4,

Информация, содержащаяся во втором кодовом символе 0 при условии, что первый кодовый символ был 1, есть

Информация, содержащаяся в третьем кодовом символе 1 при условии, что ему предшествовали 10, есть

Так как сообщения xj и кодовые слова однозначно связаны, то

I(x4) = I(x4;1) + I(x4;0/1) + I(x4;1/10).

Действительно, I(x4) = - log2 p(x4) = - log2 32 =5 бит и это равно

I(x4) = I(x4;1) + I(x4;0/1) + I(x4;1/10=

=2.2 + 0.48 + 2.32 =5 бит.

Пример 2.1.4.По дискретному каналу передаются сообщения x1 и x2. Вследствие действия шумов на выходе канала появляются сигналы y1, y2 и y3. Вероятности совместного появления заданы в таблице

xj

yk

y1

y2

y3

x1

1/4

1/16

1/8

x2

1/8

3/16

1/4

Вычислить взаимные информации I(x2 ; y2), I(x1 ; y3).

Решение. Дискретный канал с шумом удобно изображать в виде графа

Определим взаимную информацию по формуле (2.1.3)

I(x1 ; y3) = log (p(x1 / y3))/ p(x1)

или в силу свойства симметрии

I(x1 ; y3) = I(y3 ; x1 ) = log (p( y3 / x1))/ p(y3).

Условные и безусловные вероятности найдем, воспользовавшись таблицей. По формуле (1.3)

p(x1)= p(x1, y1)+ p(x1, y2)+ p(x1, y3)=

=1/4+1/16+1/8=7/16;

p(x2)= 1/8+3/16+1/4=9/16; p(y1)=1/4+1/8=3/8;

p(y2)=1/16+3/16=1/4; p(y3)=1/8+1/4=3/8.

Найдем условные вероятности

p( y2 / x2) = p(x2 , y2))/ p(x2)=(3/16)/(9/16)=1/3;

p(x1 / y3) = p(x1 ; y3))/ p(y3)=(1/8)/(3/8)=1/3.

Тогда количество взаимной информации по формуле (2.3.1)

I(x2 ; y2) = log2 p( y2 / x2 ))/ p(y2)= log2 (1/3)/(1/4)=

=2 – 1.585 =0.415 бит .

I(x1 ; y3) = log2 p( x1 / y3 ))/ p(x1)= log2 (1/3)/(7/16)=

= log2 16/21= 4 – 4.39 = -0.39 бит .

Мы получили I(x1 ; y3) < 0 , так как p(x1 / y3)< p(x1).

Задачи

2.1.1.На шахматной доске произвольным образом расставлены фигуры. Априори все положения фигур на доске одинаково вероятны. Определить собственную информацию, получаемую от сообщения, что фигура находится в одной из угловых клеток доски.

2.1.2.Сколько информации содержится в сообщении о том, что сумма очков на двух подброшенных игральных костях есть четное число ?

2.1.3.Сколько информации содержится в сообщении о том, что сумма очков на двух подброшенных игральных костях равна 7 ?

2.1.4.Бросаются одновременно две игральные кости. Определить количество информации, содержащееся в сообщении о том, что произведение чисел выпавших очков четно.

2.1.5.В цехе работают 7 мужчин и три женщины. По табельным номерам наудачу отобраны 3 человека. Найти количество информации, содержащееся в сообщении "все отобранные люди - мужчины".

2.1.6.Из шести букв разрезной азбуки составлено слово "машина". Ребенок, не умеющий читать, рассыпал эти буквы и затем собрал в произвольном порядке. Какое количество информации будет содержаться в утверждении, что у него снова получилось слово "машина" ?

2.1.7.Два стрелка, для которых вероятности попадания в мишень равны соответственно 0.6 и 0.7, производят по одному выстрелу. В результате оказалось, что мишень поражена. Какое количество информации содержится в сообщении ?

2.1.8.Урна содержит 5 черных и 10 белых шаров. Случайно, без возвращения, из урны вынимают 3 шара и результат опыта передается по системе связи. Пусть шары выбраны в следующей последовательности: черный, черный, белый.

Какое количество информации надо передать, если:

а) интересоваться только числом шаров ?

б) представляет интерес также и порядок, в котором выбраны шары ?

2.1.9.В некотором городе четверть женщин - блондинки, половина - брюнетки и четверть шатенки. Блондинки всегда приходят на свидание вовремя, брюнетки - кидают монету и в зависимости от результата приходят вовремя или опаздывают, а шатенки всегда опаздывают.

1.Определить взаимную информацию между высказыванием "женщина пришла на свидание вовремя" относительно каждого из следующих предложений:

а) она блондинка;

б) она брюнетка;

в) она шатенка.

2.Сколько информации содержится в высказывании "женщина пришла вовремя на 3 свидание подряд" относительно предложения, что она брюнетка ?

2.1.10.При фототелеграфной передаче изображения кадр состоит из 2,5106 элементов. Для хорошего воспроизведения необходимы 12 градаций (уровней) яркости. Предполагается, что все уровни яркости встречаются с одинаковой вероятностью. Элементы изображения независимы. Какое количество информации надо передать по каналу связи, если передача продолжается 5 минут ?

2.1.11.По дискретному каналу передаются сообщения x1,x2,,x3. Вследствие действия шумов на выходе канала появляются сигналы y1 и y2. Вероятности совместного появления заданы в таблице

xj

yk

y1

y2

x1

0,4

0,1

x2

0,2

0,15

x2

0,1

0,05

Вычислить взаимные информации I(x1 ; y2), I(x3 ; y1), I(x2 ; y2).

2.1.12.По двоичному каналу с шумом передается сообщения x1,x2,,x3 с вероятностями 0.2, 0.3 и 0.5. На выходе канала появляются сигналы y1, y2,y3. Вероятности искажения в канале (условные вероятности переходов):

p(y1 / x1) = 3/4 ; p(y1 / x2) = 1/8 ; p(y1 / x3) = 1/8 ,

p(y2 / x1) = 1/8 ; p(y2 / x2) = 3/4 ; p(y2 / x3) = 1/8 ,

p(y3 / x1) = 1/8 ; p(y3 / x2) = 1/8 ; p(y3 / x3) = 3/4 .

Вычислить взаимные информации I(x1 ; y3) и I(x3 ; y1).

2.1.13.По двоичному каналу с помехами передаются равновероятные и статистически независимые сообщения x1 и x2. В результате действия помех они преобразуются в сигналы y1, y2, y3 . Условные вероятности переходов p(yk / xj) заданы в таблице:

xj

yk

y1

y2

y3

x1

5/8

2/8

1/8

x2

1/8

5/8

2/8

Вычислить взаимные информации I(x1 ; y3) и I(x2 ; y2).

2.1.14.Рассматривается ансамбль сообщений, приведенный в таблице

xi

x0

x1

x2

x3

x4

x5

x6

x7

p(xj)

1/4

1/4

1/8

1/8

1/16

1/16

1/16

1/16

Код

000

001

010

011

100

101

110

111

Сообщение x2 поступает в кодер. Вычислить дополнительную информацию об этом сообщении, доставляемую каждым последующим символом на выходе кодера.

2.1.15.Сообщения источника x1, x2, x3, x4 для согласования с каналом кодируются в соответствии с таблицей

Сообщения xi

x1

x2

x3

x4

p(xj)

1/2

1/4

1/8

1/8

Код

000

011

101

100

Пусть на вход кодера поступает сообщение x3. Вычислить дополнительную информацию об этом сообщении, которую содержит каждый последующий символ на выходе кодера.

2.1.16.Среди студенток некоторого института 25 % всех девушек - блондинки, а 75 % всех блондинок имеют голубые глаза; всего же голубые глаза имееют половина всех девушек. Пусть мы знаем, что некоторая студентка имеет голубые глаза. Сколько дополнительной информации будет содержаться в сообщении о том, что эта девушка – блондинка ?