Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Гойхман Э.Ш. Основы теории передачи информации в автоматизированных системах управления

.pdf
Скачиваний:
8
Добавлен:
30.10.2023
Размер:
12.91 Mб
Скачать

например р и которая (поскольку

Vp,-

1) равна единице. При

 

i

записать в виде

этом пыражение для энтропии удобно

 

N

 

/ / = - [ p Il0g/71+

£ p/l0gp;].

 

1 - 2

 

Первый член равен нулю, так как logl=0.

Остальные члены также обращаются в нуль, поскольку

limplogp—0. /7-*0

4.Энтропия системы максимальна в случае равновероятност

событий, т. е. в случае, когда Pi=p? = ••■=PN— (приводится

без доказательства).

Рассмотрим, как меняется энтропия конечной системы из двух событий при распределении их вероятностен (Р и Q).

Учитывая, что P + Q = l, получим

H = — [P\ogP+(\ —Р) log(l Р)}.

Исследуя

Н на экстремум, положив

0, получим Нызкс— 1

при Р=0,5,

т. е. в случае равновероятное in.

График зависимо­

сти Н от Р

приведен на рис. 3.2.

 

Как видно из графика, энтропия максимальна в случае рав­ ных вероятностей и равна нулю, когда одна из вероятностей равна единице.

П р и м е р 3.4. Рассчитать в рассмотренном ранее примере (3.3) значения энтропии для двух случаев: неравновероятпого и равно­ вероятного появления цели в различных секторах.

50

 

 

 

Р е ш е н и е

 

 

В первом случае (см. таблицу

на стр. 47)

 

 

2

*0 ^2 ~2

8“

~8

16" *0^2 "16 —

 

1 ,

1

1 .

 

1

1 .

1

 

Ж

0g232

8

0g2 8

Ь4 0g2 64

 

1 .

1

1

 

1 __ о о дв-ед.

 

“ 64 l0g2 64

8

° ga 8

2,3 исход

Во втором случае

 

2 дв.ед.

 

 

 

 

H 2-=log2N-.

 

 

 

 

 

исход

 

 

 

 

 

 

 

 

 

Как и следовало ожидать, Н{у>Нj.

событий энтропия возрастает при

5.

В случае равновероятных

увеличении числа возможных исходов. Эго непосредственно сле­

дует из

(3.5).

 

 

 

 

 

 

3.3.2.Энтропия объединенных систем

а) Объединение независимых систем

Пусть имеютея две независимые конечные системы событий

х —

Л1 »

аг2;...

хт

р(*i);

Р(хд]-Р(хп1)

 

г<= УК

у2;---

У„

 

Р[У\)>

Р(.Уз):-Р(У„)

Zi,■— сложное событие новой объединенной системы Z—ХУ, которое заключается в том, что одновременно в системе X на­ ступает i-тое событие, а в системе К—/-тое событие. Здесь

1 =S i =S т; 1 =<; /

п:

Вероятность события Zy обозначим через p(xiyj). Тогда эн­ тропия совместной системы событий Z — X Y равна

H{XY) = - ' £ i P{xiyJ)\ogp(xi yj).

(3.7)

ч

 

Здесь каждое г-тое событие системы X комбинируется со всеми событиями системы К. Поскольку события систем X и У неза­ висимы, то

P^iyj)=p{xi)p{yj).

51

I огл,a

//(A'KJ= - ^ p ( X i ) p ( y j ) \ \ o g p ( X i ) + log/4y;.)| = u

= -

У > , и ‘ >/,( y ^ luSP(^i) — V p U i j p i y ^ g p i y j ) =

 

■*77

%

ij

 

= -

Л(•>'/)105-Т(л‘/ ) -

У /^(*; ) У P(\’,)log/;(y,-).

j

t

 

“Г

T

Отсюда, учитывая,

что

 

 

 

V p ( y j ) = V p { x i ) -1-

 

получим

J

i

 

 

//{XY)=H(X)-\

//(У).

(3.7,a)

 

Это выражение может быть обобщено па любое число незави­ симых систем.

Таким образом, при объединении независимых систем энтропия объединенной системы равна сумме энтропии каждой из входящих в нее систем.

Для определения энтропии объединенной системы, состоящей из зависимых систем, приходится вводить понятие условной эн­ тропии.

б) Условная энтропия

Рассмотрим объединенную систему, состоящую из двух в об­ щем случае зависимых систем X и Y. Пусть система X может при­ нимать m дискретных состояний, а система Y п таких состояний Из-за наличия зависимости между системами при расчете средней неопределенности состояний одной системы следует при­ нимать во внимание состояние другой. Вначале определим энтро­

пию системы X при условии,

что система Y находится в состоянии

у |. Очевидно, что теперь

вместо безусловных вероятностей

p(Xi),

где 0К г п , необходимо

брать соответствующие условные

вероят­

ности p{xijy\),

характеризующие вероятности появления

различ­

ных состояний

системы

А' при условии, что система Y находится

в состоянии у \.

 

при таком

условии энтропию системы назовем

Вычисленную

частной

условной

энтропией

и обозначим через 7/(х/у,):

 

 

 

 

 

 

пг

 

 

 

 

Н Щ

у 1)■= ■— У) Р (X i ! y !)1Ogp { x i I у } ) .

 

Для

упрощения

записи обозначим ее через /Уг1.

 

52

Каждому из У возможных состояний системы у

соответствует

определенное значение частной условной энтропии Hxj\

т

 

H (x/yj)= -p(xi!yj)\Q gp(xi !yj)=Hxj .

(3.8)

1 I

 

Для того, чтобы определить полную (обычно слово „полная" для сокращения опускают) условную энтропию системы Л' отно­ сительно системы Y, обозначаемую через H(XjY), необходимо величину H(xiyj) усреднить по всем возможным состояниям си­ стемы 'Y. Для этого каждое значение частной условной энтро­ пии нужно умножить на безусловную вероятность соответствую­ щего состояния системы Y и все полученные произведения сло­ жить:

/ f(X IY )= p (yl)H(x/y1)+p(y2)H(x:y2)-\ ... \-p(ym)/f{xlym) ^

= )i}iP(yj)H(xiyj).

(3.8,a)

Подставив в (3.8,а) значения /У(х'уД, получим

т

п

 

//(X T ) = - £

VV( V>(*/ /Уу)logy (.С; jyj).

(3.9)

Учитывая, что по теореме умножения вероятно ей

у(уу)у(х/Ду)=у(х,,_уу),

выражение (3.9) можно также записать в виде

тп

Н(Х K)= - V Vy(x,-,yj)log/?(x, /y )=

- j —j <=■Ю' 1

= - ^ Р ( х 1 , у ;)\о%р(х,, у,),

(3.10)

причем

£/?(*/, yj)= 1-

Энтропия H\XjY) называется условной энтропией системы X относительно Y и характеризует степень неопределенности си­ стемы X после того, как состояние системы Y полностью опре­

делилось.

Пели системiii А'и Y независимы, то положив в (3.9) p(xi ;yJ}^= ~p(Xi) и учитывая, что У p(\'j) —Y получим

//(A' Y)—H(X).

(3.1 uia)

53

Чем больше зависимость между системами X ц Y, тем мень­ ше Н(Х Y). Наконец, если состояние одной из них (например Г) полностью определяет состояние другой (А''), то fi(XjY) = 0.

Это можно получить из (3.9), учитывая, что в данном случае

0 при i Ф j,

p(xi iyj)

1 при i—j.

При этом все входящие в выражение (3.9) для H(XjY) част­ ные условные энтропии обращаются в нуль и, следовательно,

H(X!Y)= 0.

Рассмотренные предельные случаи зависимости систем иллю­ стрируют следующее приводимое нами без доказательства поло­ жение: условная энтропия не может превосходить безусловную, т. е.

H{XiY)-"Ji{.X).

Смысл этого положения очевиден: от того, что становится из­ вестным состояние системы Y, степень неопределенности завися­ щей от нее системы X может только уменьшаться.

Следует, однако, указать, что частные условные энтропии мо­ гут быть как меньше, так и больше безусловной.

Г1 р и м е р 3.5. По каналу связи передаются сообщения a'i и х2. В случае правильного приема переданному сообщению лд соответ­ ствует у\, а сообщению х2 соответствует у2. Из-за наличия в канале связи помех возможны случаи, когда вместо у i будет приниматься у2 и наоборот.

Вероятности приема сообщений у\ и у2 равны

р(ух) - 0,4

Р(Уг)=0,6.

Соответствующие условные вероятности, характеризующие статистические связи между передаваемыми и принятыми сообще­ ниями, равны

/X-H/.Vi)“ 0>55; р(х21у1)=0,А5] p(xL!y2)=0.2; р(х.,1у2) = 0,8.

Определить частные и полную условные энтропии, а также безусловные энтропии Н(Х) и Я (У)-

Р е ш е н и е

Воспользуемся выражениями (3.8) и (3.8,а). Частные условные энтропии равны

H{x:y1) = - p ( x l!yl)\og2p(xl/y1) - p ( x 1ly1)\ogip(x2lyl)=

= -0,55 log20,55 —0,45 log20,45 0,99 Д Ц * ;

54

H(xly.2) = - p ( x ly.2)\og2p(xl,!y2) - p ( x 2'y.J\og2p(x2iy2)--

дв. ед.

=- 0 >21ogJ0.2-0,81ogt018=0,72- сообщ.

Полная условная энтропия равна

H(XIY)=p(yl)H(x/yi) +р{у2)Н{х'у2)= 0,83

Условная энтропия Н(Х Y) характеризует среднюю неопреде­ ленность в отношении того, какое сообщение фактически переда­ но, остающуюся после того, как станет известным, какое сообще­

ние принято.

 

Н(Х) и H(Y):

'

 

Определим значения

 

Н( Y ) = - p ( y 1)\og,p(yi) - p ( y 2)]og2p{y2) - 0,%

Энтропия

источника

сообщения равна

 

 

Учитывая,

f-f(X)^---p(xl)log2p(xl)-p(x,)\ug2p{x2).

 

что

 

 

 

P{xi)=P(yi)p(xiiyi)+P(yt)P(Xily.).

получим

Р(хi) = 0.34; /4^2)=l-/4^i')=0,06.

Тогда

/7(Af)=0,93 дв. ед.

сообщ.

Как н следовало ожидать, полная условная энтропия /ИХ }')

оказалась меньше безусловной Н{Х). Однако частная условная энтропия H(xjyl) превысила ЩХ).

в) Энтропия обьеОинсния двух зависимых систем

Энтропия объединенном системы может быть представлена в виде

Щ Х , ¥ ) - - = — О V p ( X i . y j ) l o g p ( X i , y j ) .

(3.11)

 

1 J

 

Учитывая, что

r(Xj.Vj) ^ p ( X i) />(у, АД),

 

получим

 

—V у ] p(Xi)p(y j Xi)\ogp(xj) -

 

ЩХ , Y)

 

 

/ /

 

vy p(xt) P( yjlxdbgpiyj 'X j)= - У /’(л',)1о^(лл>У p{yj Xl)_

i f

i

J

-

У Vp(xi)P(Vj!Xi)logp( yjlxi).

 

 

i i

 

55

Отсюда, учитывая (3.4),(3.9) и принимая но внимание, что

X /'(У/ '-*<)= •■ j

получим

H{Y X).

(3.12)

П(Х, Y)=H(X\ ■;

Положив в (3.11) р(х-, \'j)=p(i’j)p{Xi \’j)

и рассуждая

аналогично предыду­

щему, получим

 

(3.13)

H(X,Y)=H(Y)+H(\IY).

В соответствии с (3.12) и (3.13) можно считать доказанным следующее положение.

При объединении двух зависимых систем энтропия объединен­ ной систем!.! равна энтропии одной из входящих в ее состав си­ стем плюс условная энтропия втором системы относительно пер­ вой. Энтропия объединенном системы не может превышать суммы энтропий входящих в псе систем.

П р и м е р 3.6.- Для условий примера 3.5 вычислить энтропию объединенной системы XYч

г

Р е ш е н и е

Всоответствии с (3.13)

Н(Х, У)=Н( Г)+Н(X/ У) - 0,96-1- 0,83= 1 , 7 9 ^ g - -

Это меньше, чем

Н(Х)+Н( Г)=0,93+ 0.96= 1,89 ^

3.33. Энтропия и информация

Пусть рассматриваемая нами конечная система находится в од­ ном из возможных состояний. Сообщение, достоверно выясняющее это состояние и полностью снимающее существующую ранее неоп­ ределенность, содержит количество информации

Ixi= -'ogPi,

где /;( — вероятность пребывания системы в/-том состоянии. Эточаст­

ная информация, содержащаяся в отдельном сообщении. Посколь­ ку возможные состояния системы обладают в общем случае раз­ личными вероятностями, количества информации, содержащиеся в разных сообщениях, неодинаковы. Очевидно, что информационную содержательность сообщений для системы будеу характеризовать среднее количество информации (I х), приходящееся на одно сооб­ щение; оно равно математическому ожиданию величины / , т. е.

Лг=— У pM>gpt.

(3.14)

56

Это совпадает с выражением для энтропии источника сообщений Н(Х). Следовательно, энтропия системы равна математическому ожиданию количеств информации, содержащихся в абсолютно до­ стоверных сообщениях о всех возможных состояниях этой системы. Однако между Н(Х) и имеется принципиальная разница. Эн­ тропия, характеризующая среднюю неопределенность состояния си­ стемы, является свойством самой системы (или источника сообще­ ний об этих состояниях) и, если .известна статистика сообщений, может быть вычислена априорно, т. е. до получения сообщений.

Так, например, зная статистику появления отдельных букв и бук­ венных сочетаний, можно заранее вычислить энтропию русского алфавита.

Величина же 1х определяется апостериорно (послеопытно), т. е. после получения сообщений. Равенство (3.14) справедливо лишь в случае приема достоверных сообщений.

Более общим является случай, когда принятые сообщения по какой-либо причине (например, благодаря влиянию помех) не аб­ солютно достоверны и поэтому лишь частично снимают неопреде­ ленность, имевшуюся до их получения. В этом случае будем рас­ сматривать две конечные системы: систему передаваемых сооб­ щений (X) и систему принятых сообщений (Y).

Пусть вероятность того, что принятому у-тому сообщению

соответствует

i-тое переданное (такой факт условно

обозначим

индексом /->/)

равна Л-у = /?(л'(. у.). Содержащаяся в сообщении

*■->/ частная информация

равна

 

1 x1 4 = - log

= —logр(х{) + logp(xjyj).

(3.15)

/(ля того чтобы получить среднее количество информации, при­ ходящееся на одно сообщение (/v), необходимо выражение (3.15) усреднить по всем возможным i и у. В результате усреднения получим

/.v= -£ V (*;.)log/;(*(.)+ £

y ip(xi,yJ^\ogp(xiJ)=-ЩХ) — H[XY).{\\. 16)

i

i

i

Отсюда следует, что среднее количество информации, приходя­ щееся на одно сообщение, равно разности безусловной энтропии Н(X), характеризующей начальную (априорную) неопределенность, и условной энтропии H(XjY), характеризующей остаточную (апо­ стериорную) неопределенность, т. с. в общем случае полученная информация равна уменьшению энтропии. В частном случае пере­ дачи'достоверных сообщений условная энтропия равна нулю и принятая информация полностью снимает начальную неопределен­ ность 1х = Н (Х )—0= Н(Х), т. е.. как указывалось ранее, в случае достоверных сообщений среднее количество информации, приходя­ щееся на одно сообщение, равйо энтропии источника сообщений.

?7

Учитывая (3.12)

и (3.13), можно также получить следующие

выражения для / v:

lx= H ( Y ) - H ( Y I X )

(3.17)

и

Ix= H (X )+ H (Y )-H { X ,Y ).

(3.18)

 

В соответствии с (3.16) I х может рассматриваться как количество инфор­ мации о системе X, получаемое в результате полного выяснения состояния си­ стемы Y.

С другой стороны, в соответствии с (3.17) 1 х может рассматриваться как количество информации о системе Y, содержащееся в системе X.

Из сопоставления (3.16) и (3.17) следует, что система X содержит столько же информации о системе Y, сколько последняя о системе X.

П р и м е р 3.7. С помощью радиолокационной станции определяются плос­ костные координаты цели. Точность определения координат составляет по ази­

муту Др =+0,6°, по дальности

ДВ =+100 м.

Появление цели в любом

пункте участка, ограниченного радиусом в 40 км

от радиолокационной станции, равновероятно. Требуется определить количество информации, которое дает радиолокационная станция при отсутствии и при на­ личии помех.

 

 

Р е m е и п е

 

 

а) При

отсутствии

помех обозреваемый участок может быть

разбит но

азимуту и

дальности

на элементарные ячейки, занимающие

по

азимуту

?АЗ*1,2 градуса и по дальности 2\D=2Q0m. Число таких ячеек

равно

 

360

40

 

 

At ■-NVNd=YJ2

0,2 =60000.

 

 

Полагая появление цели в любой из ячеек равновероятным, получим, что коли­ чество информации, содержащееся в со­ общении о появлении цели в любой ячейке (которое в случае равновероятности со­ общений совпадает со средним количест­ вом информации, приходящимся на одно сообщение, и энтропией), равно

IX=H (}0 = log2yV=16 дв. ед.

сообщ

Рис. 3.3

б) При наличии помех для подсчета информации необходимо знать, какую неопределенность в измерении координат цели создают помехи. Предположим, что после получения информации от радиолокационной станции распределение, вероятностей нахождения цели в различных ячейках характеризуется следующей схемой (рис. 3.3).

Тогда неопределенность местоположения цели определится как условная эн­ тропия:

_ 1_

3

3

дв. ед.

Н{Х/У )= -4 16 log216-

4

4

сообщ.

58

Среднее количество информации, содержащееся в одном сообщении., по­

ступающем от радиолокационной станции, равно

ед.

дв.

1х= Щ Х )-Щ Х 1¥)= 14.6 с- ^

П р и м е р 3.8. Для условий, рассмотренных в примере (3.5), вычислить сред­

нее количество информации, содержащееся в сообщении как при отсутствии, так и при наличии помех.

Р е ш е н и е

а) При отсутствии помех 1.=Н{Х) 0,93

е~ .

,,

■'

 

сообщ.

 

 

дв. ед.

о) При наличии помех

/ V= H (X )-H (X IY )= 0,93-0,83=0,1-— ^ — -

3.3.4.

Энтропия

и избыточность

Применим рассмотренные выше понятия к передаче информа­ ции по каналам связи. Все сообщения, поступающие от источника, передаются в виде определенных сочетаний отдельных символов (элементарных сообщений). Такими символами могут быть, напри­ мер, буквы алфавита определенного языка, цифры и др.

Набор всех возможных символов данного источника называет­ ся его алфавитом. Речь может идти и об алфавите канальных сим­ волов; такими символами при передаче двоичных сигналов могут быть, например, положительные и отрицательные посылки, соот­ ветствующие передаче символов «1» и «0».

Понятие энтропии позволяет определить, какое количество ин­ формации несет в среднем каждое вырабатываемое источником элементарное сообщение (например, буква) или каждый каналь­ ный символ и оцепить, достаточно ли экономно используется при этом канал связи.

Рассмотрим в качестве -примера имеющий большое практиче­ ское значение случай, когда передаваемые от источника сообщения представляют собой сочетания букв, образующих текст определен­ ного содержания.

Энтропия источника сообщений максимальна (и, следователь­ но, он вырабатывает максимальное количество информации в сред­ нем на один символ), когда все символы данного алфавита равно­ вероятны и независимы.

В реальных языках эти условия.не соблюдаются по следующим

причинам:

1. Различные буквы встречаются с различной вероятностью (рис. 3.4). Последнее приводит к заметному уменьшению энтропии.

Так, если бы все 32 буквы русского алфавита были бы равно­ вероятны, то энтропия составляла бы

.. дв. ед.

#макс=1°£з32==5 буква '

59

Соседние файлы в папке книги из ГПНТБ