Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бовбель, Е. И. Элементы теории информации

.pdf
Скачиваний:
32
Добавлен:
19.10.2023
Размер:
6.15 Mб
Скачать

 

 

 

 

Т а б л и ц а 2

 

 

Т а б л и ц а 3

\

x i

* i

 

 

У2

 

* 3

 

 

Хп

*3

У і

\

 

 

0 , 1

5

0 , 0 5

 

 

2,74 -

4,32

Ух

o . l

 

Уі

1 3.32

Уг

0

, 0

5

0

, 0

3

0 , 0 2

У2

4,32

5,06.

5,64

Уз

0

. 3

 

0

. 2

 

0 , 1

Уз

1,74

2,32

3,32

Подставляя сюда значения Р( хі, у/.) из табл. 2, получа­ ем табл. 3 точных неопределенностей Н(хі, у/):

Среднее количество неопределенности в любом сов­ местном наступлении событий x t и у/ равно, по опреде- ' леншо среднего значения, сумме произведений значений ’случайной величины Н(хі, у /) па вероятность этого зна­

чения:

Н(Х,

Г) =

3

3

РхХі< У1)\ 0 ё р(х/, у,) =

- Ѵ

V

 

 

 

/=1

j=I

 

=

2

' 2

н (х>> Уі)р (хі> Уі)=2,7Ь (бит).

 

i= i ; = i

 

 

 

Таким

образом, точные

значения неопределенностей

в том или ином совместном наступлении события (хи У]) давались табл. 3, усреднением мы равномерно «размаза­ ли» эти разные количества неопределенностей по всем .со­ бытиям (xit У/), приписав каждому среднее количество

неопределенностей,

равное 2,76 бит.

 

 

 

 

 

Т а б л и ц а 4

,

 

Т а б л и ц а 5

зтХ ;

Хі

*2-

*3

 

 

Хо

*2

 

 

 

Уі

0,222

0,395

0,294

Уі

2.171

1,361

1,766

Уг

0,111

0,079

0,118

Уз

3,171

13.662

3,074

Уз

0,667

0,526

0,588

Уз

0,584

0,908 10,766

Найдем теперь точные значения неопределенностей в наступлении события уу при известном исходе некоторо­ го другого события х і . Для этого необходимо7 знать ус­ ловные вероятности Р(У]ІХі ) } а затем воспользоваться формулой

Н (У]Іхі) = — log P(yj,!XiX

2Д)

• Найдем

сначала

безусловные вероятности Р(х/) п

P(yj) по

формулам

полной

вероятности

 

р(х{) = 2 р (

уу).

P(yß =

2

Уу)

 

7=1

 

 

Ы

 

и табл. 2. Тогда:

 

 

 

 

Я(л^) = 0,45,

Р(х2) =

0,38,

Я(*3) =

0,17,

Я Ы = 0 , 3 ,

Я(і/2) =

0,1,

Р(У,) =

0,6.

Наконец, по формуле умножения вероятностей вычис­ лим

Р(УіІХі) = Я'(лѵ, У ] ) / Р ( хі).

Из табл. 5 видно, что наибольшей неопределенностью исхода обладает событие tj2 при любом известном собы­

тии xt. При каждом заданном xi H ( y j / x i) является слу­ чайной величиной, значения которой появляются с веро­ ятностями P(yjlXi). Поэтому среднее значение H(yjj х() при заданном хі

<

H(yj!хі) > = 2

p (yjl*i) =

 

о

j - г

 

=

—2

P(yj!*i) logPQ/j/xi) = H(Yjxi).

 

/= 1

 

 

Подставив сюда значения Р(уі/хі)

из табл. 4, найдем

H(Y/xi) =

1,224, H(Y/x2) = 1,306,

H(Y/x3) = 1,3325.

Эти результаты образуют случайную величину, значения которой наступают с вероятностями Р(х.і). Поэтому только среднее H(Ylxi ), усредненное с весом Р(хі), не случайно, а именно:

Н ( У / Х )=% Н ( У / х 0 Р ( хс) =

/= I

= -

2

І

Уj) log Pü/jlxi) = 1,274.

 

 

7=1

 

Таким

образом,

точные значения неопределенностей

fe некотором yj

при каком-либо известном x t даются ве­

личиной H(yjfxi). Среднее количество неопределенности в любом из yj при заданном хі определяется величиной H(Yjxi). Количество же неопределенности в среднем в

21

любом из yj при любом заданном x t — //(К Д ). Други­

ми словами, знание любого из хі

несет неопределенность

в любом наступлении у , в среднем равную Я (К Д ).

В условиях этой задачи самостоятельно

покажите,

что Н(Х,

К ) < Я Д ) + Я ( К ) .

 

 

Задача 3. Вероятность появления события при одном

испытании

равна р, вероятность

непоявления

события

q = 1—р. При каком р результат испытания обладает наи­ большей неопределенностью?

О т в е т : р = 0 ,5 , так как в этом случае Н(Х) = = Н тп(Х).

Задача 4. По цели может быть произведено п незави­ симых выстрелов; вероятность поражения цели при каж­ дом выстреле равна р. После k-vo выстрела производится разведка, сообщающая, поражена или не поражена цель. Если поражена, стрельба прекращается. Определить k из того условия, чтобы количество инфор­ мации, доставляемое разведкой, было максимальным.

Р е ш е н и е . Рассмотрим физическую систему Х к— цель после k-то выстрела. Возможные состояния систе­ мы Хк: Х\— цель поражена; х2— цель не поражена.

Вероятность непоражения цели после k выстрелов по теореме умножения независимых событий.

Р(х2) = (1 —р)к = <?*•

Тогда вероятность поражения цели будет равна вероят­ ности противоположного события:

Р(*і) = 1 - Р ( х 2) = 1 - ( 1 -/>)*.

Так как после опыта предполагается отсутствие неопре­ деленности (с вероятностью «единица» известно, после k выстрелов поражена цель или нет), то количество инфор­ мации, несомое разведкой, численно равно энтропии H(Xk )• А энтропия ансамбля Хамаксимальна тогда, ког­ да события, составляющие ансамбль, равновероятны, т. е.

(1 — ^ “ 1 — о

и

log (1 - р )

Отсюда видно, что если р<§Д, то

. Задача 5. Вероятность появления события А при од­ ном, испытании равна р. 'Испытания повторяются до пер-

22

вого появления'события А. Найти энтропию числа испы­ таний.

Р е ш е н и е . Определим распределение случайной ве­ личины X — числа испытаний. X может принимать зна­ чения от единицы до бесконечности. Вероятность полу­ чить событие А в первом испытании ( х = \ ) равна р, во втором (1— р)р, в k-u (1—р)к^1 р. Таким образом, опыт X выглядит так:

Х = ( ^

2

3

. . .

k ■ . . .

(1 - р ) р (1 —p f p

. . . (1 - р)к-'р . . .

и его энтропия

со

Н(Х) -

— Ѵ >(1

р)**! log [/7(1 —p )k~ '] =

 

*=1

 

= —p \ 0 g

со

со

qk~x— р log q % {k — l) q k~l, (1.16)

 

к«=1

k= \

где q = 1p. Ряд, стоящий сомножителем в первом

слагаемом, есть геометрическая прогрессия. Поэтому

оо

(1Л7)

к=1

Продифференцировав тождество (1.17) по q и умножий обе его части на q, получим ряд, стоящий сомножителем во втором слагаемом (1.16). Подставив в (1.16) найден­ ные суммы рядов, получим

ЩХ) = — Р ]0gP + q ]0gq

Чем можно

объяснить, что при р =f= 0 опыт X, имею­

щий бесконечное число членов,

обладает

конечной

не­

определенностью?

Наверное, тем, что

при

достаточно

большом k вклад членов вида

(pqk)log(pqk) незначи­

телен,

так как

lim

(pqk) log (pqk) = 0,

и поэтому

при

k > 1

 

k-y ОО

 

 

 

 

мы можем со сколь угодно большой степенью точ­

ности (в смысле точности Н(Х))

говорить о схеме X

ко­

нечного вида.

 

 

 

 

 

 

§ 3. Количество

информации от

опыта

в общем случае

При получении формулы для количества информации предполагалось, что после опыта неопределенности в его исходе нет. Однако можно привести множество приме­

23

ров, когда после получения информации у нас остается еще некоторая неопределенность. Вот два из них.

1. Пусть известно, что напряжение на клеммах не торого источника может изменяться в пределах 180— 230 вольт. Поэтому на вопрос, каково напряжение в дан­ ный момент времени с точностью до одного вольта, мож­ но высказать 51 предположение: 180, ..., 230 вольт. Пусть опыт заключается в измерении напряжения с точностью ,±'5 вольт. Произвели опыт. Напряжение оказалось рав­ ным 220 вольт. Значит, на самом деле истинное значение напряжения находится где-то между 215—225 вольтами.

Тогда заключаем, что после такого опыта на

ннтересую-

 

щий нас вопрос можно высказать

Шим

уже

11 предположений: 217, ...,

223 вольта. Таким образом, пос­

 

_______ _____

ле

получения информации хотя

 

 

 

 

 

 

Линия

и

остается некоторая

неопреде­

связи

ленность, но эта неопределен­

Рис. 2

ность

становится

меньшей,

чем

до опыта.

 

 

 

 

 

 

 

За счет чего мы уменьшим неопределенность об ис­

тинном значении

напряжения источника?

Очевидно,

за

с,чет того, что в результате опыта мы приобрели некото­ рое количество информаций, численно равное разности между количеством неопределенности до и после опыта. Вычислим его в предположении, что все значения напря­

жений равновероятны.

Тогда

энтропия до опыта Н { =

= log 51 = 5,672 (бит),

а

после

опыта

Я 2 =

log Ы =

=3,459 (бит), и-количество

информаций

об

истинном

значении напряжения (с точностью до 1 вольта)

от тако­

го опыта

/ =

Н\—# 2= 2 ,2

(бит).

Очевидно,

повышая

точность измерения, мы увеличим

количество

получае­

мой • информации.

 

 

 

 

 

 

2.

Пусть

имеется

некоторая

линия связи, в которо

действуют шумы, искажающие передаваемые по ней сиг-’ налы (рис. 2). По линии связи передаются сообщения, составленные по некоторому закону из п различных сиг­ налов хі . Сигналы, смешавшись с шумом, поступают на выход линии связи. Обозначим принимаемые сигналы буквой y j ( j = \ , 2, ..., m ). После приема сигнала у г мы не

можем достоверно сказать, какому из переданных сигна­ лов х і он соответствует, так как случайный шум может

из любого сигнала хі создать подобный ему сигнал у г.

24

В этом случае для принятия правильного решения необ­ ходимо использовать вероятности P(xijyj).

Если, к примеру,, они оказались такими, что любой сигнал хі (кроме.хг) со сколь угодно малой вероят­ ностью (раз в столетие) может превратиться в уг , то, приняв этот сигнал, мы с как угодно близкой к единице вероятностью можем утверждать, что был передан х п так как

п

 

2 Р(Хі/Уг) ^ Р(хг/Уг) = 1.

( 1. 18)

Если бы дело обстояло так со всеми передаваемыми сиг­ налами х і (і= \ , 2, ..., п), мы могли бы считать, что в ка­ нале связи вообще отсутствуют шумы, и соотношение бы­ ло бы справедливо для всех сигналов л>*

Иначе говоря, после опыта (после приема какого-либо сигнала y j ) у нас нет никакой неопределенности в соот­ ветствии принятого у] переданному хі , и количество*ин­ формации,содержащееся в yj о хі, численно равно неоп­ ределенности принять в данный момент какой-либо сиг­ нал X і, т. е. энтропии ансамбля сигналов

1(Y, X) = Н(Х).

Однако наибольший интерес представляет другой крайний случай, когда искажения сигналов в линии свя­ зи таковы, что любой из сигналов хі может с равной ве­ роятностью перейти в любой из сигналов yj. Это соответ­ ствует случаю, когда сигналы yj и хі статистически не­ зависимы (см. задачу 2 §.2), т. е.

Тогда, наблюдая у\лмы не получаем никакой информации о х і . Что же необходимо предпринять при таком разру­ шающем действии шумов на передаваемую информацию? Имеется единственный выход— подобрать такое разли­ чие (вид модуляции) в передаваемых сигналах хі , чтобы вероятности искажений были как можно ближе к (1.18).

Подсчитаем количество информации, имеющееся (в среднем) в сигнале yj о сигнале хі при произвольной ста­ тистике искажений p(xi/yj).

25

Среднее количество неопределенности, которым мы обладали до опыта, равнялось Н(Х). Представим теперь, что мы примяли какой-то сигнал yj (к примеру, tjn) и оцениваем, какова неопределенность (после опыта) соот­ ветствия его некоторому переданному хі (к примеру, х\). Эта неопределенность равна

— log P(xi/yj) = Н{х,-:;У]).

Как видим, неопределенность этого соответствия яв­ ляется случайной величиной, значения которой при каж­ дом заданном у j наступают с вероятностями P(xi'yj). Поэтому среднее значение количества неопределенности

соответствия данного yj

2) любому из хі

ЩХ/'У;)

п

Р(хіj) log P{XilУj).

= - V

 

І“ 1

Величина H(X/i/j)

также случайна. Вероятности ее зна­

чений равны Р( уj). Тогда среднее значение H(X/yj) оп­ ределит среднее количество неопределенности соответст­

вия любого yj

любому из Л'I. Обозначим

это среднее

H(XIY).

 

 

т

 

 

 

Щ Х /Y) =

 

 

 

V H{Xiyj) P(yj) =

 

 

п

in

/= 1

 

 

 

 

Р[Х‘'

1о§ p (x'!yß-

 

=

— У)

2

 

 

<•= 1 /= I

 

 

 

 

Другими словами, H(X/Y)

есть

средняя

неопределен­

ность в передаче того или иного хі, если

известно, что

принят тот или иной у р

или, кратко, средняя неопреде­

ленность ансамбля X после опыта.

Таким образом, мы установили, что неопределенность передачи некоторого сигнала X до опыта Н(Х), а после опыта H(X/Y). Поэтому количество информации, имею­

щееся в Y о X:

.

 

I(Y, X) =

Н(Х) — H(XiY).

' (1.19)

Эта мера количества информации получена нами на при­ мере передачи сообщений по каналу связи. Совершенно аналогичные рассуждения могут быть применены к слу­ чайным объектам произвольного вида и приведут нас к той же мере.

26

На основании свойств энтропии 4 и 6

M(Xt Y) = Н (Y) + Н (X/Y).

Подставляя этр выражение в (1.19), получаем

I(Y, X ) = H ( X ) + H ( Y ) - H ( X , Y).

Умножая первое и второе слагаемое правой части равен-

т

ства соответственно на единицы вида l = v P (lJjixi) ~

п

7 - 1

 

= 2 P(x'Jyj). 11 расписывая энтропии через вероятнос-

/=1

ти соответствующих событий, получаем

 

 

 

п

т

У])1о? р (*і) -

 

а д

 

- 2 S

п

 

2= 1 / = 1

 

 

 

 

/2

 

(/у) log Р(*„ Уу) =

— у

^ P (A 7,yy)l0gP (y7) + V

 

/=1

у=1

 

 

2=1

 

 

 

 

22

2/2

 

Уі)

 

 

=

2

2 р ^*’

^ log

( 1.20>

 

P(Xi)Piyj)

 

*

 

 

2=1 7=1

 

 

 

Перечислим основные свойства количества информа­

ции I(X, Y).

 

 

 

 

1. І(Х,

Y ) = I ( Y X),

т. е.

количество информации,,

содержащееся в случайном объекте Y о случайном объ­ екте X, равно количеству информации, содержащемуся а

случайном объекте X о случайном объекте Y.

 

Свойство

1

сразу же следует из (.1.20), если учесть*

ЧТО Р(Хі, Уі)

= Р ( У р

Хі).

 

 

2. І(Х, г)

 

0, причем знак равенства имеет

место*

когда объекты X и' Y независимы.

 

Положительность І(Х, Y)

следует из свойства

9 эн­

тропии. Когда объекты X и Y статистически независи­

мы, по теореме

умножения

вероятностей Р(хі9

yj) =

= P(xt) P(ijj)

и под

знаком

логарифмов в (1.20) во

всех слагаемых будет стоять единица, поэтому І(Х,

Y) =

=0.

3.1 (X, Х ) = Н ( Х ), т. е. энтропия может быть истол­ кована как информация, содержащаяся в объектах от­ носительно самих себя. Из этого также непосредственно вытекает, что энтропия есть максимальное количество информации, которое можно получить об объекте:

27

Ф

Задана 1. Студент может сдать

зачет по теории'ин­

формации с вероятностью

а, не проработав весь мате­

риал

курса,

и с вероятностью ß,

проработав

весь мате­

риал

курса;

или не сдать

зачет

с

вероятностью

не

проработав весь материал,

и с вероятностью

В,

прорабо­

тав весь материал курса

(а-(-р +

7 - ( - 8 = 1 ) .

Опреде­

лить среднее количество информации, которое может по­

лучить

преподаватель о подготовленности

студента по

результатам сдачи зачета.

 

Р е ш е н и

е. Обозначим через X случайное число сту­

дентов

с определенной сдачей зачета, а через Y — слу­

чайное

число

студентов с определенной

подготовлен­

ностью. Пусть Х\— случайное число студентов, сдавших зачет, Хо— не сдавших зачет; у \— случайное число подго­ товленных студентов; уч— не подготовленных студентов.

По условию задачи известны следующие вероятности:

Р(х1, Уі) а> Р(Х1 , Уі) — ß, Р(х2, уо) — ч,

Р{х2, У ,) = в.

( 1.21)

Для определения искомого количества информации по формуле (1.20) необходимо найти соответствующие безусловные^вероятности. Их можно найти из формулы пол­ ной вероятности:

2

2

Подставляя в (1.22) соответствующие совместные веро­ ятности из (1.21), получаем:

_ Р(хі) — Р{хі* Уі) + Р(хі, Уъ) = а + ß;

Я(дг2) = Р{хъ Уі) -f- Р(х2, І/г) — S

(1.23)

Р(Уі) = Р(хи Уі) + Р(х2) Уі) = ß + 8;

РІУг) = Р(хи Уг) +

Р(хг, уг) =

« +

•(.

Наконец, подставим (1.23)

и (1:21) в

(Л.20):

1{Х, Y) =

P(xl1 y j l o g

Р(хц Уі)

I

 

Р{*і)Р(Уі)

 

+ р іхь Уі)І0g

+ р(х2,

Уі) log

Р(ха, Уі) . ■,

 

 

 

Р(х2)Р(Уі)

4

+ Ж*».

У*) log

ß

p £ ? py{f j- * ? log (aH~ P)(P ~h ö)

 

 

 

тт “h

+ ° ,0& (а + ß)(« +

-f) +

° l0g (5 + Tf)(P + 6) + Т l0g (5 +'()(* + -()

Задача 2.

По

линии связи с помехами передается од-

ио из двух сообщений Х\ или х2 с вероятностями соответ­

ственно р и (1—

На

приемном конце канала сиг­

нал Х\ обозначается

через у\, а х2 через

t/2-

Заданы

ус­

ловные вероятности правильного приема

Р ( у \/ хі )=

Д и

Р(у2ІХо)= 8.

Определить

количество

 

информации

I(Y} X) в общем случае и в случае, когда: а)

А = 8 = 0,5,

б) Д = ( 1 — 8). Объяснить

полученный результат

для

пунктов а) и

б).

 

 

 

 

 

Р е ш е н и е .

По теореме умножения вероятностей:

Р{хи Уі) = Я *і)Ж Уі/* і)

Р(хг, у г) = р{х2) Р(у2/Х2) =рЬ;

Р(хи у2) = Р(Х,) Р(уг Хх) =-• р{ 1 — Д);

Ң х л, у,) = Р(х2) РІУі/Хг) = р ( \ — Ь).

Подставив в формулу полной вероятности

P(yj) = і Р(ХІ. yj)

/= 1

соответствующие вероятности P(xh yj), найдем вероят­ ности сообщений y j :

Р{Уі) == Р(хъ Уі) + Pix* У,) = р.Д + р(1 — В);

Р(Уі) = Р(Хі, уг) + Р(Х2, Уг) =р( 1д) + р ь.

Наконец, среднее количество информации, содержащееся: в у о х:

ц у , Х ) ^ 2 2 р ^ ^ ^ Ш г -

1=1j —I

 

 

= Р Д log —-— â --------- h р (1 — A) log ■=—(1- ~ —

— 8)

 

/> 6 + /> (1 — Д)

1 - 8

+ / ? B I o g ^ —■

+ / ? ( l - 8 ) l o g

p A + A O — 8)

'

8 -f- /?(1 — Д)

Подставляя сюда A = 8 =0,5

и учитывая, ч т о /? + р = 1 ,

получаем I(Y, Х ) = 0.

 

 

 

 

291

Соседние файлы в папке книги из ГПНТБ