
книги из ГПНТБ / Бездудный, В. Г. Техника безопасности в шахтном строительстве
.pdfЗадачи к теме 3
1. Определить: |
log2 4б; |
Ig45; |
log2yT6; lg уОб; |
Ioga |
; |
log, - Ц - ; |
|
|
|
lg 5; |
l g - j - ; |
lg 12. |
|
|
|
Преобразовать: |
loga (XKZ); |
loga |
-xyz- ; |
— k loga X — |
k loga Y -f |
k loga Z. |
2.Как определить количество информации в сообщении, если известно макси мально возможное количество сообщений? Как определить количество информации
всообщении, если известно количество качественных признаков (алфавит) сообще ний и количество символов в каждом сообщении? Привести примеры.
3.Символы алфавита обладают двумя качественными признаками. Какое ко личество сообщений можно получить, комбинируя по три, четыре, пять, шесть эле ментов в сообщении?
4.Сколькими способами можно передать положение фигур на шахматной дос ке? Чему равно количество информации в каждом случае?
5.В алфавите три буквы: А, В я С. Составить максимальное количество со общений, комбинируя по три буквы в сообщении.
6.Какое количество информации приходится на букву алфавита, состоящего из 16 букв, 25, 32?
7.Чему равно количество информации в сообщении, переданном в двоичном коде пятизначной комбинацией? Двумя пятизначными комбинациями?
8.Чему равно количество информации при получении восьми сообщений че тырехзначного троичного кода?
9.Чему равно количество информации о выходе из строя одного из восьми стан ков, полученных в одно и то же время с'одного и того же завода?
ЭНТРОПИЯ. СВОЙСТВА ЭНТРОПИИ
Как уже было сказано, понятие информация связано со снятием неоп ределенности, которая существовала до получения сообщения. И чем большая неопределенность была до передачи сообщения, тем большее количество информации содержится в принятом сообщении.
Предположим, в урне находится 100 шаров: 99 |
черных и один |
белый. Вынимаем шар, передаем сообщение, какого |
цвета был шар, |
в какой-то условный пункт приема, ложим этот шар |
обратно в урну, |
перемешиваем шары и повторяем процедуру. Вероятности получения сообщения о том, что вынут черный или белый шар, будут равны соот
ветственно рх = 0,99 и р2 = |
0,01. Количество переданной информации |
при этом |
|
I = — (Pi logs Pa + |
р2log2 р2) = — (0,99 log2 0,99 + |
+ 0,01 log2 0,01) = 0,0143 -f- 0,0664 = 0,0807 бит/символ.
Следовательно заранее предсказать, какой будет вынут шар, не пред ставляет особого труда, так как мы почти уверены в результате опы
20
та. Количество полученной информации мало. Если мы заранее уве рены в ответе, то ответ несет нулевую информацию.
Если в примере с шарами в урне было бы 50 черных и 50 белых, то трудно было бы предсказать содержание сообщения. В этом случае неопределенность максимальна, так как вероятности появления чер ного и белого шаров равны друг другу: рг = рг = 0,5.
Количество полученной информации при этом
/ = — (Pi log2 Pi + р2 1оЙ2 Рг> = — (°-5 log2 0-5 + 0,5 log2 0,5) =
= 1 бит/символ.
Чем больше априорная неопределенность, тем большее количество информации получается при снятии ее. В этом смысле величина, определяющая степень неопределенности, является удобной мерой оцен ки количества информации при исследовании ее свойств.
В теории информации мерой неопределенности является энтро пия — удельное количество информации, приходящееся на один эле мент сообщения. Для сообщения из п элементов эта величина равна
|
т |
т |
|
|
н = ~ |
= —X Pi los Pi = S |
Pi 1о§ 7 Г |
0 !0) |
|
и называется средней |
энтропией |
сообщения. |
Величина log i |
назы |
вается частной энтропией, характеризующей лишь г-е состояние. Как видим из выражения (10), сама энтропия Н есть среднее значение частных энтропий.
В случае одинаковой вероятности появления любого из т элемен тов сообщения
тт
Н = — £ |
Pi^ogpi = — 2 -^-tog-jr = logm. |
(11) |
(=i |
i=] |
|
При исследовании свойств энтропии наибольший интерес пред ставляет ее зависимость от числа т возможных признаков (качеств) и вероятности pt появления в сообщении элемента с t-м признаком.
Энтропия характеризует меру неопределенности совокупности
событий, составляющих полную группу (сумма вероятностей появления
т
отдельных событий должна быть равна единице т. е. |
— |
1; в про- |
|
1= 1 |
т = i = |
тивном случае теряет справедливость формула (10)1. Если |
= 1, т. е. передается сообщение с одним t-м признаком и вероятность его появления р{ = 1, то
т |
|
Н = £ p < l ° g - ^ = 1 l°g 1 = 0- |
(12) |
Это очевидно, так как заранее известно, что будет передано сообщение с t-м признаком и при его получении ничего нового мы не узнаем, т. е.
21
получим нулевую информацию. Если |
сообщение заранее известно, |
то энтропия минимальна и равна 0. |
признака в ансамбле сообщений |
Если вероятность появления t-ro |
равна нулю, то слагаемое с этим признаком принимает вид неопреде ленности типа нуль на бесконечность. Действительно,
Pi log •— = 0 • со.
Раскроем эту неопределенность, используя правило Лопиталя1. Для этого прежде всего неопределенность вида 0 • оо приводим к виду
о о /о о :
|
|
Нш (р, log |
Pt |
|
|
|
|
|
|
||
|
|
pt-*о ' |
|
|
|
|
|
|
|
||
Обозначим — = |
к (при р{ |
|
0 к |
|
оо). Тогда можно записать |
||||||
|
|
lim I -----р 1— |
/ |
= lim |
log fe |
|
|||||
|
|
ррО \ |
|
L |
|
к-*со |
k |
|
|
||
|
|
|
|
pi |
|
|
|
|
|
|
|
Согласно правилу Лопиталя |
|
|
|
|
|
|
|
||||
- ^ Т ~ = |
{~ТГ~) ’ но производная |
(log k)' = |
log е, |
||||||||
то есть |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Нш log fe |
|
± \o g e |
|
|
|
|||
|
|
|
|
|
1 |
|
|
|
|||
|
|
|
ft-*со k |
|
|
|
|
|
|
||
Известно, что если отдельные |
слагаемые |
стремятся к |
нулю, то |
||||||||
к нулю стремится и сумма, т. |
е. |
окончательно можно записать |
|||||||||
|
|
|
|
m |
|
|
|
|
|
|
|
|
|
|
lim |
£ |
Pi log - 1 - = |
0. |
|
, (13) |
|||
|
|
|
Pr*° |
|
|
|
|
pl |
|
|
|
Таким образом, найдены два крайних условия, при которых, эн |
|||||||||||
тропия минимальна и равна 0. |
|
|
|
|
, |
|
|||||
Исследуем теперь |
выражение |
для энтропии на экстремум. Для |
|||||||||
1 Правило |
Лопиталя: если f (х) |
= |
—— —, причем функции ф {х) и ¥ (х) опреде- |
||||||||
лены в интервале, содержащем а, |
|
|
¥ |
(д:) |
|
|
производные |
||||
и имеют в этом интервале конечные |
|||||||||||
! ¥ ' (х) ф 0; |
ф' (х) |
Ф 0), |
и если |
|
|
|
= 0 и J™al |
¥ |
(х) = 0 (неопределенность |
||
0/0) или |
ф (х) |
~ оо и |
¥ |
(х) = |
оо (неопределенность оо/оо), то |
/ (*) = |
|||||
lim ф '( * ) |
|
|
|
|
|
|
|
|
|
|
|
*=* х-*а ^ \ х ) |
' |
|
|
|
|
|
|
|
|
|
|
22
этого, как известно, необходимо найти точку, в которой производная исследуемой функции меняет свой знак, т. е.
dptd (— Pilogpt) ==— \\o g p c
= — log pi — log e = — log pte = 0,
так как производная |
произведения (и, |
v)' = |
u'v |
-f и o'. Отсюда pte |
||||
= 1, или p{ — — . Тогда максимальная величина слагаемого |
||||||||
|
Pi log Pi = Pi log — |
= |
l loge = |
0,531. |
||||
Итак, энтропия есть величина веществен- |
, |
|
||||||
ная и имеет экстремум. Так как логариф- |
|
|
||||||
мы правильных дробей отрицательны', то |
|
|
||||||
энтропия опыта с конечным числом исходов |
|
|
||||||
всегда положительна. |
|
|
|
|
|
|
||
График |
функции — рс log рс = f |
(р{) |
|
|
||||
изображен на рис. 9. Этот график пред |
|
|
||||||
ставляет интерес с,той точки |
зрения, |
что |
|
|
||||
позволяет |
оценить |
влияние |
вероятности |
|
|
|||
появления отдельного символа на величину |
|
|
||||||
выражения |
энтропии для сообщения в це |
|
|
|||||
лом. Как видно из графика, |
при р{ < |
0,1 |
|
|
||||
величина —p^log р{ растет круто. |
Это |
оз |
Рис. |
9. График функции |
||||
начает, что на данном участке даже незна |
||||||||
Pi log Pi: = f (Pi)- |
||||||||
чительное уменьшение вероятности pt ведет |
||||||||
|
|
к резкому уменьшению слагаемого p,log ри т. е. при малых значениях вероятности pt члены в выражении энтропии, содержащие pt, не игра ют существенной роли и часто могут быть опущены.
Из рис. 9 также видно, что наибольшие значения слагаемых ви да —Pflog pi принимаются при вероятностях появления импульса с i-м признаком, лежащих в области от 0,2 до 0,6. Это понятно, так как при малых вероятностях появления i-ro признака легко предсказать его отсутствие в сообщении и, наоборот, при больших вероятностях по явления i-ro признака легко предсказать его присутствие в сообщении. В обоих случаях величина неопределенности, существующей до по лучения сообщения, будет мала. Соответственно мало и количество ин формации при снятии этой неопределенности, что и иллюстрируется рис. 9.
Если число символов в сообщении равно двум, то |
|
Н = — Ц Pi logt pi = — (Рх logар* + p2logt pJ. |
(14) |
i==l |
|
23
т |
1, то рг + |
р2 = 1. Обозначим для удобства рх |
— р2 |
= |
||
Так как^Р,- = |
||||||
1=1 |
1 — Pi = |
1 — р. |
Подставим |
значения рх |
и р2 |
в |
= р, тогда р2 = |
||||||
формулу (14): |
Н = — [plog2p + |
(l — p)log2(l — р)]. |
(15) |
|||
|
||||||
График функции (15) |
представлен на рис. |
10. Как видим, |
энтро |
пия бинарного сообщения изменяется от 0 до 1 и достигает максимума
при |
равных |
вероятностях появления |
в |
сообщении обоих |
признаков, |
|||||||
т. е. при Pi |
= р2 = 0.5. |
|
|
|
|
|
|
|
признаков |
|||
m > |
Для сообщений, в которых количество качественных |
|||||||||||
2, максимальная энтропия также будет |
при соблюдении условия |
|||||||||||
|
|
|
равной вероятности |
появления |
признаков |
|||||||
|
|
|
в сообщении, |
что |
хорошо согласуется с |
|||||||
|
|
|
интуитивными |
представлениями |
неопреде |
|||||||
|
|
|
ленности. |
В |
литературе существуют не |
|||||||
|
|
|
сколько доказательств |
этого важного поло |
||||||||
|
|
|
жения [8, 12, 13, 41]. Воспользуемся на |
|||||||||
|
|
|
иболее простым из них, изложенным в |
|||||||||
|
|
|
работе [13]. |
|
|
|
что энтропия |
|
||||
|
|
|
|
Итак, |
докажем, |
Н = |
||||||
|
|
|
= |
т |
|
Pi |
максимальна |
при |
Pi = |
|||
|
|
|
— 2 Р |
|
||||||||
|
|
|
|
i~1 |
|
|
|
|
|
|
|
|
Рис. 10. График функции |
= |
р2 = ... = |
р„, |
= |
р = —. Для |
этого не |
||||||
обходимо |
найти |
экстремальное |
значение |
|||||||||
F — |
f (р). |
|
||||||||||
|
функции Я. |
|
|
|
|
|
|
|||||
Составим функционал вида |
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
||||
|
|
т |
|
т |
|
т |
|
|
|
|
|
|
|
F = —2 Pi log Pi —К l1Pi = —2 (Pi log Pi + Vi) |
|
||||||||||
|
|
i—i |
|
i—1 |
|
i=l |
|
|
|
|
и найдем его максимум. Обозначим предварительно каждое слагаемое под суммой через F*r
т |
т |
г = — 2 (P i log Pi + |
к р с) = — 2 f * . |
i=1 |
i=l |
Максимум будет в точке перегиба, т. е'. в точке, где производная меняет знак:
dF*{ |
! |
|
= — 1 log Pi — — р-, log e — Ik — Pl ■0 = log Pi — loge — X = 0 |
или |
logPi = — loge — X (i = 1, 2, 3, . . . , m). |
|
Как видим, ни величина pit ни величина log рг не зависит от номе ра i-го признака, что может быть только при условии равенства ве роятностей появления любого из признаков в сообщении, т. е. рх =
= Рг = ••• = рт — Р = |
что и требовалось доказать. |
24
Подставив значение Pi — — в выражение (10), найдем
Я = Я тах = — Y i ~ k los~ k == logm- |
(16) |
i—I |
|
Для любого количества символов среднее количество информации на один символ достигает максимума в том случае, когда все символы используются с равными вероятностями.
В заключение рассмотрим еще одно свойство энтропии: энтропия сообщения, состоящего из некоторых частных сообщений, равна сумме энтропий составляющих его сообщений.
Предположим, имеются сообщения А к В с энтропиями соответ ственно Я (Л) и Я (В). Необходимо доказать, что энтропия сообщения, состоящего из сообщений А и В,
Н(АВ) = Н(А) + Н(В).
Так как для независимых событий вероятность совместного со бытия АВ равна произведению вероятностей событий А к В, то, обо значив через р^ pj и р,л вероятности событий соответственно А, В и АВ и используя формулу для энтропии случайного события (10), выражение для энтропии сообщения АВ запишем следующим образом:
Я (ЛВ) = |
— 2 ри log ри = — 2 PiPi log PiPi = |
|
|||||
|
|
*./ |
|
i j |
|
|
|
= — 2 PiPi (log Pi + log Pj) = — 2 |
Pi log рс 2 p,- — 2 |
Pi log Pi 2 |
Pi- |
||||
i,j |
|
|
i |
i |
} |
i |
|
Так как .2 Pi = 1 |
и 2 /? ; = 1, то окончательно можно записать |
|
|||||
Я(ЛВ) = |
- |
2 Pi log Pi - |
2 р/ logp/ = |
Я (Л) + |
Я(В), |
(17) |
|
|
|
i |
i |
|
|
|
|
что и требовалось доказать.
Это свойство энтропии, или правило сложения энтропий, хорошо
согласуется со смыслом энтропии как меры неопределенности. Дей ствительно, неопределенность сообщения АВ должна быть больше
неопределенности отдельных сообщений Л и В. Правило сложения эн тропий распространяется и на п событий при п > 2. Доказательство
этого положения аналогично приведенному выше.
Выводы. 1. Если известно, что данное событие наверняка произой дет или не произойдет, то его энтропия минимальна и равна нулю.
2.Если событие с равной вероятностью может произойти либо не произойти, то его энтропия максимальна.
3.Энтропия — величина вещественная и положительная. Для
любого количества символов энтропия достигает максимума при рав ной вероятности появления их в сообщении.
25
Задачи к теме 4
1. Чему равна энтропия сообщений: «Сейчас Луна упадет на Землю», «Сейчас Луна не упадет на Землю»?
2.На вычислительном центре постоянная информация хранится в 32 768 стан дартных ячейках. Сколькими способами можно передать сведение о том, из какой ячейки необходимо извлечь информацию? Чему равно количество информации в каждом отдельном случае? Какое геометрическое расположение ячеек в хранилище позволит передавать эту информацию минимальным количеством качественных при знаков?
3.В плановом отделе работают три экономиста: два — опытные и один — не
опытный. Опытные специалисты знают, что сводки типа А составляют 10% от обще-' го количества документов, поступающих в отдел. Определить, какое количество ин формации получит каждый специалист при получении сводок типа А?
Таблица 2
Таблица для вычисления энтропии украинского алфавита (без учета пропуска меж ду словами)
Буква
А
Б
В
Г
Д
Е
Ж
3
И
I
I -
Й
к
л
м
Средняя вероят |
|
|
ность появления |
Pi log Р,- |
|
в тексте Р[ |
||
|
||
0 ,0 8 5 5 5 |
0 ,3 0 3 3 4 8 |
|
0 ,0 1 8 3 ' |
0,105195 |
|
0 ,0 5 4 0 |
0,227388 |
|
0 ,0 1 5 0 |
0,090983 |
|
0,0 2 9 8 |
0 ,151043 . |
|
0 ,0 4 7 3 |
0,208511 |
|
0 ,0 0 3 6 |
0,029224 |
|
0 ,0 0 8 0 |
0 ,055726 |
|
0,0 2 0 3 |
0,113716 |
|
0,0 6 8 4 |
0,264941 |
|
0,0634 |
0,252546 |
|
0,0 0 6 7 |
0,048385 |
|
0,0202 |
0,113716 , |
|
0,0368 |
0,175321 |
|
0)0388 |
0,1 7 9 9 3 3 |
|
0 ,0 2 6 8 |
0,139939 |
Буква
Н
О
п
р
с
т
У
ф
X
ц
ч
ш
щ
ю
я
ь
-
Средняя вероят |
Pt log Pi |
ность появления |
|
в тексте р^ |
|
0 ,0 6 1 3 |
0,247431 |
0 ,1 0 3 7 |
0 ,3 3 8 6 8 3 |
0 ,0 2 9 6 |
■0,150316 |
0,0 4 6 8 |
0,206732 |
0,0 3 9 4 |
0 ,183827 |
0 ,0 5 0 9 |
0,218961 |
0,03689 |
0,175321 |
' 0,0023 |
0,020158 |
0,0 0 9 7 |
0 ,064872 |
0,0074 |
0 ,052379 |
0,0 1 3 6 |
0,084323 |
0,0 1 1 0 |
0 ,071570 |
0,0091 |
'0 ,0 6 1 6 9 7 |
0,0 0 7 2 |
0,051248 |
0,0172 |
0,100817 |
0,0146 |
0 ,089029 |
4. Определить, в каком из приведенных ниже текстов количество Информации больше и почему:
а) «Рара, ра, ра, ра, ра, ра»; б) «Соблюдайте правила техники безопасности. Не стой под краном! Не сорить!»
в) «Здравствуйте.— Да, Петров.— Идете в цех?— А накладные?— Хорошо, у диспетчерской»;
г) «Румяной ... Восток ... Огонек ... Спешат к пастухам...»
5. Для прибора Zдетали из кладовой отдела комплектации доставляет конвейер ная лента 1, для прибора Y — лента 2. В комплектующие изделия прибора 1 входят 10 конденсаторов, пять резисторов и пять триодов, а прибора Y — восемь конден саторов, восемь резисторов и четыре триода. В каком случае неопределенность того,
какая деталь на ленте будет первой, больше? Определить |
энтропию в битах и дитах. |
6. Сообщение А передано двоичным пятизначным, а |
сообщение В — цифровым |
(набор из любых арабских цифр) трехзначными кодами. Чему равна энтропия сооб щения, состоящего из сообщений А и В?
26
7. Определить количество информации в произвольном украинском тексте, если известна энтропия украинского алфавита (табл. 2):
32
Я = - 2 Pi log Pl = 4,577179. i=i
8. В сообщении, составленном из пяти качественных, признаков, последние используются с разной частотой, т. е. вероятности их различны и равны соответствен^
но pi = 0,8, р2 = 0,15, рз = 0,03, р4 = 0,015 и рь = 0,005. Всего в сообщении при нято 20 знаков. Определить количества информации на букву сообщения и во всем сообщении. Каково было бы количество информации в данном сообщении, если бы все признаки имели равную вероятность?
Т е м а 5 |
I УСЛОВНАЯ ЭНТРОПИЯ |
До сих пор, оперируя понятием энтропия, мы имели в виду некоторое удельное количество информации, приходящееся на один элемент со общения. Такая энтропия была названа средней, а при ее вычислении использовали выражение
тт
н = — j p / iogp< = |
S f t 1°g 4 r '-' |
(18) |
г=1 |
г=1 |
|
При этом подразумевалось, что |
символы сообщения взаимонеза- |
висимы, т. е. с приходом одного символа распределение вероятностей последующих символов не изменяется. Так может быть, например, при передаче букв бесконечного алфавита, вынимаемых из кассы, либо при передаче букв конечного алфавита, но с обязательным услови ем, что после передачи каждой буквы она опять будет возвращена в кассу.
На практике же чаще всего встречаются взаимозависимые символы и сообщения. Если передавать не просто отдельные буквы алфавита, а смысловые сообщения, то можно убедиться, что существует взаимо зависимость передаваемых символов. Одни буквы встречаются чаще, другие реже, одни буквы и слова часто следуют за другими, другие ред ко и т. д. Например, в английском языке наиболее часто встречается бук ва е; во французском языке после буквы q почти наверняка следует буква и, если q, естественно, не стоит в конце слова; в советских га зетных сообщениях после слова «передовик» чаще всего следует слово «труда» или «производства»; появление в сообщении слов «передовик труда» дает, в свою очередь, информацию о характере сообщения, например, что это сообщение ближе к заводской, чем к театральной жизни и т. д.
В случае взаимозависимых символов удобно использовать среднее количество информации, приходящееся на один символ, с учетом вза имозависимости через условные вероятности. '
27
Предположим, получено сообщение АВ, в котором появление А зависит от В и наоборот. Обозначим через р(а£) вероятность появления г-го состояния события А, р (bf) — вероятность появления /-го со стояния события В, р (а{1Ь]) — условную вероятность t-го состояния со бытия А относительно /-го состояния события В, р (bj/ad — услов ную вероятность /-го состояния события В относительно i-ro состояния события А (например, появления /-го символа сообщения В после по явления i-гоюимвола сообщения А).
Согласно принципу умножения вероятностей, вероятность со вместного появления двух взаимозависимых событий равна произведе нию вероятности появления одного из событий на условную вероят ность другого события относительно первого:
|
p (ait bj) = р (а,) р (bj/a/) = р (bj) р (at/bj). |
(19) |
||
Тогда энтропия взаимозависимых событий А и В |
|
|||
|
Н (А, В) = — 2 |
Р (at, bj) log р (ait bj) = |
|
|
|
ui |
|
|
|
|
= — 2 P (at) P (b//ai) log p (at) p (bj/a,) = |
|
||
|
ui |
|
|
|
|
= — 2 P ifli) P (bj/ad [1 Ogp (a/) + |
log p (bj/a,)] = |
|
|
|
i.i |
|
|
|
= — 2 P (ad bg p (at) 2 p (bj/ad — 2 P (ad 2 P (bj/ad log P (bj/ad. |
(20) |
|||
* |
/ |
t |
/ |
|
В выражении (20) сумма — 2 |
p (a;) log p (ad — не что иное, как эн |
|||
тропия |
объекта Л, сумма — 2 |
р (Ь/1ас ) log р (bj/ad — условная |
эн |
тропия объекта В при условии, что реализовалосьi-e состояние объек
та А. |
Если учесть, ч т о 2 р (bj/ad = 1 и 2 |
р (ad = |
1, то выражение |
|
(20) |
может быть записано в виде |
|
|
|
|
Н (А, В) = — 2 |
Р (ad log p ( a d — h p |
(bj/ad bg P (bj/ad = |
|
|
* |
/ |
|
(21) |
|
|
= H (A) + H (B/A). |
||
Таким образом, в самом общем случае можно сказать, что энтропия |
||||
двух статистически связанных событий равна сумме |
безусловной Н (Л) |
и условной Н (В/А) энтропий. Это хорошо согласуется с общим поня тием условной энтропии в том смысле, что она представляет собой не которую добавочную энтропию, которую дает сообщение В, когда эн тропия сообщения Л уже известна.
Поменяв местами Л и В в выражении (21), нетрудно убедиться в том, что
Н (В ,А ) = Н(В) + Н(А/В).
28
При отсутствии статистической зависимости между сообщениями
А я В
Н(В, А) = Н(В) + Н(А).
При полной статистической зависимости, когда появление одного со бытия однозначно определяет информацию о другом событии, энтропия сообщений А я В
Н(А, В) = Н(А) = Н(В).
Если элементы источника сообщений принимают состояния аг,
а2, ..., щ , ..., ап с вероятностями соответственно р (%), р(а2).....р (а£), р(ап),
аэлементы адресата — состояния
Ьг, Ь2, ..., bj, ..., |
bn с вероятностя |
|
|||||
ми соответственно р(Ь^), |
р(Ь2), ... |
|
|||||
..., р (bj), |
..., |
р (Ьп), то понятие |
|
||||
условной энтропии Н (ajbj) выра |
|
||||||
жает |
неопределенность |
того, |
что, |
|
|||
отправив ait мы получим bj, а по |
|
||||||
нятие |
Н (bjla{) |
неуверенность, |
|
||||
которая остается после |
получения |
Ь:, |
|||||
bj, в том, что |
было отправлено |
||||||
именно а£. Графически это может |
|
||||||
быть представлено следующим об |
|
||||||
разом (рис. 11). |
Посылаем сигналы |
Рис. 11. Иллюстрация неопределеннос |
|||||
а£. Если в канале связи присут |
|||||||
ти принятия сигнала bj при передаче а£. |
|||||||
ствуют помехи, то с различной |
|
||||||
степенью |
вероятности |
может |
быть |
принят любой из сигналов |
а{, и, наоборот, принятый сигнал 6/ может появиться в результате отправления любого из сигналов щ (к этому вопросу мы еще вернемся в дальнейшем, при рассмотрении условий передачи сообщений в каналах связи под действием помех).
Формула условной энтропии отличается от классического выраже
ния (18) тем, что значения вероятностей — другие: |
|
ЩЬ,/а,) = — 2 р (bjlot) log р (bj/cti). |
(22) |
/ |
|
Ввиду того что для характеристики любого произвольного состояния адресата В выбран индекс /, при вычислении Н (bjla{) суммирование следует производить по /, в связи с тем, что именно энтропия bj нас интересует после отправления а£.
Так как для характеристики любого произвольного состояния ис точника А выбран индекс i, то при вычислении Н (a^bj) суммирование следует производить по t, поскольку именно оставшаяся энтропия множества отправленных символов нас интересует после получения символа bj:
H(at/bj) = — 'Iip(ailbj)\ogp(aiIbj). |
(23) |
29