
книги из ГПНТБ / Бовбель, Е. И. Элементы теории информации
.pdf
|
|
|
|
Т а б л и ц а 2 |
|
|
Т а б л и ц а 3 |
||||
\ |
x i |
* i |
|
|
У2 |
|
* 3 |
|
|
Хп |
*3 |
У і |
\ |
|
|
0 , 1 |
5 |
0 , 0 5 |
|
|
2,74 - |
4,32 |
|
Ух |
o . l |
|
Уі |
1 3.32 |
|||||||
Уг |
0 |
, 0 |
5 |
0 |
, 0 |
3 |
0 , 0 2 |
У2 |
4,32 |
5,06. |
5,64 |
Уз |
0 |
. 3 |
|
0 |
. 2 |
|
0 , 1 |
Уз |
1,74 |
2,32 |
3,32 |
Подставляя сюда значения Р( хі, у/.) из табл. 2, получа ем табл. 3 точных неопределенностей Н(хі, у/):
Среднее количество неопределенности в любом сов местном наступлении событий x t и у/ равно, по опреде- ' леншо среднего значения, сумме произведений значений ’случайной величины Н(хі, у /) па вероятность этого зна
чения:
Н(Х, |
Г) = |
3 |
3 |
РхХі< У1)\ 0 ё р(х/, у,) = |
|
- Ѵ |
V |
||||
|
|
|
/=1 |
j=I |
|
= |
2 |
' 2 |
н (х>> Уі)р (хі> Уі)=2,7Ь (бит). |
||
|
i= i ; = i |
|
|
|
|
Таким |
образом, точные |
значения неопределенностей |
в том или ином совместном наступлении события (хи У]) давались табл. 3, усреднением мы равномерно «размаза ли» эти разные количества неопределенностей по всем .со бытиям (xit У/), приписав каждому среднее количество
неопределенностей, |
равное 2,76 бит. |
|
|
|
|||
|
|
Т а б л и ц а 4 |
, |
|
Т а б л и ц а 5 |
||
зтХ ; |
Хі |
*2- |
*3 |
|
|
Хо |
*2 |
|
|
|
|||||
Уі |
0,222 |
0,395 |
0,294 |
Уі |
2.171 |
1,361 |
1,766 |
Уг |
0,111 |
0,079 |
0,118 |
Уз |
3,171 |
13.662 |
3,074 |
Уз |
0,667 |
0,526 |
0,588 |
Уз |
0,584 |
0,908 10,766 |
Найдем теперь точные значения неопределенностей в наступлении события уу при известном исходе некоторо го другого события х і . Для этого необходимо7 знать ус ловные вероятности Р(У]ІХі ) } а затем воспользоваться формулой
Н (У]Іхі) = — log P(yj,!XiX
2Д)
• Найдем |
сначала |
безусловные вероятности Р(х/) п |
|||
P(yj) по |
формулам |
полной |
вероятности |
|
|
р(х{) = 2 р ( |
уу). |
P(yß = |
2 |
Уу) |
|
|
7=1 |
|
|
Ы |
|
и табл. 2. Тогда: |
|
|
|
|
|
Я(л^) = 0,45, |
Р(х2) = |
0,38, |
Я(*3) = |
0,17, |
|
Я Ы = 0 , 3 , |
Я(і/2) = |
0,1, |
Р(У,) = |
0,6. |
Наконец, по формуле умножения вероятностей вычис лим
Р(УіІХі) = Я'(лѵ, У ] ) / Р ( хі).
Из табл. 5 видно, что наибольшей неопределенностью исхода обладает событие tj2 при любом известном собы
тии xt. При каждом заданном xi H ( y j / x i) является слу чайной величиной, значения которой появляются с веро ятностями P(yjlXi). Поэтому среднее значение H(yjj х() при заданном хі
< |
H(yj!хі) > = 2 |
p (yjl*i) = |
|
|
о |
j - г |
|
= |
—2 |
P(yj!*i) logPQ/j/xi) = H(Yjxi). |
|
|
/= 1 |
|
|
Подставив сюда значения Р(уі/хі) |
из табл. 4, найдем |
||
H(Y/xi) = |
1,224, H(Y/x2) = 1,306, |
H(Y/x3) = 1,3325. |
Эти результаты образуют случайную величину, значения которой наступают с вероятностями Р(х.і). Поэтому только среднее H(Ylxi ), усредненное с весом Р(хі), не случайно, а именно:
Н ( У / Х )=% Н ( У / х 0 Р ( хс) =
/= I
= - |
2 |
І |
Уj) log Pü/jlxi) = 1,274. |
|
|
7=1 |
|
Таким |
образом, |
точные значения неопределенностей |
|
fe некотором yj |
при каком-либо известном x t даются ве |
личиной H(yjfxi). Среднее количество неопределенности в любом из yj при заданном хі определяется величиной H(Yjxi). Количество же неопределенности в среднем в
21
любом из yj при любом заданном x t — //(К Д ). Други
ми словами, знание любого из хі |
несет неопределенность |
||
в любом наступлении у , в среднем равную Я (К Д ). |
|||
В условиях этой задачи самостоятельно |
покажите, |
||
что Н(Х, |
К ) < Я Д ) + Я ( К ) . |
|
|
Задача 3. Вероятность появления события при одном |
|||
испытании |
равна р, вероятность |
непоявления |
события |
q = 1—р. При каком р результат испытания обладает наи большей неопределенностью?
О т в е т : р = 0 ,5 , так как в этом случае Н(Х) = = Н тп(Х).
Задача 4. По цели может быть произведено п незави симых выстрелов; вероятность поражения цели при каж дом выстреле равна р. После k-vo выстрела производится разведка, сообщающая, поражена или не поражена цель. Если поражена, стрельба прекращается. Определить k из того условия, чтобы количество инфор мации, доставляемое разведкой, было максимальным.
Р е ш е н и е . Рассмотрим физическую систему Х к— цель после k-то выстрела. Возможные состояния систе мы Хк: Х\— цель поражена; х2— цель не поражена.
Вероятность непоражения цели после k выстрелов по теореме умножения независимых событий.
Р(х2) = (1 —р)к = <?*•
Тогда вероятность поражения цели будет равна вероят ности противоположного события:
Р(*і) = 1 - Р ( х 2) = 1 - ( 1 -/>)*.
Так как после опыта предполагается отсутствие неопре деленности (с вероятностью «единица» известно, после k выстрелов поражена цель или нет), то количество инфор мации, несомое разведкой, численно равно энтропии H(Xk )• А энтропия ансамбля Хамаксимальна тогда, ког да события, составляющие ансамбль, равновероятны, т. е.
(1 — ^ “ 1 — о
и
log (1 - р ) •
Отсюда видно, что если р<§Д, то
. Задача 5. Вероятность появления события А при од ном, испытании равна р. 'Испытания повторяются до пер-
22
вого появления'события А. Найти энтропию числа испы таний.
Р е ш е н и е . Определим распределение случайной ве личины X — числа испытаний. X может принимать зна чения от единицы до бесконечности. Вероятность полу чить событие А в первом испытании ( х = \ ) равна р, во втором (1— р)р, в k-u (1—р)к^1 р. Таким образом, опыт X выглядит так:
Х = ( ^ |
2 |
3 |
. . . |
k ■ . . . |
[р (1 - р ) р (1 —p f p |
. . . (1 - р)к-'р . . . |
и его энтропия
со
Н(Х) - |
— Ѵ >(1 |
— р)**! log [/7(1 —p )k~ '] = |
|
*=1 |
|
= —p \ 0 g |
со |
со |
qk~x— р log q % {k — l) q k~l, (1.16) |
||
|
к«=1 |
k= \ |
где q = 1—p. Ряд, стоящий сомножителем в первом
слагаемом, есть геометрическая прогрессия. Поэтому
оо
(1Л7)
к=1
Продифференцировав тождество (1.17) по q и умножий обе его части на q, получим ряд, стоящий сомножителем во втором слагаемом (1.16). Подставив в (1.16) найден ные суммы рядов, получим
ЩХ) = — Р ]0gP + q ]0gq
Чем можно |
объяснить, что при р =f= 0 опыт X, имею |
||||||
щий бесконечное число членов, |
обладает |
конечной |
не |
||||
определенностью? |
Наверное, тем, что |
при |
достаточно |
||||
большом k вклад членов вида |
(pqk)log(pqk) незначи |
||||||
телен, |
так как |
lim |
(pqk) log (pqk) = 0, |
и поэтому |
при |
||
k > 1 |
|
k-y ОО |
|
|
|
|
|
мы можем со сколь угодно большой степенью точ |
|||||||
ности (в смысле точности Н(Х)) |
говорить о схеме X |
ко |
|||||
нечного вида. |
|
|
|
|
|
|
|
§ 3. Количество |
информации от |
опыта |
в общем случае |
При получении формулы для количества информации предполагалось, что после опыта неопределенности в его исходе нет. Однако можно привести множество приме
23
ров, когда после получения информации у нас остается еще некоторая неопределенность. Вот два из них.
1. Пусть известно, что напряжение на клеммах не торого источника может изменяться в пределах 180— 230 вольт. Поэтому на вопрос, каково напряжение в дан ный момент времени с точностью до одного вольта, мож но высказать 51 предположение: 180, ..., 230 вольт. Пусть опыт заключается в измерении напряжения с точностью ,±'5 вольт. Произвели опыт. Напряжение оказалось рав ным 220 вольт. Значит, на самом деле истинное значение напряжения находится где-то между 215—225 вольтами.
Тогда заключаем, что после такого опыта на |
ннтересую- |
||||||
|
щий нас вопрос можно высказать |
||||||
Шим |
уже |
11 предположений: 217, ..., |
|||||
223 вольта. Таким образом, пос |
|||||||
|
|||||||
_______ _____ |
ле |
получения информации хотя |
|||||
|
|
|
|
|
|
||
Линия |
и |
остается некоторая |
неопреде |
||||
связи |
ленность, но эта неопределен |
||||||
Рис. 2 |
ность |
становится |
меньшей, |
чем |
|||
до опыта. |
|
|
|
||||
|
|
|
|
||||
За счет чего мы уменьшим неопределенность об ис |
|||||||
тинном значении |
напряжения источника? |
Очевидно, |
за |
с,чет того, что в результате опыта мы приобрели некото рое количество информаций, численно равное разности между количеством неопределенности до и после опыта. Вычислим его в предположении, что все значения напря
жений равновероятны. |
Тогда |
энтропия до опыта Н { = |
||||||
= log 51 = 5,672 (бит), |
а |
после |
опыта |
Я 2 = |
log Ы = |
|||
=3,459 (бит), и-количество |
информаций |
об |
истинном |
|||||
значении напряжения (с точностью до 1 вольта) |
от тако |
|||||||
го опыта |
/ = |
Н\—# 2= 2 ,2 |
(бит). |
Очевидно, |
повышая |
|||
точность измерения, мы увеличим |
количество |
получае |
||||||
мой • информации. |
|
|
|
|
|
|
||
2. |
Пусть |
имеется |
некоторая |
линия связи, в которо |
действуют шумы, искажающие передаваемые по ней сиг-’ налы (рис. 2). По линии связи передаются сообщения, составленные по некоторому закону из п различных сиг налов хі . Сигналы, смешавшись с шумом, поступают на выход линии связи. Обозначим принимаемые сигналы буквой y j ( j = \ , 2, ..., m ). После приема сигнала у г мы не
можем достоверно сказать, какому из переданных сигна лов х і он соответствует, так как случайный шум может
из любого сигнала хі создать подобный ему сигнал у г.
24
В этом случае для принятия правильного решения необ ходимо использовать вероятности P(xijyj).
Если, к примеру,, они оказались такими, что любой сигнал хі (кроме.хг) со сколь угодно малой вероят ностью (раз в столетие) может превратиться в уг , то, приняв этот сигнал, мы с как угодно близкой к единице вероятностью можем утверждать, что был передан х п так как
п |
|
2 Р(Хі/Уг) ^ Р(хг/Уг) = 1. |
( 1. 18) |
Если бы дело обстояло так со всеми передаваемыми сиг налами х і (і= \ , 2, ..., п), мы могли бы считать, что в ка нале связи вообще отсутствуют шумы, и соотношение бы ло бы справедливо для всех сигналов л>*
Иначе говоря, после опыта (после приема какого-либо сигнала y j ) у нас нет никакой неопределенности в соот ветствии принятого у] переданному хі , и количество*ин формации,содержащееся в yj о хі, численно равно неоп ределенности принять в данный момент какой-либо сиг нал X і, т. е. энтропии ансамбля сигналов
1(Y, X) = Н(Х).
Однако наибольший интерес представляет другой крайний случай, когда искажения сигналов в линии свя зи таковы, что любой из сигналов хі может с равной ве роятностью перейти в любой из сигналов yj. Это соответ ствует случаю, когда сигналы yj и хі статистически не зависимы (см. задачу 2 §.2), т. е.
Тогда, наблюдая у\лмы не получаем никакой информации о х і . Что же необходимо предпринять при таком разру шающем действии шумов на передаваемую информацию? Имеется единственный выход— подобрать такое разли чие (вид модуляции) в передаваемых сигналах хі , чтобы вероятности искажений были как можно ближе к (1.18).
Подсчитаем количество информации, имеющееся (в среднем) в сигнале yj о сигнале хі при произвольной ста тистике искажений p(xi/yj).
25
Среднее количество неопределенности, которым мы обладали до опыта, равнялось Н(Х). Представим теперь, что мы примяли какой-то сигнал yj (к примеру, tjn) и оцениваем, какова неопределенность (после опыта) соот ветствия его некоторому переданному хі (к примеру, х\). Эта неопределенность равна
— log P(xi/yj) = Н{х,-:;У]).
Как видим, неопределенность этого соответствия яв ляется случайной величиной, значения которой при каж дом заданном у j наступают с вероятностями P(xi'yj). Поэтому среднее значение количества неопределенности
соответствия данного yj |
(У2) любому из хі |
|
ЩХ/'У;) |
п |
Р(хі!у j) log P{XilУj). |
= - V |
||
|
І“ 1 |
|
Величина H(X/i/j) |
также случайна. Вероятности ее зна |
чений равны Р( уj). Тогда среднее значение H(X/yj) оп ределит среднее количество неопределенности соответст
вия любого yj |
любому из Л'I. Обозначим |
это среднее |
||||
H(XIY). |
|
|
т |
|
|
|
Щ Х /Y) = |
|
|
|
|||
V H{Xiyj) P(yj) = |
|
|||||
|
п |
in |
/= 1 |
|
|
|
|
Р[Х‘' |
yß |
1о§ p (x'!yß- |
|
||
= |
— У) |
2 |
|
|||
|
<•= 1 /= I |
|
|
|
|
|
Другими словами, H(X/Y) |
есть |
средняя |
неопределен |
|||
ность в передаче того или иного хі, если |
известно, что |
|||||
принят тот или иной у р |
или, кратко, средняя неопреде |
ленность ансамбля X после опыта.
Таким образом, мы установили, что неопределенность передачи некоторого сигнала X до опыта Н(Х), а после опыта H(X/Y). Поэтому количество информации, имею
щееся в Y о X: |
. |
|
I(Y, X) = |
Н(Х) — H(XiY). |
' (1.19) |
Эта мера количества информации получена нами на при мере передачи сообщений по каналу связи. Совершенно аналогичные рассуждения могут быть применены к слу чайным объектам произвольного вида и приведут нас к той же мере.
26
На основании свойств энтропии 4 и 6
M(Xt Y) = Н (Y) + Н (X/Y).
Подставляя этр выражение в (1.19), получаем
I(Y, X ) = H ( X ) + H ( Y ) - H ( X , Y).
Умножая первое и второе слагаемое правой части равен-
т
ства соответственно на единицы вида l = v P (lJjixi) ~
п |
7 - 1 |
|
= 2 P(x'Jyj). 11 расписывая энтропии через вероятнос-
/=1
ти соответствующих событий, получаем
|
|
|
п |
т |
У])1о? р (*і) - |
|
|
а д |
|
- 2 S |
|||
п |
/и |
|
2= 1 / = 1 |
|
|
|
|
|
/2 |
|
(/у) log Р(*„ Уу) = |
||
— у |
^ P (A 7,yy)l0gP (y7) + V |
|
||||
/=1 |
у=1 |
|
|
2=1 |
|
|
|
|
22 |
2/2 |
|
Уі) |
|
|
= |
2 |
2 р ^*’ |
^ log |
( 1.20> |
|
|
P(Xi)Piyj) |
|||||
|
* |
|||||
|
|
2=1 7=1 |
|
|
|
|
Перечислим основные свойства количества информа |
||||||
ции I(X, Y). |
|
|
|
|
||
1. І(Х, |
Y ) = I ( Y X), |
т. е. |
количество информации,, |
содержащееся в случайном объекте Y о случайном объ екте X, равно количеству информации, содержащемуся а
случайном объекте X о случайном объекте Y. |
|
||||
Свойство |
1 |
сразу же следует из (.1.20), если учесть* |
|||
ЧТО Р(Хі, Уі) |
= Р ( У р |
Хі). |
|
|
|
2. І(Х, г) |
|
0, причем знак равенства имеет |
место* |
||
когда объекты X и' Y независимы. |
|
||||
Положительность І(Х, Y) |
следует из свойства |
9 эн |
|||
тропии. Когда объекты X и Y статистически независи |
|||||
мы, по теореме |
умножения |
вероятностей Р(хі9 |
yj) = |
||
= P(xt) P(ijj) |
и под |
знаком |
логарифмов в (1.20) во |
||
всех слагаемых будет стоять единица, поэтому І(Х, |
Y) = |
=0.
3.1 (X, Х ) = Н ( Х ), т. е. энтропия может быть истол кована как информация, содержащаяся в объектах от носительно самих себя. Из этого также непосредственно вытекает, что энтропия есть максимальное количество информации, которое можно получить об объекте:
27
Ф
Задана 1. Студент может сдать |
зачет по теории'ин |
|||||||
формации с вероятностью |
а, не проработав весь мате |
|||||||
риал |
курса, |
и с вероятностью ß, |
проработав |
весь мате |
||||
риал |
курса; |
или не сдать |
зачет |
с |
вероятностью |
не |
||
проработав весь материал, |
и с вероятностью |
В, |
прорабо |
|||||
тав весь материал курса |
(а-(-р + |
7 - ( - 8 = 1 ) . |
Опреде |
лить среднее количество информации, которое может по
лучить |
преподаватель о подготовленности |
студента по |
|
результатам сдачи зачета. |
|
||
Р е ш е н и |
е. Обозначим через X случайное число сту |
||
дентов |
с определенной сдачей зачета, а через Y — слу |
||
чайное |
число |
студентов с определенной |
подготовлен |
ностью. Пусть Х\— случайное число студентов, сдавших зачет, Хо— не сдавших зачет; у \— случайное число подго товленных студентов; уч— не подготовленных студентов.
По условию задачи известны следующие вероятности:
Р(х1, Уі) а> Р(Х1 , Уі) — ß, Р(х2, уо) — ч,
Р{х2, У ,) = в. |
( 1.21) |
Для определения искомого количества информации по формуле (1.20) необходимо найти соответствующие безусловные^вероятности. Их можно найти из формулы пол ной вероятности:
2 |
2 |
Подставляя в (1.22) соответствующие совместные веро ятности из (1.21), получаем:
_ Р(хі) — Р{хі* Уі) + Р(хі, Уъ) = а + ß;
Я(дг2) = Р{хъ Уі) -f- Р(х2, І/г) — S |
(1.23) |
||
Р(Уі) = Р(хи Уі) + Р(х2) Уі) = ß + 8; |
|||
РІУг) = Р(хи Уг) + |
Р(хг, уг) = |
« + |
•(. |
Наконец, подставим (1.23) |
и (1:21) в |
(Л.20): |
1{Х, Y) = |
P(xl1 y j l o g |
Р(хц Уі) |
I |
|
Р{*і)Р(Уі) |
|
|
+ р іхь Уі)І0g |
+ р(х2, |
Уі) log |
Р(ха, Уі) . ■, |
|
|
|
Р(х2)Р(Уі) |
4
+ Ж*». |
У*) log |
ß |
|
p £ ? py{f j- * ? log (aH~ P)(P ~h ö) |
|||
|
|
|
тт “h |
+ ° ,0& (а + ß)(« + |
-f) + |
° l0g (5 + Tf)(P + 6) + Т l0g (5 +'()(* + -() |
|
Задача 2. |
По |
линии связи с помехами передается од- |
ио из двух сообщений Х\ или х2 с вероятностями соответ
ственно р и (1— |
На |
приемном конце канала сиг |
||||
нал Х\ обозначается |
через у\, а х2 через |
t/2- |
Заданы |
ус |
||
ловные вероятности правильного приема |
Р ( у \/ хі )= |
Д и |
||||
Р(у2ІХо)= 8. |
Определить |
количество |
|
информации |
||
I(Y} X) в общем случае и в случае, когда: а) |
А = 8 = 0,5, |
|||||
б) Д = ( 1 — 8). Объяснить |
полученный результат |
для |
||||
пунктов а) и |
б). |
|
|
|
|
|
Р е ш е н и е . |
По теореме умножения вероятностей: |
Р{хи Уі) = Я *і)Ж Уі/* і)
Р(хг, у г) = р{х2) Р(у2/Х2) =рЬ;
Р(хи у2) = Р(Х,) Р(уг Хх) =-• р{ 1 — Д);
Ң х л, у,) = Р(х2) РІУі/Хг) = р ( \ — Ь).
Подставив в формулу полной вероятности
P(yj) = і Р(ХІ. yj)
/= 1
соответствующие вероятности P(xh yj), найдем вероят ности сообщений y j :
Р{Уі) == Р(хъ Уі) + Pix* У,) = р.Д + р(1 — В);
Р(Уі) = Р(Хі, уг) + Р(Х2, Уг) =р( 1— д) + р ь.
Наконец, среднее количество информации, содержащееся: в у о х:
ц у , Х ) ^ 2 2 р ^ ^ ^ Ш г - |
||
■1=1j —I |
|
|
= Р Д log —-— â --------- h р (1 — A) log ■=—(1- ~ — |
||
— 8) |
|
/> 6 + /> (1 — Д) |
1 - 8 |
+ / ? B I o g ^ —■ |
|
+ / ? ( l - 8 ) l o g |
||
p A + A O — 8) |
' |
8 -f- /?(1 — Д) |
Подставляя сюда A = 8 =0,5 |
и учитывая, ч т о /? + р = 1 , |
|
получаем I(Y, Х ) = 0. |
|
|
|
|
291 |
-а