
книги из ГПНТБ / Толстоусов, Г. Н. Прикладная теория информации учеб. пособие
.pdfраскрываемое на.втором этапе Нг |
, т .ѳ . |
математическое ожида |
|
ние величины |
. |
|
|
Величина HI |
получается в |
случае, если состояние вспомо |
|
гательного источника содержится |
в группе |
£^ . Вероятность это |
го, как было указано ранее, равна pL . Следовательно, для ма тематического ожидания
|
|
|
Рь |
■ |
(**} |
_ |
Если |
раскрыть |
неопределенность вспомогательного |
источника |
|
с |
равновероятными состояниями |
непосредственно, |
то согла |
||
сно |
(4.10) |
получим |
|
|
|
№ )
Согласно третьей аксиоме неопределенность не зависит от
способа раскрытия, |
поэтому |
|
|
|
Подставляя значения |
из |
(4 .13), (4.16) |
и (4 .17), имеем |
|
logt KL=n(p„ps,...pj% |
ft CcgKc . |
|
||
Отсюда искомое значение энтропии исходного источника |
||||
н(РиР*>..РЛ)= |
Я |
ъ . |
|
|
Умножая второе |
слагаемое на величину У р. |
равную ѳди- |
||
нице, получаем |
|
|
|
|
|
|
|
Kl |
|
Учитывая (4 .12), имеем окончательное»выражение |
||||
Н(Р,*Р*.:РП.)=-£РС&ЧРС - |
K«) |
|||
Таким образом, |
основываясь на трех аксиомах, |
изложенных в |
§ 3, мы получили выражение для энтропии дискретного источника информации.
Рассмотрим некоторые свойства энтропии. Следует сразу от метить, что I - 3-ѳ свойства вытекают из трех аксиом и поэтому
19
здесь не рассматриваются.
4. Энтропия есть вещественная, ограниченная и неотриц ная функция. Это следует из того, что значения вероятностей за ключены в пределах
|
5. |
Для систеиы с однии возыовныы состоянием энтропия р |
||||
нулю. |
В этом |
случае ѵ. в ' (4.18) следует |
положить р= 1, |
Dl- О |
||
( і, |
= 2 . . . |
гг |
) . Тогда, |
очевидно, |
для первого источника^ |
|
имеем |
|
|
|
|
|
|
|
|
|
|
= 0 . |
|
|
|
При вычислении последующих слагаемых сталкиваемся с неопре |
|||||
деленностью вида |
О ‘ о° , |
Раскрывая |
неопределенность, |
получим |
||
&/пр&зср= Ііпг^Я£--£йп |
=Зслгр-Зоде-О. |
|
||||
P-о |
Р-'О ф р-*о |
|
* |
|
Таким образом, каждое слагаемое в (4.18) равно нулю, и эн тропия равна нулю. Действительно, никакой неопределенности у системы с одним, а следовательно, известным состоянием, не мо жет быть.
6 . Если вероятности состояний источника изменяются та их величины сближаются, энтропия увеличивается. Рассмотрим веро
ятности р , |
и |
рл |
двух |
произвольных состояний. Пустьр, |
. |
Изменим эти значения в сторону сближения. Обозначим новые зна |
|
||||
чения через |
рі |
и |
рі |
. Учитывая, что сумма всех вероятнос |
|
тей постоянна |
(она |
равна |
единице), получим |
|
РМ +& Р.
p ’=pz - b p .
Предполагая, что д р мало, вычислим вариацию энтропии
ЛН :
(-*9« ' 8* *
20
+ & $ ф р = (& $ -$ )А р .
Так как р г ^Р/ и |
Ар^О , |
ю |
вариация положительна и |
||
свойство |
доказано. |
|
|
|
|
7 . |
|
Энтропия максимальна |
в |
случае равновероятных состояний |
|
источника. Для доказательства необходимо найти условия экстре |
|||||
мума функции |
(4 .18). При решении задачи необходимо учесть, что |
||||
аргументы |
р^ |
функции не могут изменяться произвольно. Вероят |
|||
ности всегда подчиняются условию |
|
|
|||
|
|
£ / > . = / . |
|
|
(Ш |
Для решения используем метод неопределенных множителей Лагранжа.
Составим вспомогательный функционал
F = -iPcto9Pi+A(£f Pc - l) , |
№ ) |
где Ä - неизвестный постоянный множитель Лагранжа.' Составим условия экстремума функционала:
Заметим, что условия экстремума функционала (4.20) |
и функции |
(4.18) одинаковы. Указанные выражения одинаковы по |
величине,так |
как согласно (4.19) последнее слагаемое в (4.20) равно нулю. |
|
Из (4.21) следует, что в точке экстремума все |
вероятности |
одинаковы, т .ѳ . состояния равновероятны. Экстремум |
(он один) |
соответствует максимуму, что следует из предыдущих свойств энт ропии. Таким образом, максимальное значение энтропии источника равно логарифму числа состояний
Нтж = е°$'г
и достигается в случае равновероятных состояний источника. Рассмотренные свойства хорошо характеризуют энтропию как
21
меру неопределенности. Наибольшей неопределенностью источник обладает при равновероятных состояниях. Тогда все состояния рав ноценны и наы необходимо выбирать одно состояние среди одинако вых. Здесь мы испытываем наибольшие затруднения и информация о действительном состоянии источника для нас наиболее ценна.
Единицы измерения энтропии зависят от основания логарифмов, выбранного при вычислении энтропии согласно соотношении (4 .18). Для двоичной системы счисления, когда основание логарифмов рав но 2, энтропия измеряется в битах. При использовании десятичных логарифмов энтропия измеряется в дитах; при натуральных - в нитах.
Зависимость энтропии источника |
|||
с двумя возможными состояниями от ве |
|||
роятности состояний показана на рис. |
|||
4 .3 . На рисунке обозначено |
рі » p |
, |
|
тогда $t=» I - р |
. Видно, что в |
||
качестве единицы энтропии, равной I |
|||
биту, можно принять энтропию источ |
|||
ника с двумя равновероятными состоя |
|||
ниями. |
|
|
|
Для численных расчетов |
удобно |
||
пользовгться таблицами функции |
|
||
t f p b - P t y z P |
. |
при |
|
водимой в литературе |
по теории ин |
формации [З] .
В заключение заметим, что выражение (4.18) для вычисления энтропии можно представить как математическое ожидание логариф ме вероятности состояний источника
|
Н(Х)= м[- &$Р(Х)] t |
(4.23) |
|
где Н(Х) - |
энтропия источника |
информации |
X ; |
М[ 3 - |
операция математического ожидания; |
||
P C X ) - |
вероятность любого |
случайного |
состояния источника, |
|
рассматриваемая как |
случайная |
величина. |
Действительно, состояния источника случайны. Вероятность
появления |
состояния |
равна |
. Если мы поставим в соот |
ветствие |
появлению состояния Хі |
появление величины - toflp. » |
22
то последняя тоже станет случайной и будет появляться с вероят ностью рс .
Понятие энтропии как математического ожидания будет исполь зовано в следующих параграфах.
§ 5. Энтропия объединения независимых источников
По линии связи одновременно могут передаваться сообщения нескольких источников информации. Поэтому с целью создания луч ших условий передачи целесообразно рассматривать эти источники не изолированно друг от друга, а совместно, как один сложный, комплексный источник, называемый объединением источников.
|
Рассмотрим вначале объединение, состоящее из двух дискрет |
|||||||
ных источников информации X |
и У . |
sc, , х г |
||||||
|
Пусть |
источник |
X |
имеет |
/г |
возможных состояний |
||
. . . |
Хп , |
а |
источник |
Y |
ийеет пг |
возможных состояний |
yt , |
|
. . . |
. |
По каналу |
связи передается сообщение о действительном |
состоянии обоих источников. Тогда сообщением могут быть все по
парные |
комбинации состояний источников: Xtyi ; Х,ул . . . |
Хп |
* т*е. всего имеем ГЪ*т разных сообщений. Под состо |
яниями объединения понимаются все комбинации состояний источни
ков, входящих в объединение. |
Чему равна |
вероятность |
одного |
из |
|||
состояний |
объединения |
X^ |
? Это есть |
вероятность произведе |
|||
ния, т .е . одновременного появления двух |
событий: X - Х с |
(ис |
|||||
точник X |
находится |
в состоянии |
Х0 ) |
и Y~*/y |
(источник |
||
Y находится в состоянии |
) . |
Эту |
вероятность обозначим |
||||
следующим образом: |
|
|
|
|
|
|
|
|
Рѵ = р [ х ~ х і ; у . ^ ] |
ш |
|
Объединение есть некоторый источник, у которого возможны т*гь состояний. Если известны все вероятности этих состоя
ний (5 .1 ), то |
энтропия объединения Н(Х Y) |
по определению энтро |
пии источника |
(Ф.І8) может быть записана следующим образом: |
|
|
H< x r h - ifc P v &>?Pv . |
t o ) |
Используя операцию математического ожидания, выражение (5.2) может быть записано в вида
25
И(ХГ)=м[-еодР(ХУ)], |
(Si) |
где P(XY) - вероятность состояния объединения, |
рассматривае |
мая как случайная величина.
Полученное выражение для энтропии объединения зависит от вероятности произведения состояний источников. Эта вероятность вычисляется различным образом для различных видов взаимосвязи
между источниками. |
|
Предположим, что источники X и У |
независимы. Для не |
зависимых источников вероятности состояний одного источника не зависят от того, в каком состоянии находится другой источник.
Пусть источник X |
характеризуется табл. 5 .1 , |
а источник У |
||||||
- табл. 5 .2 , |
где |
^ |
есть вероятность состояния ß |
|
||||
|
|
Таблица |
|
б .І |
, |
Таблица |
5 .2 |
|
Хі, |
Xi |
Xx • • • |
РЛ |
ь |
& • * • Ѵѣ |
|||
Pi |
Pt |
Ръ |
« • « |
J L L |
• » |
• |
||
- |
Вероятность произведения |
состояний для независимых |
источ |
|||||
ников равна |
произведению вероятностей этих состояний: |
|
||||||
|
|
|
ІѴ=АѴ |
|
|
(SM |
||
|
|
|
|
|
|
|||
|
|
P (X Y hP iX )P {Y ) . |
|
(SS) |
||||
|
Подставив |
(5.5) |
|
в (5 .S ), получим |
|
|
Н(ХykM j-fy[m )P(Y)]J=r{-tofi)(K )]+M [- & уР (у/
Используя выражение для энтропии дискретного источника в виде (4.23), имеем
//(ХУ)=н(хІ+н(г). (S6)
Полученный результат может быть обобщен для объединений, составленных из произвольного числи независимых источников:
24
н(х у zw... )=н(х)+н(у)+н(г)+h (w)+... |
ш) |
Энтропия объединения независимых источников равна сумме энтропий источников, входящих в объединение.
§ 6 . Энтропия объединения зависимых источников Условная энтропия
Рассмотрим объединение двух зависимых дискретных источни |
|
ков информации X |
и У , Источники называются зависимыми,ког |
да вероятности состояний одного источника зависят от того, в |
|
каком состоянии находится другой источник. |
|
Вычислим энтропию объединения зависимых источников. Веро |
|
ятность состояния |
объединения Р (Х У) в этом случае равна |
произведению вероятности первого источника на условную вероят
ность |
второго. Принимая, например, ъ качестве первого источник |
X |
, имеем |
|
|
Р(Х У)=Р(Х)Р( Y/X), |
|
|
|
(6.1) |
где Р(У/Х)~ |
условная вероятность источника |
У |
, |
вычисляемая |
||
|
|
при известных состояниях |
источника |
X . |
||
Подставив |
(6.1) в выранение для |
энтропии объединения |
||||
(5 .3 ), получим |
|
|
|
|
|
|
Первое слагаемое в правой части согласно |
(4.23) |
представля |
||||
ет собой энтропию первого источника: |
|
|
|
|
||
|
|
Н{Х)=м[- £о$Р(Х)]. |
|
|
(65) |
|
Рассмотрим второе слагаемое выражения (6 .2 ) . |
Условная ве |
|||||
роятность Р(У/Х)рассматривается здесь |
как случайная величина. |
|||||
Случайными |
являются состояния |
|
), |
для |
которых |
|
вычисляется |
вероятность и условия ( Xf ,X z ... |
x ^ , |
), при ко |
торых эти вероятности вычисляются. Каждое конкретное значение - появляется с вероятностью, равной вероятно -
сти произведения , т .е . одновременного появления как
25
Y- , так и X - X c . Поэтому математическое ожидание необходимо определить следующим образом:
|
|
|
м[-& уР(У/Х)/=-£1 Р¥ ео$р(у./хс) , |
|
|
(ел) |
|||||||||||
|
Для конкретных значений |
Х - х ^ |
и |
У~у# |
согласно |
(6.1) |
|||||||||||
имеем |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Подставляя |
(6 .5) |
в (6 .4 ), |
получим |
|
|
|
|
|
|
|||||||
|
м[-&уР(У/х)]=£рс[-1 Р^Ю & уРІЪ/Хі)]. |
|
|
(6-6) |
|||||||||||||
Выражение |
в квадратных |
скобках |
|
|
|
|
|
|
|
|
|
||||||
|
|
|
H (Y/xl)=- Z p fa /x J Coypfa/xc) t |
|
|
(е.г) |
|||||||||||
согласно (4 .1 8 ),есть энтропия |
источника |
У . |
В |
это |
выражение |
||||||||||||
вместо |
априорных |
вероятностей |
источника |
У |
входят |
условные |
|||||||||||
вероятности P (y J |
, |
которые |
необходимо |
использовать,ког |
|||||||||||||
да |
нам |
известно, |
что источник |
X |
находится |
в |
состоянии |
х с . |
|||||||||
Поэтому энтропия |
Н (У /хс) |
называется |
частной |
условной |
энтропи |
||||||||||||
ей источника. Это мера неопределенности источника |
У |
, |
кото |
||||||||||||||
рая остается, когда нам известно, |
что |
зависимый |
от |
У |
источник |
||||||||||||
X |
находится |
в |
состоянии |
|
|
. |
Частная условная |
энтропия ис |
|||||||||
точника |
У |
ость |
величина, которая может изменяться |
в зависимо |
|||||||||||||
сти |
от |
состояния |
источника |
X |
|
. Вычислим среднее значение вели |
|||||||||||
чин Н(У/хс ) |
, |
которое обозначим чере > И(Y /X ) |
. Осредняя |
||||||||||||||
по |
всем |
состояниям источника |
X |
, |
получим |
|
|
|
|
|
|||||||
|
|
|
|
|
H(Y/X)=lpc Ы г М . |
|
|
|
|
(6.8) |
|||||||
Величина Н(У/Х) |
называется |
условной |
энтропией |
источника У . |
|||||||||||||
Используя |
(6 .6 ), |
(6.7) |
и (6 .8 ), |
имеем |
|
|
|
|
|
|
|
||||||
|
|
|
|
|
H (Y/X htl[-eoyP (Y/X )J |
|
|
|
|
(в-9) |
|||||||
|
Таким образом, неопределенность источника может измеряться |
||||||||||||||||
двумя видами энтропий: |
обычной |
Н(У) |
и |
условной Н(У/Х), |
26
Энтропия H(Y) есть мера неопределенности в тон случае, когда известны только статистические характеристики источника, рассматриваеного изолированно от других источников.Условная энт
ропия Н(У/Х) |
есть нера неопределенности, которая остается у |
||||
источника |
У , |
когда |
становятся известными состояния |
некоторо |
|
го другого |
источника |
X . |
источника X не монет увеличить |
||
Информация о состоянии |
|||||
неопределенности |
источника |
У . Поэтому предположим, |
что |
||
|
|
H(Y)?H(Y/X) |
М |
Предположение (6.10) будет доказано в § 14. Здесь покажем непротиворечивость предположения для двух крайних случаев. Пусть источники JC и У жестко связаны между собой. Информация о состоянии одного источника точно указывает и на состояние дру гого источника. Тогда условная энтропия равна нулю, так как ни какой неопределенности не остается:
H(Y/X)=0<H(Y).
Если источники независимы, то информация о состоянии одного ис точника не может уменьшить неопределенности другого. В этом случае имеем
H(Y/x) = H(Y).
Подставляя (6 .3) и (6 .9) в (6 .2 ), подучаем выражение для энтропии объединения зависимых источников
H[XY)=H(X) +H(Y/X). |
(&н) |
|
Заметим, что выбрав |
в качестве первого источник У |
, мы полу |
чили бы результат в |
следующем виде: |
|
H(XY) =Н(У) + Н (Х /У ). |
(Ш |
Энтропия объединения зависимых источников равна сумме энт ропии одного источника и условной энтропии другого источника.
Для независимых систем H(Y/X)~H(Y) и получаем доказан ный в § 5 результат:
h(x y )--h (x )+h [y ).
27
Учитывая предположение (6.10), в общей случае имеем
HIXY)±H(X) +H(Y). |
|
(&ö) |
Энтропия объединения иаксѵшальна, когда входящие в нее ис |
||
точники независимы. |
Х , , Х х .. • Л« |
|
Для произвольного числа источников |
.вхо |
|
дящих в объединение, обобщая результат |
(6 .I I ) , получим |
|
H(xtx„. .x^ ufxj+ H fxjxj+ |
|
|
+Н(ХЛ/Х,Х,)+... +н(Хк/Х <Хх . .. Х н<). |
I M |
Необходимо учитывать сложность как вычислительной работы, так и подготовки статистического материала для определения выражения (6 .14). Условные плотности вероятности, начиная с трехмерных
P(X3j X 1Хл), получены лишь для ограниченного числа случаев.
§7. Энтропия случайной последовательности
Впредыдущих параграфах рассматривались дискретные источни ки информации, которые не меняли своих состояний. Эти источники находятся в каком-то одном состоянии, и после приема сообщения, указывающего на это состояние, неопределенность источника стано вится равной нулю. Больше от этого источника передавать сообще ния не нужно.
Более общий и чаще встречающийся случай дискретных источни ков - это источники, которые меняют свои состояния с течением времени. Меняет свои параметры самолет в полете. Меняют свои па раметры контролируемые детали на конвейере, хотя каждая конкрет ная выпущсмна-я деталь параметров не меняет. Меняет свои парамет ры и такой источник информации, как телеграфное сообщение: после
передачи |
первой |
буквы будет п ерѳдаваться другая; |
|||
В начальный момент времени источник находится в состоянии |
|||||
Х ° , |
которое |
представляет |
собой |
одно из п возможных состоя |
|
ний ( |
|
. г OZ |
). |
Затем |
в некоторый момент времени |
і>і источник меняет свое состояние и переходит в состояние Х \ которое также является одним из гь возможных состояний ( ЭС1 ,
28