
Лекции по ТПС
.pdf
|
|
|
p11 |
|
|
|
|
P (k) |
P (k) P (k) |
p21 |
|
1 |
2 |
n |
. |
pn1
p12 |
|
p1n |
|
|
|
|
|
|
|
|
|
p22 |
p2n P (k 1) |
P (k 1) |
P (k 1) . |
||
. |
|
. |
1 |
2 |
n |
|
|
|
|||
|
|
|
|
|
|
pn2 |
|
|
|
|
|
pnn |
|
|
|
Все многообразие марковских цепей подразделяется на эргодические и раз-
ложимые.
Разложимые марковские цепи содержат невозвратные состояния, называемые поглощающими. В установившемся режиме поглощающему состоянию соответствует вероятность, равная 1.
Эргодические марковские цепи описываются сильно связанным графом. Это означает, что в такой системе возможен переход из любого состояния si в любое состояние s j за конечное число шагов.
Для эргодических цепей при достаточно большом времени функционирования наступает стационарный режим, при котором вероятности Pi состояний системы не зависят от времени и распределения вероятностей в начальный момент времени, т. е. Pi const . Такие вероятности называются предельными, или финальными, вероятностями цепи Маркова.
Каждая компонента Pi вектора таких предельных вероятностей характеризует среднюю долю времени, в течение которого система находится в рассматриваемом состоянии si за время наблюдения.
Для определения предельных вероятностей Pi нужно составить систему n линейных однородных алгебраических уравнений с n неизвестными:
|
|
|
|
p11 |
p12 |
|
p1n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
P |
P P |
|
p21 |
p22 |
p2n |
P P |
P . |
|||
1 |
2 |
n |
|
. |
. |
. |
|
1 2 |
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
p |
p |
|
p |
|
|
|
|
|
|
|
n1 |
n2 |
|
nn |
|
|
|
|
Причем |
|
искомые |
вероятности |
должны удовлетворять условию |
|||||
P P ... P |
1. |
|
|
|
|
|
|
|||
1 |
2 |
n |
|
|
|
|
|
|
|
|
При составлении системы линейных уравнений для предельных вероятностей удобно пользоваться понятием потока вероятностей. Назовем произведение потоком вероятности, переводящим систему S из состояния si в
состояние s j . Полная вероятность перехода системы S в состояние s j равна сумме всех потоков вероятностей, переводящих систему в это состояние:
101
n
Pi pij , i j . Аналогично сумма всех потоков вероятностей, выводящих си-
i1
стему из состояния s j , равна Pj |
n |
|
p ji , i j . В стационарном режиме вероят- |
||
|
i |
1 |
ность войти в любое состояние равна вероятности выйти из этого состояния. Поэтому уравнения для стационарного режима можно написать, исходя из следующего правила.
Для стационарного режима суммарный поток вероятностей, переводящий систему S в состояние s j из других состояний, равен суммарному потоку вероят-
n |
|
n |
|
ностей, выводящему систему из состояния s j : Pi pij Pj |
p ji . |
||
i |
1 |
i |
1 |
Указанное условие называется балансовым равенством для состояния s j .
Систему линейных алгебраических уравнений удобно составлять непосредственно по размеченному графу состояний, рассматривая для каждого состояния входящие и исходящие потоки.
Пример. Матрица вероятностей перехода |
цепи Маркова имеет вид |
|||||
0,1 |
0,5 |
0,4 |
|
|
|
|
|
|
|
|
|
|
|
( pij ) |
0,6 |
0,2 |
0,2 |
|
. Распределение состояний в |
момент t 0 определяется |
|
0,3 |
0,4 |
0,3 |
|
|
|
|
|
|
|
вектором 0,7 0,2 0,1 . Найти: а) распределение состояний через два шага в момент t 2 ; б) стационарное распределение вероятностей.
Решение. По условию задачи P1 (0) 0,7 , P2 (0) 0,2 , |
P3 (0) 0,1. Тогда распределение |
|||||||||
вероятностей через один шаг определим по формуле |
||||||||||
|
|
|
0,1 |
|
0,5 |
0,4 |
|
|
||
P (1) |
P (1) |
P (1) 0,7 |
0,2 0,1 |
0,6 |
|
0,2 |
0,2 |
. |
|
|
1 |
2 |
3 |
|
|
|
|
|
|
|
|
|
|
|
|
0,3 |
|
0,4 |
0,3 |
|
|
|
|
|
|
|
|
|
|
|
|||
Получим P1 (1) 0,22 , |
P2 (1) 0,43, |
P3 (1) 0,35 . Теперь определим распределение ве- |
||||||||
роятностей на следующем шаге: |
|
|
|
|
|
|
|
|||
|
|
|
|
|
0,1 |
0,5 |
0,4 |
|
||
P (2) |
P (2) |
P (2) 0,22 0,43 0,35 |
|
0,6 |
0,2 |
0,2 |
. |
|
||
1 |
2 |
3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0,3 |
0,4 |
0,3 |
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
102 |
Таким образом, распределение вероятностей через два шага определяется
вектором 0,385 |
0,336 0,279 . |
|
|
|
|
|
|
|||||||
|
Для нахождения предельных вероятностей Pi |
в стационарном режиме нужно |
||||||||||||
составить |
систему |
из |
|
трех |
линейных |
уравнений с тремя неизвестными: |
||||||||
|
|
|
0,1 |
0,5 |
0,4 |
|
|
|
|
|
|
|
||
P |
P |
P |
|
0,6 |
0,2 |
0,2 |
|
P |
P |
P |
с |
учетом |
дополнительного уравнения |
|
1 |
2 |
3 |
|
|
|
|
|
1 |
2 |
3 |
|
|
|
|
|
|
|
|
0,3 |
0,4 |
0,3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
0,1Р1 |
0,6Р2 |
0,3Р3 |
Р1 |
|
||
P1 P2 P3 |
1 . |
|
|
|
|
|
|
|
0,2Р2 |
0,4Р3 |
Р2 , |
получим стационарное распре- |
||
Решая систему 0,5Р1 |
||||||||||||||
|
|
|
|
|
|
|
|
0,4Р |
0,2Р |
0,3Р |
Р |
|
||
|
|
|
|
|
|
|
|
|
1 |
2 |
|
3 |
3 |
|
деление вероятностей P 16 , |
P |
17 , |
P 14 . |
|
||||||||||
|
|
|
|
|
|
|
1 |
47 |
2 |
47 |
3 |
|
47 |
|
|
|
|
|
|
|
|
|
|
|
|
|
НЕПРЕРЫВНЫЕ ЦЕПИ МАРКОВА
Непрерывные марковские цепи описывают функционирование систем, принимающих в процессе работы конечное число состояний и осуществляющих переходы из одного состояния в другое случайным образом в произвольный момент времени t . Время пребывания системы в любом состоянии представляет непрерывную случайную величину.
Случайный процесс с непрерывным временем называется непрерывной марковской цепью, если поведение системы после произвольного момента времени t0 зависит только от состояния процесса в момент времени t0 и не зависит от предыстории процесса, предшествующей моменту времени t0 .
Будем считать, что переходы системы S из состояния si в состояние s j происходят под воздействием пуассоновского потока событий с интенсивностью ij( t ). При появлении первого события в потоке происходит переход системы из состояния в состояние.
Определим для непрерывной марковской цепи вероятности всех состояний системы для любого момента времени pi ( t ) , i 1, 2,..., n . Так как для любого момента времени t все состояния системы образуют полную
n
группу событий, то pi (t) 1 . i 1
Рассмотрим параметры, определяющие непрерывную марковскую цепь.
103
Пусть система в момент времени t находится в состоянии si . Рассмотрим элементарный промежуток времени t , примыкающий к моменту времени t . За интервал времени t система может перейти из состояния si в состояние s j с переходной вероятностью pij( t,t t ) , зависящей в общем случае
как от t , так и от t . Рассмотрим предел отношения этой переходной вероятности к ширине интервала t при условии, что t 0. Этот предел, как указано в
|
|
p |
( t ,t t ) |
|
|
разд. 10, равен lim |
|
ij |
|
|
ij ( t ). Полученная характеристика назы- |
|
t |
||||
t |
|
|
|
|
|
0 |
|
|
|
|
вается интенсивностью перехода, или плотностью вероятности перехода, и в общем случае зависит от t .
Из формулы следует, что при малом t вероятность перехода pij( t,t t ) с
точностью |
до |
бесконечно |
малых |
высших |
порядков |
равна |
p ( t,t t ) ij( t ) t . |
|
|
|
|
||
ij |
|
|
|
|
|
|
Если плотности вероятностей переходов представляют собой функции времени ij( t ), марковский процесс называется неоднородным.
Если все плотности вероятностей переходов не зависят от t (т. е. от начала отсчета элементарного участка t ), то марковский процесс называется однородным. В этом случае ij( t ) ij const .
Для непрерывных марковских цепей интенсивности переходов проставляются у соответствующих дуг графа. Такой граф называется размеченным.
Кроме интенсивностей переходов, для описания непрерывных марковских цепей должен быть задан вектор вероятностей состояний системы в исходный (нулевой) момент времени P1( 0 ), P2( 0 ), Pn ( 0 ) .
Зная множество состояний системы, значения интенсивностей переходовij( t ), а также вектор начальных вероятностей системы, определим вероятности
состояний Pi ( t ) системы, где Pi ( t ) – вероятность того, что в момент времени t система будет находиться в состоянии si .
Придадим t приращение t и найдем вероятность Pi ( t t ) того, что в момент времени t t система также будет находиться в состоянии si . Это возможно в том случае, если система находилась в состоянии si и за время t не
104
вышла из этого состояния или система находилась в другом состоянии, но за время t перешла из этого состояния в состояние si . Следовательно,
|
|
|
P ( t t ) P ( t ) 1 |
||
i |
i |
|
|
|
|
n |
|
|
|
|
n |
P ( t ) |
|
( t ) t . |
|
ij |
( t ) t |
|
ji |
||||
|
|
|
j |
|
||||
j 1 |
|
|
|
j 1 |
|
|
Запишем полученное равенство в виде
n |
n |
Pi ( t t ) Pi ( t ) Pj ( t ) ji ( t ) t Pi ( t ) ij ( t ) t . |
|
j 1 |
j 1 |
Теперь разделим обе |
части равенства на t и перейдем к пределу при |
t 0. Тогда для вероятностей Pi ( t ) получим систему обыкновенных дифференциальных уравнений:
dPi |
|
n |
n |
|
( t ) |
|
|||
|
|
Pj ( t ) ji ( t ) Pi ( t ) ij ( t ). |
||
dt |
||||
j 1 |
j 1 |
|||
|
|
Система дифференциальных уравнений для вероятностей состояний непрерывной марковской цепи называется системой уравнений Колмогорова.
Интегрирование этой системы по времени с учетом начальных условийP1( 0 ), P2( 0 ), Pn ( 0 ) позволяет получить вероятности состояний как функ-
ции времени Pi ( t ) . В системе Колмогорова можно ограничиться n 1 уравне-
n
нием, используя условие нормировки Pj ( t ) 1 для любого момента t .
j 1
Анализируя дифференциальные уравнения Колмогорова, можно сформулировать правило для их составления по аналогии с дискретными цепями Маркова.
Производная вероятности любого состояния системы равна сумме потоков вероятности, переводящих систему в это состояние, минус сумма всех потоков вероятности, выводящих систему из этого состояния.
Удобно составлять дифференциальные уравнения по размеченному графу системы. Производная вероятности любого состояния системы равна разности сумм входящих и исходящих потоков вероятности для этого состояния.
Это правило составления дифференциальных уравнений Колмогорова для вероятностей состояний является общим и справедливо для любой непрерывной марковской цепи.
105

Для эргодических однородных марковских цепей существует стационарный режим (при t ). Предельные вероятности стационарного режима постоянны, они не зависят от начального состояния системы.
Поскольку в установившемся режиме вероятности состояний – постоянные величины, производные от них равны нулю. Поэтому система дифференциальных уравнений Колмогорова с постоянными коэффициентами вырождается в систему линейных алгебраических уравнений.
Как и для дискретных марковских цепей, предельные вероятности характеризуют среднюю долю времени, в течение которого система находится в данном состоянии при наблюдении за системой в течение достаточно продолжительного времени.
Пример. Система S может находиться в трех состояниях: s1,s2 ,s3 . Интенсивности переходов из состояния в состояние следующие: 12 6 , 13 1, 32 2 . Составьте размеченный граф состояний, запишите уравнения Колмогорова для вероятностей состояний системы.
Решение. Начертим размеченный граф состояний (рис. 13.2).
Рис.13.2
Составим систему дифференциальных уравнений Колмогорова:
|
|
|
dP (t) |
7Р1 |
|||
|
1 |
|
|
||||
|
|
|
|
|
|||
|
|
|
dt |
|
|
|
|
|
|
|
|
|
|
|
|
dP2 (t) |
6Р |
2Р . |
|||||
|
|
|
|
|
|||
|
|
|
|
||||
|
dt |
|
1 |
3 |
|||
|
|
|
|
|
|||
|
dP (t) |
|
|
|
|||
|
3 |
|
Р1 2Р3 |
||||
|
|
|
dt |
||||
|
|
|
|
|
|
|
|
Заметим, что первое состояние данной цепи Маркова является источником, а второе – поглощающим состоянием. Следовательно, данная цепь Маркова не явля-
106
ется эргодической, в ней невозможен стационарный режим. С течением времени система перейдет во второе состояние.
КОНТРОЛЬНЫЕ ВОПРОСЫ:
1.Какой случайный процесс называется марковским?
2.Какой случайный процесс называется дискретной цепью Маркова, назвать типы дискретных цепей?
3.Какое количество переходов имеет граф эргодической дискретной цепи с тремя состояниями?
4.Что понимается под стационарным режимом эргодической дискретной
цепи?
5. Какой случайный процесс называется непрерывной цепью Маркова, правила формирования дифференциальных уравнений Колмогорова для непрерывной цепи с n состояниями?
РАЗДЕЛ 2. ЭЛЕМЕНТЫ ТЕОРИИ ИНФОРМАЦИИ И КОДИРОВАНИЯ
ЛЕКЦИЯ 14. ДИСКРЕТНЫЕ ИСТОЧНИКИ СООБЩЕНИЙ. КОЛИЧЕСТВО ИНФОРМАЦИИ
Чтобы иметь возможность сравнивать между собой различные источники сообщений, каналы и другие элементы системы связи. необходимо ввести количественную меру, которая позволяла бы оценивать, содержащуюся в сообщениях, сигналах информацию.
Строгие методы такой оценки предложены в 1948 г. К. Шеноном, что послужило началом построения теории информации.
Дискретный источник выдает сообщение а, принадлежащее некоторому конечному ансамблю А. Определим количество информации, содержащееся в этом сообщении, используя три исходных очевидных требования:
1)количество информации должно быть аддитивной величиной, т. е. в двух независимых сообщениях количество информации определяется как сумма количеств информации в каждом из них (телеграмма с номером поезда и расписание поездов, необходимые для встречи);
2)количество информации в сообщении о достоверном событии равно 0 (сообщение «солнце встает на востоке»);
107
3) количество информации не должно зависеть от качественного содержания сообщения (степени важности, возможных последствий его передачи, эмоциональной окраски и т. п.).
В общем случае сообщение а из ансамбля А характеризуется вероятностью р(а), что источник формирует т это сообщение, т. е. количество информации i(а), в сообщении а должно быть функцией от вероятности р(а).
Воспользуемся далее требованием аддитивности. Пусть а1 и а2 — два независимых сообщения. Вероятность р(а1, а2) того, что источник выдаст их одно за другим
p(a1 , a2 ) p(a1 ) p(a2 ),
где р(а1), р(а2) — вероятности формирования сообщения а1 и а2 соответственно.
Общее количество информации i (а1, а2) в сообщениях, согласно условию аддитивности определяется как сумма количеств информации в каждом из них:
i(a1, a2 ) i(a1 ) i(a2 ) .
Таким образом, надо найти функцию от вероятности такую, чтобы при перемножении двух аргументов значения функции складывались. Этому условию удовлетворяет только логарифмическая функция
i(a) k log[ p(a)] ,
где k— произвольный коэффициент.
Удовлетворяется и требование 2): при достоверном событии р(а) = 1 и по последней формуле:
i(a) k log l k 0 0 .
Поскольку р(а) < 1 log [p(a)] < О и, чтобы измерять количество информации неотрицательными числами, выбирают k = — 1:
i(a) log p(a) log |
1 |
|
|
|
|
p(a) . |
Логарифм может быть взят по любому основанию. Основание чаще всего выбирают равным двум. Получаемая при этом единица информации носит название
двоичная единица, или бит (от английского: «binary digit»). Она равна количеству
108
информации в сообщении о событии, происходящим с вероятностью р(а) = 0,5 (о событии, которое равновероятно может происходить или нет): i(а)= log22=1, бит.
Такая единица удобна, поскольку в вычислительной технике, технике связи широко используются двоичные коды, двоичные дискретные устройства.
В дальнейшем, записывая обозначение log, будем подразумевать, что речь идет о двоичном логарифме:
Количество информации в сообщении тем больше, чем оно менее вероятно (более неожиданно).
Если дискретный источник передает последовательность зависимых между собой сообщений, то получение предшествующих сообщений может изменить вероятность последующего сообщения, а следовательно, и количество информации, содержащейся в нем:
i(an |
| an 1, an 2 |
,...) log |
|
1 |
|
|
|
|
|
||||
p(an |
| an 1, an 2 ,...) . |
|||||
|
|
|
ЭНТРОПИЯ
Количество информации является случайной величиной, поскольку сами сообщения случайны. Для него существует распределение вероятностей, которое зависит от распределения вероятностей сообщения в ансамбле. Для характеристики всего ансамбля (источника сообщения) используют математическое ожидание количества информации – энтропию:
|
1 |
|
H ( A) M[i(a)] M log |
|
|
|
||
|
p(a) . |
Чем больше энтропия источника, тем больше степень неопределенности передаваемых им сообщений (неопределенность ожидаемого сообщения) в среднем. Энтропию называют мерой неопределенности сообщений. При этом под неопределенностью понимают неопределенность, существующую до того, как сообщение принято. После приема (если, конечно, он заведомо верен и производится безошибочно) неопределенность устраняется.
Энтропия — основная информационная характеристика источника. Чем больше энтропия, тем труднее запомнить сообщение и передать его по каналу связи. Как правило, чем больше энтропия, тем больше энергетические затраты на передачу сообщения.
109

Основные свойства энтропии:
-неотрицательна и равна 0 для "вырожденного" ансамбля, когда одно сообщение передается с вероятностью р(а) = 1, а другие с нулевой вероятностью;
-аддитивна (например, если рассматривать последовательность n сообщений как одно укрупненное, то энтропия источника укрупненных сообщений будет в n раз больше энтропии исходного источника);
-если ансамбль содержит k различных сообщений (k — объем алфавита), то Н(А)≤logk; (равенство, когда все сообщения равновероятны и независимы).
В частном случае двоичного (k = 2) источника без памяти (сообщения передаются независимо) энтропия максимальна при р(а1)=р(а2)=0,5 и
Н(А)=logk=log2=1.
Для источника без памяти с объемом алфавита k
|
1 |
k |
1 |
|
H ( A) M log |
|
p(ak ) log |
|
|
|
p(ak ) |
|||
|
p(a) |
k 1 |
Это выражение, полученное К. Шенноном, принято в качестве меры количества информации. Энтропия характеризует количество информации, которое в среднем переносит каждая буква сообщения.
Пусть, например, к=32 (модель источника текста). Тогда при равной вероятности выбора букв
32 |
1 |
|
1 |
|
1 |
|
|
H ( A) |
log2 |
32 |
5 5 |
||||
32 |
1 |
32 |
|||||
1 |
|
|
бит. |
||||
|
|
|
32 |
|
|
Можно получить этот результат иначе:
H ( A) log k log2 32 5 бит.
Если буквы передаются не равновероятно и зависимо, то энтропия уменьшается. Например, для текстов художественной прозы энтропия составляет 1,5 бит/буква, для ансамбля поэтических произведений — примерно 1 бит/буква (рифма и ритм вносят дополнительные вероятностные связи), для ансамблей текстов телеграмм — менее 0,8 бит/буква (однообразие текстов).
Избыточность источника с объемом алфавита k
x |
H H ( A) |
|
log k H ( A) |
|
H |
log k |
|||
|
|
110