Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ВМИО.doc
Скачиваний:
0
Добавлен:
17.01.2020
Размер:
3 Mб
Скачать

3.2 Марковские цепи с дискретным временем. Теорема о предельных вероятностях

В этом параграфе мы будем считать, что время принимает неотрицательные целые значения: .Такие марковские цепи называются марковскими цепями с дискретным временем.

Используя соотношения Колмогорова-Чэпмена (3.3), мы можем видеть, что

, (3.6)

где - матрица переходных вероятностей за шагов (единиц времени). Разрешая это рекуррентное соотношение, мы получаем, что

. (3.7)

Таким образом, для вычисления матрицы переходных вероятностей за шагов достаточно задать матрицу переходных вероятностей за один шаг и затем возвести ее в -ую степень. Матрицу переходных вероятностей за один шаг мы будем обозначать , и будем называть ее матрицей переходных вероятностей. Рассмотрим несколько примеров.

Пример 1. Случайное блуждание.

Пусть - последовательность независимых, одинаково распределенных, целочисленных случайных величин. Определим процесс как . Марковость этого процесса видна из соотношения . В случае, когда случайные величины принимают значения +1 и -1 с вероятностью , , где , процесс случайного блуждания называется простым случайным блужданием. Этот пример играет важную роль в физике, но с помощью процессов такого рода можно также описывать поведение курсов акций (под понимается цена акции в момент времени ). В случае, когда множество состояний , матрица переходных вероятностей для простого случайного блуждания является бесконечной. При некотором размышлении можно научиться возводить такие матрицы в произвольную степень. Но переходную вероятность за шагов в простом случайном блуждании легко найти, не прибегая к возведению бесконечной матрицы в -ую степень. Пусть . Очевидно, что если , то переход из в невозможен и . Пусть, например, . Чтобы попасть из состояния в состояние , необходимо сделать шагов направо (в сторону увеличения номера состояния), а оставшиеся шагов - налево. При этом порядок совершения шагов направо и налево не важен, и, кроме того, если не является целым числом, то . Отсюда мы получаем, что

.

Пример 2. Случайное блуждание с ограничениями (задача о разорении).

Игрок приходит в казино с рублями в кармане. В каждой игре он выигрывает 1 рубль с вероятностью и проигрывает один рубль с вероятностью . Игрок уходит из казино , если его капитал достигает величины рублей или 0 рублей. Обозначим через его капитал после -ой игры. Ясно, что последовательность образует марковскую цепь, причем . Множеством состояний этой цепи является множество . Матрица переходных вероятностей размера имеет вид

. (3.8)

Заметим, что из любого состояния данной цепи можно с ненулевой вероятностью попасть в состояния 0 и , но из этих состояний выйти уже нельзя. Такие состояния называются поглощающими. Этот пример представляет собой случайное блуждание с ограничениями.

Пример 3. (ветвящийся процесс).

Пусть некоторый вид биологических организмов может иметь от каждой особи потомков с вероятностью , . Обозначим через количество этих организмов в 0-й момент времени. Пусть - количество организмов в -ый момент времени. Обозначим через случайное количество потомков у -ой особи в -м поколении, . Случайные величины независимы между собой при разных парах . Марковский характер процесса следует из очевидной формулы

.

Такие марковские процессы называются ветвящимися процессами и они могут моделировать как процессы размножения в биологических популяциях, так и цепные реакции в ядерной физике.

Пусть имеется марковская цепь с матрицей переходных вероятностей . Мы будем предполагать, что цепь конечна и пусть в дальнейшем для определенности .

Определение 3.2. Распределение вероятностей называется стационарным для данной марковской цепи, если

, (3.9)

Из этого определения следует, что если начальное распределение вероятностей состояний системы задается стационарным распределением , , то оно остается таким же для любого , .

Если ввести вектор-строку , то условие стационарности распределения (3.9) перепишется в матричной форме как

. (3.10)

Таким образом, стационарное распределение вероятностей задается левым собственным вектором матрицы с собственным числом 1.

Система линейных уравнений (3.9), задающих стационарное распределение , является вырожденной ( в силу того, что сумма элементов каждой строки матрицы равна 1). Но если дополнить эту систему условием нормировки

,

то можно однозначно определить стационарное распределение .

Определение 3.3. Марковская цепь называется эргодической, если существуют не зависящие от начального распределения и не зависящие от величины , .

Вероятности называют предельными или финальными вероятностями.

Замечательным обстоятельством является то, что при некоторых условиях матрица переходных вероятностей имеет предел при , причем этот предел является матрицей, все строки которой совпадают со стационарным распределением . Эту теорему называют теоремой о предельных вероятностях или эргодической теоремой.

Пусть марковская цепь обладает таким свойством, что существует такое, что все элементы матрицы положительны. Определим величину

, (3.11)

которая называется коэффициентом эргодичности.

Заметим, что для марковской цепи с конечным множеством состояний из строгой положительности матричных элементов матрицы следует, что коэффициент эргодичности . Не все марковские цепи обладают таким свойством. Например, если матрица переходных вероятностей

,

то совпадает с единичной матрицей при четных и с матрицей при нечетных и поэтому при любом матрица содержит нулевые матричные элементы.

Теорема 3.1 (теорема о предельных вероятностях). Пусть для конечной марковской цепи существует такое, что матричные элементы матрицы положительны. Тогда существуют пределы

, , (3.12)

Другими словами, марковская цепь является эргодической.

Доказательство. Обозначим

, .

Поскольку

,

то из того, что при любом следует . Значит

.

Отсюда следует, что существуют пределы последовательностей и при . Наша цель состоит в том, чтобы доказать равенство этих пределов.

Пусть и - произвольные состояния. Запишем, что

,

где суммирование ведется по таким , для которых , а ведется по таким , для которых . Отсюда следует, что

.

Значит, , где задается (3.11). Заметим, что

.

Поэтому для любого

=

= .

Отсюда получаем, что

, .

Поскольку , последовательность монотонно возрастает, последовательность монотонно убывает и , то

.

Значит, последовательности и , а следовательно и последовательность имеют один и тот же предел, который мы обозначим :

, .

Покажем, что предельные вероятности , образуют стационарное распределение вероятностей. Перейдя в уравнениях

к пределу по , получаем

.

Кроме того

.

Значит, величины , действительно образуют стационарное распределение вероятностей. Теорема доказана.

Из этой теоремы следует, что для любого начального распределения вероятностей , безусловные вероятности стремятся к :

.

Отсюда, в частности, следует единственность стационарного распределения . Предельную вероятность можно интерпретировать как вероятность обнаружить систему в состоянии при больших . Действительно, пусть - случайный момент времени, равномерно распределенный по множеству значений , , , причем случайная величина не зависит от случайных величин, задающих нашу марковскую цепь. Пусть . Тогда

. (3.13)

Из доказательства теоремы следует, что

, (3.14)

а также то, что для любого начального распределения

, (3.15)

.

Утверждение эргодической теоремы справедливо и для марковской цепи со счетным множеством состояний. Для справедливости утверждения в общем случае надо сразу потребовать, чтобы при некотором коэффициент эргодичности , задаваемый формулой (3.11), был положительным.

Что может служить препятствием к существованию предельных вероятностей? Рассмотрим пример марковской цепи с множеством состояний и матрицей переходных вероятностей

.

Если начальное состояние , то в пределе получится стационарное распределение , а если , то в пределе марковская цепь «выйдет» на стационарное распределение . Множество состояний этой цепи разбито на подмножества и . Нельзя перейти из состояний множества в состояния множества и наоборот.

Мы говорим, что состояние достижимо из состояния , если существует такое , что . Если состояние достижимо из состояния и состояние достижимо из состояния , то состояния и называются сообщающимися. Если все состояния в множестве являются сообщающимися, то марковская цепь называется неразложимой.

Другой пример неэргодического поведения задается матрицей

.

Множество состояний этой цепи разбивается на подмножества и . Мы наблюдаем некоторую периодичность: за нечетное число шагов цепь переходит из состояний множества в состояния множества и наоборот. Такие цепи называются периодическими. Дадим точные определения.

Состояние имеет период , если является наибольшим числом таким, что только для , кратных . Другими словами, является наибольшим общим делителем чисел таких, что . Если для всех , то . Состояние называется апериодическим, если .

Можно показать, что все состояния неразложимой марковской цепи имеют один и тот же период и поэтому можно говорить о периоде неразложимой марковской цепи. Если этот период больше 1, то цепь называется периодической, а если он равняется 1, то цепь называется апериодической.

Можно доказать, что конечная неразложимая апериодическая марковская цепь эргодична.