2*. Ланцюги Маркова та їх основні характеристики
Марковський випадковий процес з дискретними станами та дискретним часом називається ланцюгом Маркова.
Як уже
відзначалося, для такого процесу моменти
часу
коли система
може змінювати свій стан, розглядають
як послідовні кроки процесу, а в якості
аргумента, від якого залежить процес,
виступає не час
,
а номер кроку
.
Випадковий процес у цьому випадку
характеризується послідовністю станів
,
де
– початковий стан системи (перед першим
кроком),
– стан системи після першого кроку,
– стан системи після
-го кроку, ....
Якщо
через
позначити подію, яка полягає в тому, що
відразу після
-го кроку система знаходиться в стані
,
тобто
,
то випадковий процес з дискретним часом
можна розглядати як випадкову послідовність
(за індексом
)
цих подій
,
яку називають також ланцюгом.
Означення.
Випадкова
послідовність називається ланцюгом
Маркова,
якщо для кожного кроку ймовірність
переходу з будь-якого стану
в будь-який стан
не залежить від того, коли і як система
виявилася в стані
.
Очевидно,
що реалізацію дискретного випадкового
процесу з дискретним часом за будь-який
(скінчений) проміжок часу можна представити
невипадковою скінченною послідовністю
(за індексом
)
розглядуваних подій
.
Наприклад, припустимо, що граф станів
системи
,
в якій відбувається випадковий процес
з дискретним часом, має вигляд, зображений
на рис.
3.
Спостереження за системою показало, що
в початковий момент
система знаходилася в стані
;
в момент першого кроку перейшла з нього
стрибком у стан
,
з якого на другому кроці перейшла в
,
на третьому кроці перейшла в
,
на четвертому кроці перейшла в
,
після п’ятого кроку знаходилася в стані
.
Тоді реалізація випадкового процесу
блукання по станах має такий вигляд:
.
Зауваження.
Для того, щоб
при фіксованому
можна було інтерпретувати як (дискретну)
випадкову величину, потрібно кожний
стан
охарактеризувати кількісно. Це можна
зробити різними способами. Наприклад,
приписати кожному стану
в якості кількісної характеристики
його номер
,
тобто
.
Тоді переріз випадкового процесу буде
представляти дискретну випадкову
величину з множиною значень
.
Далі,
,
означає подію «після
-то кроку ланцюг Маркова знаходиться в
стані
»,
а послідовність станів,
,
які приймає випадковий процес
визначає реалізацію або траєкторію
процесу.
Враховуючи дане зауваження, більш змістовне означення ланцюга Маркова можна сформулювати так.
Означення.
Послідовність випадкових величин
,
називається ланцюгом
Маркова з множиною станів
,
якщо
і для
будь-яких
,
будь-яких
та будь-яких підмножин
множини
виконується рівність
. (3)
Властивість
(3) означає, що при фіксованому значенні
системи в даний момент часу
поведінка системи в майбутньому
не залежить від поведінки системи в
минулому
,
або більш коротко: при фіксованому
теперішньому майбутнє не залежить від
минулого. Властивість (3) називають
марковською
властивістю.
Надалі ми будемо використовувати обидві термінології щодо інтерпретації ланцюга Маркова.
З означення ланцюга Маркова і формули (48) випливає, що ланцюг Маркова може бути заданий розподілом ймовірностей переходу за один крок.
Означення.
Ймовірністю переходу
(перехідною
ймовірністю)
на
-му кроці із стану
в стан
називається умовна ймовірність того,
що система
після
-го кроку виявиться в стані
за умови, що безпосередньо перед цим
(після
-го кроку) вона знаходилася в стані
:
. (4)
Якщо
множину станів позначити через
,
то
можна трактувати як ймовірність того,
що ланцюг Маркова, знаходячись після
-го кроку в стані
,
після наступного
-то кроку виявиться в стані
:
(5)
У випадку,
коли
, то перехідна ймовірність
називається ймовірністю
затримки
системи
у стані. Якщо на
-му кроці безпосередній перехід системи
із стану
в інший стан
неможливий або неможливою є затримка
в стані
,
то
.
Означення.
Якщо
перехідні ймовірності
не залежать від номера кроку
(від часу), а залежать лише від того, з
якого стану в який здійснюється перехід,
то відповідний ланцюг Маркова називається
однорідним.
Якщо
хоча б одна ймовірність змінюється зі
зміною кроку
,
то ланцюг Маркова називається неоднорідним.
Надалі ми будемо розглядати лише
однорідні ланцюги Маркова. У цьому
випадку перехідні ймовірності будемо
позначати через
замість
.
Сукупність ймовірностей переходу
утворює матрицю
, (6)
вона
називається однорідною
матрицею переходів (перехідних
ймовірностей).
За означенням всі елементи матриці
невід’ємні. Крім цього, оскільки для
будь-якої події
,
яка наступила після
-го кроку, для наступного
-го кроку одна з подій
обов’язково відбудеться, то елементи
кожного рядка матриці
задовольняють умову
. (7)
Означення. Квадратна матриця називається стохастичною, якщо її елементи невід’ємні і сума елементів будь-якого її рядка дорівнює одиниці.
Отже,
матрицею переходів
ланцюга Маркова зі скінченним числом
станів
називається стохастична матриця з
порядком
,
елементами якої є відповідні перехідні
ймовірності
.
Часто також задаються ймовірності станів ланцюга Маркова на початковому нульовому кроці:
або
(8)
На
ймовірності
накладаються очевидні умови невід’ємності
і нормування:
. (9)
У
частковому випадку, якщо початковий
стан системи відомий і
,
то початкова ймовірність
,
а всі решта дорівнюють нулю.
За
допомогою формул (3), (5) із врахуванням
(8) можна обчислити ймовірність будь-якої
конкретної траєкторії
ланцюга Маркова:
. (10)
Л
егко
показати, що формула (55) задає ймовірності
на просторі
всіх траєкторій довжини
.
Зокрема, виконується умова нормування
для ймовірностей:
. (11)
Корисним
зображенням ланцюга Маркова є її
розмічений
граф станів системи,
де біля кожної стрілки, яка веде зі стану
в стан
(зі стану
в стан
)
відзначена перехідна ймовірність
.
Взірець такого розміченого графа станів
показано на рис.
2.
Наявність
на розміченому графі стрілок і відповідних
їм ймовірностей з одного стану в інший
означає, що ці перехідні ймовірності
відмінні від нуля. Навпаки, відсутність
стрілок з одного стану в інший вказує
на те, що відповідні їм перехідні
ймовірності дорівнюють нулю. Наприклад,
,
а
.
Перехідні
ймовірності, які відповідають стрілкам,
що виходять із станів
розміщені в
-му рядку матриці
перехідних ймовірностей, а тому їх сума,
внаслідок (7), дорівнює одиниці. Тому
ймовірності затримок
можна обчислити за формулою
(12)
Внаслідок цього стрілки – петлі та відповідні їм ймовірності затримок на графі, як правило, не відзначаються.
Ймовірність
переходу за
кроків.
Розглянемо
ймовірність переходу
із стану
,
який реалізований, наприклад, після
-го кроку, в стан
за
кроків,
тобто в стан
після
-го
кроку.
Зрозуміло, що
внаслідок однорідності ланцюга Маркова
ця ймовірність залежить
тільки від
(і не залежить від
).
Позначимо її
.
Тоді
–
ймовірність переходу за
кроків
із стану
в
стан
та
–
ймовірність переходу за
кроків
із стану
в
.
Використовуючи
формулу повної ймовірності та враховуючи,
що проміжні стани
на
– у кроці утворюють повну групу попарно
несумісних подій, знайдемо
, (13)
де
– будь-яке ціле значення від
до
.
Позначимо
через
матрицю, яка складається з ймовірностей
,
отже
– матриця переходів через
кроків
.
Враховуючи формулу для перемноження квадратних матриць, рівність (13) можна записати в матричному вигляді:
. (14)
Застосовуючи послідовно (59), одержимо
, (15)
тобто для того, щоб отримати матрицю ймовірностей переходів за кроків, потрібно просто піднести до -го степеня вихідну матрицю ймовірностей переходів .
Неважко
переконатися в тому, що при будь-якому
натуральному
матриця
є стохастичною.
Безумовна
(абсолютна) ймовірність
того, що система після
-го кроку знаходиться в стані
,
обчислюється також з використанням
формули повної ймовірності:
. (16)
Простим наслідком формули (61) є наступне співвідношення
. (17)
Рекурентні
формули (16), (17) можна записати також у
матричному вигляді. Справді, якщо
абсолютні ймовірності станів визначені
у векторній формі як
,
то на підставі рівностей (14) - (17) маємо
. (18)
або
. (19)
Ймовірності
першого досягнення стану
при
виході зі стану
.
Введемо до розгляду ймовірність
того, що, починаючи зі стану
,
ланцюг Маркова вперше досягає стан у
на
-му кроці.
,
тобто
.
Спираючись
на формулу повної ймовірності,
можуть бути обчислені через ймовірності
внаслідок
рекурентного застосування наступних
формул:
(20)
За допомогою ймовірностей можна визначати значення деяких інших характеристик, які використовуються при аналізі ланцюга Маркова. Зокрема, через ці ймовірності можуть бути обчислені:
• ймовірність
того, що, починаючи зі стану
,
система коли-небудь потрапить в стан
:
; (21)
• середнє
число кроків
до першого досягнення стану
при виході зі стану
:
. (22)
Зауваження.
Для знаходження вектора
в прикладі 9 можна було б замість формули
(19) чотири рази послідовно використати
формулу (18), а саме, спочатку за цією
формулою знайти вектор ймовірностей
станів у першому кварталі
,
потім, у другому кварталі
і т. д., поки не дійдемо до четвертого
кварталу
.
