- •Лекціі по дисципліні «дослідження операції»
- •1. Динамічне програмування
- •1.1. Поняття динамічного програмування
- •1.2 Принцип поетапної побудови оптимального керування.
- •1.3 Задача про мінімізацію витрат пального літаком при наборі висоти і швидкості.
- •1.4 Метод функціональних рівнянь.
- •1.5 Задача розподілу ресурсів
- •1.5 Задача заміни устаткування
- •1.3.3. Задача планування виробництва з урахуванням попиту, виробничих потужностей підприємства й обсягу його складських приміщень
- •1.4. Детерміновані процеси
- •1.5. Стохастичні задачі динамічного програмування
- •1.5.1. Задача розподілу ресурсів у стохастичному варіанті
- •1.5.2. Задача видобутку корисної копалини
- •Випадкові процеси. Марковські випадкові процеси
- •2.1. Марковські ланцюги, матриця переходів
- •2.2. Властивості стохастичних матриць
- •2.2.1. Властивості стохастичних матриць і деякі їх різновиди.
- •2.3. Ергодична властивість ланцюгів Маркова. Перехідний режим
- •2.4. Марковський процес із дискретними станами і безупинним часом. Рівняння Колмогорова для ймовірностей станів системи
- •2.4.1. Граничні ймовірності станів для н.М.Л. Теорема Маркова
- •3. Теорія масового обслуговування (т.М.О.) Задача і предмет т.М.О.
- •3.1. Класифікація систем масового обслуговування і їх основні характеристики.
- •3.2. С.М.О. Із відмовами. Рівняння Ерланга
- •3.2.1. Сталий режим обслуговування. Формули Ерланга
- •3.3. Система м.О. З очікуванням
- •3.4. Багатоканальні с.М.О. Із необмеженою чергою
- •4.Теорія ігор
- •4.1. Визначення гри, види моделей
- •4.2. Антагоністична гра у нормальній формі. Принцип гарантованого результату
- •4.3. Проблема рівноваги в грі, чисті і змішані стратегії
- •4.4. Теорія про мінімакс. Усталеність одержуваних рішень
- •4.5. Засоби пошуку оптимальних стратегій. Загальні підходи
- •4.6. Рішення ігор 22, 2n, m2. Графоаналітичний метод
- •4.7. Розв’язання ігор mn
- •5. Елементи теорії статистичних ігор. Поняття про статистичні ігри
- •5.1. Вибір оптимальної стратегії статиста
- •Список літератури
Випадкові процеси. Марковські випадкові процеси
Нехай є деяка фізична система S, стан якої змінюється з часом (наприклад S: обчислювальна машина, залізничний вузол, супермаркет і т. і.). Якщо стан системи S змінюється в часі випадково, заздалегідь непередбачено, то говорять, що в системі S протікає випадковий процес.
Конкретне протікання кожного з таких процесів залежить від ряду випадкових, заздалегідь непередбачених чинників, таких як:
- надходження замовлень на ЕОМ, вид замовлень;
- інтенсивності прямування поїздів, вантажних і пасажирських, дотримання графіка прямування і т.д.;
- кількості покупців у супермаркеті, часу їхнього обслуговування.
Випадковий процес у системі S називається марковським або “процесом без післядії”, якщо він має таку властивість: для кожного моменту часу t0 Ймовірність будь-якого стану системи в майбутньому (при t > t0) залежить тільки від її стану в дійсному (при t = t0) і не залежить від того, коли і яким чином система прийшла в цей стан (тобто від розвитку процесу в минулому).
Приклад 1. Кожний технічний прилад характеризується ступенем зношеності S. Тоді, принаймні приблизно, можна вважати, що характеристики роботи приладу (частота відмов, потреба в ремонті) залежать від стана приладу в дійсний момент і не залежать від того, коли і як пристрій досяг свого теперішнього стану. Тому процес S можна вважати марковським.
У залежності від того, у які моменти часу система S змінює свої стани, випадкові процеси діляться на два класи.
В.П. називається процесом із дискретними станами, якщо можливі стани системи: S1, S2, S3, ... можна перерахувати (перенумерувати) один за іншим, а самий процес полягає в тому, що час від часу система S стрибком (миттєво) перескакує з одного стана в інший.
Приклад 2. Технічний пристрій складається з двох вузлів: I і II. Тоді можливі чотири стани системи: S1 - I і II робить, S2 - I, II; S3 - I, II; S4 - I, II.
В.П. називається процесом із безперервними станами, якщо із стану в стан відбувається плавний перехід.
Наприклад, процес зміни напруги в електричній мережі. Ми будемо розглядати тільки В.П.С. дискретними станами.
При аналізі таких процесів будемо користуватися геометричною схемою - так званим графом станів. Граф станів зображує можливі стани системи і можливі переходи із стана в стан, що позначаються стрілками.
із S1
у
S3
через
S2,
то S1
Для попереднього прикладу граф станів на мал.1
Якщо ж у попередньому прикладі вузол , що відмовив, негайно починає відновлятися, то граф станів має вигляд мал.2 |
Мал. 1.
Мал. 2. |
2.1. Марковські ланцюги, матриця переходів
Засоби опису марковського В.П. із дискретними станами залежать від того, у які моменти часу - заздалегідь відомі або випадкові відбуваються переходи системи зі стану в стан.
В.П. називається процесом із дискретним часом, якщо переходи системи із стану в стан можливі тільки в строго визначені, заздалегідь фіксовані моменти часу t1, t2, ..., tn. Якщо переходи системи можливі в будь-який, наперед невідомий, випадковий момент часу t, то В.П. називається процесом із безупинним часом.
Якщо С.П. марковський із дискретним часом, то він може знаходитися в стані S1, S2, ..., Sn, причому переходи системи із стану в стан можливі тільки в момент t1, t2, ..., tn.
Будемо називати ці моменти “кроками” або “етапами” процесу і розглядати В.П., як функцію цілочисленого аргументу 1, 2, ... , k, ... (номер кроку). У загальному випадку в моменти t1, t2, ... система може не тільки змінювати стан, але залишатися в старому, наприклад S1 S2 S2 S3 S4 S1 ...
Умовимося позначати Si(k) подію, що полягає в тому, що після k кроків система знаходиться в стані Si. При будь-якому k події S1(k), S2(k), ..., Sn(k) утворять повну групу і несумісні. Процес, що відбувається в системі, можна уявити як послідовність (ланцюжок) подій, наприклад: S1(0), S2(1), S1(2), S2(3), S3(4), ...
Визначення: Така випадкова послідовність подій називається марковським ланцюгом, якщо для кожного кроку ймовірність переходу з будь-якого стану Si у Sj не залежить від того, коли і як система перейшла в стан Si.
Будемо описувати марковський ланцюг за допомогою так званих ймовірностних станів. Нехай у будь-який момент часу (після будь-якого, k-го кроку) система S може знаходитися в однім із станів: S1, S2, ..., Sn, тобто здійсниться одна з повної групи несумісних подій S1(k), S2(k), ..., Sn(k). Позначимо ймовірності цих подій: Pi(k) = P(Si(k)) (i = 1,2, ..., n) - ймовірність того, що після k кроків система виявиться в стані Si.
Pi(k)
називається ймовірностями станів. Т.
я. Si (i = 1,2, ...,n) утворять повну групу
подій, то
Приклад 3. Зобразимо марковський ланцюг у вигляді графа, мал.3.
S1(0)
S3(1)
S2(2)
Затримка системи в стані S2 на третьому кроку зображена стрілкою, що виходить із S2 і в нього ж повертається |
Мал. 3 |
Для будь-якого кроку (моменту часу t1, t2, ..., tk) існують якісь ймовірності переходу системи з будь-якого стана в будь-яке інше (деякі з них дорівнюють нулю, якщо безпосередній перехід за один крок неможливий), а також ймовірність затримки системи в даному стані.
Такі ймовірності називаються перехідними можливостями марковського ланцюга.
Марковський ланцюг називається однорідним, якщо перехідні ймовірності не залежать від номера кроку. У противному випадку марковський ланцюг неоднорідний.
Розглянемо однорідний марковський ланцюг із n можливих станів S1, S2, ..., Sn. Позначимо через Pij ймовірність переходу (при i = j Ймовірність затримки в стані Si) за один крок із Si у Sj. Тоді матриця з Pij називається матрицею переходу
(2.1)
Перехідні ймовірності можна тоді уявити як умовні ймовірності Pij = = P (Sj(k)/Si(k-1))
Так як
події Sj(k)
утворять повну групу несумісних подій,
то
.
При розгляді марковських ланцюгів часто буває зручно користуватися графом станів, на якому в стрілок проставлені відповідні перехідні ймовірності, не рівні нулю (Pij0) і змінюючи стан системи. Такий граф називається розміченим графом станів, мал.4.
Наприклад, для приведеного вище графа. Зауважимо, що ймовірності, що не змінюють стан системи не наводяться, тому що їх можна обчислити.
|
Мал. 4. |
Для розглянутого прикладу Р11=1-(Р12+Р13), Р22 = 1 - (Р23 + Р24) і т. д. Якщо із стану Si не виходить жодної стрілки, тобто перехід в інший стан неможливий, то Pii=1.
Якщо є матриця переходу ||Pij|| (або розмічений граф станів) і початковий стан системи, то можна знайти ймовірності станів P1(k), P2(k), ..., Pn(k) після будь-
якого (k-го) кроку. Покажемо це.
Нехай система знаходиться в початковому стані Sm. Тоді Pi(0) = 0, крім Pm(0) = 1. Ймовірності станів після першого кроку Pi(1) = Pmi; i = 1,2, ..., n.
Знайдемо ймовірності станів після К=2; Pi(2) (i =1,2, ... ,n)
По формулі повної ймовірності з гіпотезами Sj (j=1,2, ... , n)
Pi(2)
=
(i = 1, 2, ..., n) і т.д. Після k-го кроку
Pi(k)
=
(2.2)
Рівняння 1 можна переписати в матричній формі
P(k) = P(k-1) P (2.3)
де P(k), P(k-1) - вектори-рядки станів системи, Р- матриця переходу.
Приклад 4. По деякій цілі ведеться стрільба чотирма пострілами в моменти часу t1, t2, t3, t4.
Можливі стани цілі (системи S):
S1 - ціль непошкоджена;
S2 - ціль незначно ушкоджена;
S3 - ціль істотно ушкоджена;
S4 - ціль уражена цілком.
Визначити ймовірності станів цілі після чотирьох пострілів, якщо в початковий момент часу ціль знаходиться в S1, і граф станів має вид, мал.5.
Р12 = 0,4; Р13 = 0,2; Р14 = 0,1 Р11 = 1 - (0,4+0,2+0,1) = 0,3 Аналогічно Р21 = 0; Р23 = 0,4; Р24 = 0,2; Р22 = 1-0,4-0,2=0,4 Р31=Р32=0; Р34=0,7; Р33 = 1-0,7=0,3 Р41=Р42=Р43=0; Р44=1 |
Мал. 5 |
Тоді
Ймовірності станів після 1-го кроку Рi(1)= P1i (i = 1,2,3,4), тобто елементи 1-го рядка матриці (початковий стан S1) Pi(1) = (0,3; 0,4; 0,2; 0,1)
Ймовірність станів після 2-го кроку
{Pi(2)}={Pi(1)} . ||Pij|| =
Після третього кроку ймовірність станів
{Pi(3)}={Pi(2)}
||Pij||
Після четвертого кроку
{Pi(4)}={Pi(3)}
. ||Pij||
=
Одержали, що після чотирьох пострілів ймовірності подій P(S1) = P1(4) = 0,008; P(S2) = P2(4) = 0,07; P(S3) = P3(4) = 0,129; P(S4) = P4(4) = 0,793.
Розглянемо загальний випадок - неоднорідний марковський ланцюг, для якого ймовірності переходу Pij змінюються від кроку до кроку. Тоді ймовірність переходу буде залежати від кроку k, тобто Pij(k) = P(Si(k)/Sj(k-1). Якщо ||Pij(k)|| відомі на кожному кроку, то
{Pi(k)}
=
(k)
= {Pj(k-1)}
||Pji(k)||
(2.4)
У метричній формі
P(k) = P(k-1), P(k) (2.5)
Приклад 5. Умови задачі ті ж самі, що і у попередньому прикладі. Тільки провадиться не 4, а три постріли. Причому ймовірності переходу змінюються від пострілу до пострілу.
||Pij(1)||
= ||Pij||
Зауваження:
Матриця переходу (квадратна) Р, володіючи
властивостями 0 <
Pij
<
1 ,
i, j = 1, ..., n у деяких джерелах називається
стохастичною.

Зауваження.
Якщо система переходить
Рішення:
Знайдемо матрицю переходу