- •Лекціі по дисципліні «дослідження операції»
- •1. Динамічне програмування
- •1.1. Поняття динамічного програмування
- •1.2 Принцип поетапної побудови оптимального керування.
- •1.3 Задача про мінімізацію витрат пального літаком при наборі висоти і швидкості.
- •1.4 Метод функціональних рівнянь.
- •1.5 Задача розподілу ресурсів
- •1.5 Задача заміни устаткування
- •1.3.3. Задача планування виробництва з урахуванням попиту, виробничих потужностей підприємства й обсягу його складських приміщень
- •1.4. Детерміновані процеси
- •1.5. Стохастичні задачі динамічного програмування
- •1.5.1. Задача розподілу ресурсів у стохастичному варіанті
- •1.5.2. Задача видобутку корисної копалини
- •Випадкові процеси. Марковські випадкові процеси
- •2.1. Марковські ланцюги, матриця переходів
- •2.2. Властивості стохастичних матриць
- •2.2.1. Властивості стохастичних матриць і деякі їх різновиди.
- •2.3. Ергодична властивість ланцюгів Маркова. Перехідний режим
- •2.4. Марковський процес із дискретними станами і безупинним часом. Рівняння Колмогорова для ймовірностей станів системи
- •2.4.1. Граничні ймовірності станів для н.М.Л. Теорема Маркова
- •3. Теорія масового обслуговування (т.М.О.) Задача і предмет т.М.О.
- •3.1. Класифікація систем масового обслуговування і їх основні характеристики.
- •3.2. С.М.О. Із відмовами. Рівняння Ерланга
- •3.2.1. Сталий режим обслуговування. Формули Ерланга
- •3.3. Система м.О. З очікуванням
- •3.4. Багатоканальні с.М.О. Із необмеженою чергою
- •4.Теорія ігор
- •4.1. Визначення гри, види моделей
- •4.2. Антагоністична гра у нормальній формі. Принцип гарантованого результату
- •4.3. Проблема рівноваги в грі, чисті і змішані стратегії
- •4.4. Теорія про мінімакс. Усталеність одержуваних рішень
- •4.5. Засоби пошуку оптимальних стратегій. Загальні підходи
- •4.6. Рішення ігор 22, 2n, m2. Графоаналітичний метод
- •4.7. Розв’язання ігор mn
- •5. Елементи теорії статистичних ігор. Поняття про статистичні ігри
- •5.1. Вибір оптимальної стратегії статиста
- •Список літератури
1.4. Детерміновані процеси
Якщо при оптимізації багатоетапного процесу результат будь-якого рішення визначався однозначно вибором цього рішення, то такий процес називається детермінованим.
Для детермінованого процесу N-етапного процесу стан системи Si (i = 1, ..., N) задається вектором. Перетворення вектора станів від етапу до етапу здійснюється впливом на нього вектора керування Ui, тобто Vi(Si; Ui). Послідовність перетворень, починаючи з N-го етапу і закінчуючи першим, можна записати
SN-1 = VN (SN; UN)
SN-2 = VN-1 (SN-1; UN-2) (1.24)
.....................................................
SК = V1 (S1; U1)
Якщо перші підставляти в наступні, то одержимо кінцевий стан Sk, виражений через початковий SN:
Sk = V1 (V2(V3(... VN-1(VN(SN; UN); UN-1); UN-2 ...) (1.25)
Послідовність векторів UN, UN-1, ..., U1, що відповідають послідовним перетворенням (1.24), називається поведінкою або стратегією. Якщо перетворення обрані відповідно до якимось визначеного критерію, то такі перетворення називаються оптимальною стратегією або оптимальним поводженням.
Тоді задачу для N-етапного
процесу можна записати
max W =
qi
(Si; Ui) або, слідуючи принципу оптимальності
fN(SN)
= max [qN(SN;
UN) +
fN-1(SN-1)]
UN
або fN(SN) = max {qN(SN; UN) + fN-1[VN(SN; UN)]} (1.26)
UN
f1(S1) = max q(S1; U1)
U1
Зауваження. У всіх розглянутих задачах критерій W має властивість адитивності, тобто значення W, досягнуте за весь процес, є сумою його часних значень, отриманих на визначених етапах. У більшості задач Д.П. критерій адитивний. Якщо він не має цю властивість, то змінюють або самий критерій, або постановку задачі.
1.5. Стохастичні задачі динамічного програмування
Визначення: Якщо в задачі керований процес не цілком визначається початковим станом системи й обраного керування, а в якійсь мірі залежить від випадку, то такі задачі називаються стохастичними і ймовірностними.
Наприклад:
1) якщо не можна точно визначити стан системи на кожному етапі;
2) якщо змінні, що характеризують стан системи, є випадковими величинами з відомою функцією розподілу;
3) якщо змінюється ціль задачі;
4) якщо планування здійснюється на тривалий період, то в цьому випадку неможливо точно зазначити значення усіх нормативів і коефіцієнтів, оскільки вони можуть змінитися під впливом непередбачених причин і т.і.
Для рішення багатоетапних екстрем. стохастичних задач з адитивним критерієм можна використовувати метод Д.П. У стохастичній моделі перетворення від i-го етапу до (i-1)-го містить деяку непевність. У результаті перетворення Vi(Si; Ui) відомий вектор стана Si переходить у випадковий вектор стана
Zi-1 із функцією розподілу G(Si; Zi-1; Ui). Тому, перед тим , як прийняти рішення на i-1 етапі, необхідно покласти, що дійсне значення вектора стана Si-1 спостерігалося і відоме. Для стохастичного процесу, як і для детермінованого можна записати послідовність перетворень
ZN-1 = VN (SN; UN)
ZN-2 = VN-1 (SN-1; UN-2) (1.27)
.....................................................
ZК = V1 (S1; U1)
Але не можна висловити Zk як функцію початкового ZN. Це обумовлено тим, що результати перетворень відомі тільки після безпосередніх спостережень.
Величини Zi - випадкові, тому і Ui теж випадкові в тому змісті, що їхнє застосування дає невизначений результат для розміру критерію.
Критерій W =
qi
(Si;
Ui)
як функція випадкових величин теж
випадковий, тому говорити про його
оптимальне значення не має сенсу. Тому
в ролі критерію використовують деяку
середню характеристику можливих
результатів. Такою характеристикою є
середнє арифметичне, тобто математичне
чекання. Властивість лінійності
дозволяє спростити функціональне
рівняння (у силу адитивності), а
властивість інваріантності
,
показує, що майбутні рішення засновуються
тільки на стані системи в даний момент
і не залежать від її передісторії.
fN(SN) = max M{ qi [Vi (Si; Ui), Ui]} =
= max M{ qi (Zi-1; Ui)]} (1.28 )
Тоді для дискретного випадку
fN(SN) = max { [qN (S(N-1)j; UN) + fN-1(Z(N-1)]Pj (1.29)
де Pj (j = 1; ...; m) можливості m можливих дискретних станів, що може приймати випадковий вектор ZN-1, 0 < Pj < 1 pi = 1
