- •Лекціі по дисципліні «дослідження операції»
- •1. Динамічне програмування
- •1.1. Поняття динамічного програмування
- •1.2 Принцип поетапної побудови оптимального керування.
- •1.3 Задача про мінімізацію витрат пального літаком при наборі висоти і швидкості.
- •1.4 Метод функціональних рівнянь.
- •1.5 Задача розподілу ресурсів
- •1.5 Задача заміни устаткування
- •1.3.3. Задача планування виробництва з урахуванням попиту, виробничих потужностей підприємства й обсягу його складських приміщень
- •1.4. Детерміновані процеси
- •1.5. Стохастичні задачі динамічного програмування
- •1.5.1. Задача розподілу ресурсів у стохастичному варіанті
- •1.5.2. Задача видобутку корисної копалини
- •Випадкові процеси. Марковські випадкові процеси
- •2.1. Марковські ланцюги, матриця переходів
- •2.2. Властивості стохастичних матриць
- •2.2.1. Властивості стохастичних матриць і деякі їх різновиди.
- •2.3. Ергодична властивість ланцюгів Маркова. Перехідний режим
- •2.4. Марковський процес із дискретними станами і безупинним часом. Рівняння Колмогорова для ймовірностей станів системи
- •2.4.1. Граничні ймовірності станів для н.М.Л. Теорема Маркова
- •3. Теорія масового обслуговування (т.М.О.) Задача і предмет т.М.О.
- •3.1. Класифікація систем масового обслуговування і їх основні характеристики.
- •3.2. С.М.О. Із відмовами. Рівняння Ерланга
- •3.2.1. Сталий режим обслуговування. Формули Ерланга
- •3.3. Система м.О. З очікуванням
- •3.4. Багатоканальні с.М.О. Із необмеженою чергою
- •4.Теорія ігор
- •4.1. Визначення гри, види моделей
- •4.2. Антагоністична гра у нормальній формі. Принцип гарантованого результату
- •4.3. Проблема рівноваги в грі, чисті і змішані стратегії
- •4.4. Теорія про мінімакс. Усталеність одержуваних рішень
- •4.5. Засоби пошуку оптимальних стратегій. Загальні підходи
- •4.6. Рішення ігор 22, 2n, m2. Графоаналітичний метод
- •4.7. Розв’язання ігор mn
- •5. Елементи теорії статистичних ігор. Поняття про статистичні ігри
- •5.1. Вибір оптимальної стратегії статиста
- •Список літератури
2.2. Властивості стохастичних матриць
Визначення: Матриця D = P - I, де I - одинична матриця того ж порядку, що і Р, називається динамічною матрицею D= ||dij||,
(2.6).
Причому її елементи 0 < dij < 1, i = j; -1 < dii < 0 i = =1, ... , n
Тоді рівняння (3) можна переписати у вигляді
P(k) - P(k-1) = P(k-1) D (2.7)
де (2.7) матрична форма запису системи рівнянь у кінцевих різницях ймовірностей переходу в однорідному марківському ланцюзі на k-ому кроці.
2.2.1. Властивості стохастичних матриць і деякі їх різновиди.
1. Якщо Р - стохастична матриця, то і P(k) = P P ... P - стохастична.
2. Якщо всі рядки Р однакові, то P(k) = Р.
3. Якщо
Р =
(2.8),
де А та D - квадратні підматриці, то система із станів, що відповідають А, не перейде ніколи у стан, що відповідає D і навпаки. Р у цьому випадку називається такою, що розкладається, а дві розглянуті множини станів замкнутими.
4. Якщо
Р =
(2.9),
де А, С, D - квадратні підматриці, то при Р(k) можливість того, що система буде знаходитися в одному з станів, що відповідають D, не зростає. Перехід із стану D у А можливий, зворотне ж не вірне. Стани, що відповідають D називаються такими, що не повертаються.
Аналогічна властивість справедлива і для
Р =
(2.10)
Причому Р(k), k -ціле > 0, зберігає вигляд Р.
У випадку (2.9) і (2.10) матрицю Р також називають такою, що розкладається.
5. Якщо
Р =
(2.11),
де B, С - квадратні підматриці, то Р(2m) дадуть матрицю вигляду (2.8), а Р(2m+1) - вигляду (2.10).
Система буде по черзі переходити від станів, що відповідають В, до станів, що відповідають С та навпаки; така система називається періодичною.
2.3. Ергодична властивість ланцюгів Маркова. Перехідний режим
Дуже істотною є ергодична властивість відповідно до якої існує граничний, або сталий, режим марковського процесу. Наступна теорема Маркова формулює цю властивість для ланцюгів Маркова.
Теорема: Якщо матриця переходу Р не являється такою, що розкладається або періодичною, то
P(k)=P(
)=Р
(2.12),
де Р = (P1, P2, ... , Pn), (Pm> 0), тобто ймовірності станів прагнуть до граничних значень P1, P2, ... , Pn, що не залежить від початкового розподілу Р(0). У цьому випадку система статично стійка і має ергодичну властивість, а матриця переходу Р - ергодичною.
Сталим
режимом називається режим переходу,
що
відповідає вектору Р(
)
у випадку,
коли система має ергодичну
властивість. Всякий інший
режим називається перехідним. У
перехідному режимі Р(k) (для дискретного
випадку)
або
Р(t) (для безупинного
випадку)
являється
функціями часу.
Якщо існує сталий режим, то його ймовірностні стани знаходяться із розв’язання матричного рівняння
Р( ) = Р( )P (2.13)
або
Р( )D = 0 (2.14)
Можна показати, що якщо Р ергодична, то
(2.15
)
тобто при достатньо великому k усі рядки P(k) будуть близькі до граничного вектора Р( ) = (P1, P2, ... , Pn).
Яким би не був вектор початкових станів Р(0), завжди при достатньо великих k P(k) = (P1, P2, ... , Pn).
Таким чином, якщо Р - ергодична, то система
(2.16 )
має єдине рішення.
Приклад 6. Нехай є 3 конкуруючих предмети споживання (продукти) В1, В2, В3. З метою визначення попиту на ці продукти провадиться привселюдне опитування. Спочатку клієнтів опитують про те, яким із продуктів В1, В2, В3 вони користуються. Нехай частки (або частоти) клієнтів утворилися Р1(0)=0,5; Р2(0)=0,2; Р3(0)=0,3. Через місяць клієнтів опитують, чи користуються вони старим продуктом, наприклад В1 або перейшли до нових, В2 або В3. При цьому нехай утворилися такі частоти Pij (i, j = 1, 3), що відображають ймовірності переходу із станів S1, S2, S3, де Si - користування продуктом Bi (i = 1, 2, 3), що утворюють матрицю переходу
Так як Р не змінюється (за припущенням), то це однорідний марковський ланцюг. |
Мал.6 |
Знайдемо
сталий
режим переходів. Так
як матриця
Р така, що не розкладається
і не періодична, то за теоремою Маркова
він існує. Для його
визначення
лишаємо
і вирішуємо рівняння (2.16). Динамічна
матриця
Система
рівнянь
p1+p2+p3 = 1
p = (p1; p2; p3)
Вирішуючи
цю
систему, одержуємо
Отже,

Якщо
поведінка
клієнтури не змінюється з часом,
то маємо стаціонарний ланцюг
Маркова
з
матрицею
переходу Р і графом переходів, мал.6.