- •Методи оптимізації
- •1. Задача лінійного програмування. Її властивості
- •Властивості допустимої області злп
- •Властивості розв’язків злп
- •2. Критерій оптимальності базисного розв’язку злп
- •3. Двоїсті задачі лінійного програмування. Теореми двоїстості.
- •Іі Теорема двоїстості (двоїстий критерій оптимальності)
- •4. Задача опуклого програмування. Теорема Куна-Такера.
- •5. Метод найшвидшого спуску.
- •6. Оптимальні чисті стратегії у матричній грі. Теорема про мінімакс.
5. Метод найшвидшого спуску.
Нехай є деяка точка xs. Як перейти до нової точки xs+1 так, щоб при розв’зані задачі
,
виконувалась
нерівність
?
Нехай
,
де d=(d1,...dn)
задає напрям, в якому зміщується точка
хs, а
число >0
визначає крок зміщення в напрямку d.
Якщо f(xs+1)=f(xs+d)<f(xs)
при деякому >0,
то напрямок d назвемо підходящим
(зрозуміло, для задачі мінімізації).
Оскільки f(x)C1, то за формулою Тейлора маємо
,
де
,
і, значить, напрямок d-підходящий, якщо
.
Оскільки f(x)C1,
то
-
неперервна функція від .
Звідсі випливає , що при достатньо малому
ввиду близкості
та xs,
виконується також співвідношення
(1).
Таким чином показали що при переході від точки xs до точки xs+1=xs+d, >0, напрямок d- підходящий (f(xs+1)<f(xs)), якщо при достатньо малих виконується співвідношення (1).
Градієнт
являє собою вектор нормалі до поверхні
рівня і його напрямок характеризує
зростання функції. Крім градієнту f(x)
розглянемо антиградієнт -f(x).
Якщо вибрати в якості d напрямок, що
складає гострий кут з антиградієнтом
-f(x),
то напрямок d- підходящий ( при переході
від точки xs
до точки xs+1
при достатньо малому >0
значення функції f(x) зменшиться). Дійсно,
в цьому випадку виконується -Tf(xs)d>0
або Tf(xs)d<0.
Зокрема, якщо вибрати d=-f(xs),
то
і швидкість зменшення функції f(x) (при
нескінченно малому )
в напрямку d=-f(xs)
(антиградієнта) максимальна.
Якщо в якості підходящого напрямку d при розв’язані задачі мінімізації функції f(x) використовується антиградієнт (при максимізації - градієнт), то відповідний метод носить назву градієнтного. В градієнтних методах мінімізації функції f(x) початкову точку x0 вибирають довільну, а потім будують послідовні наближення за правилом
(2)
Такий перехід від точки xs до точки xs+1 зменшує значення функції f(x), якщо s достатньо мале. Розглянемо вибір кроку s на кожній ітерації градієнтного методу найшвидшого спуску. В цьому методі величина кроку s в ітераційній процедурі (2) вибирається за правилом:
При фіксованому s ми вимушені зупинятися в точці xs+1на кожній ітерації, хоча напрямок -f(xs) ще веде до зменшення цільової функції. В методі найшвидшого спуску рух після точки xs+1 в напрямку -f(xs) вже не приведе до зменшення цільової функції.
Метод найшвидшого спуску обгрунтовується наступною теоремою.
Т. Нехай
-
ф-ція f(x) (хєЕn) непер-но диф-на (f(x)C1)
-
мінімум f(x) існує (minf(x)>-)
-
множина R(x0)={x:f(x)f(x0)}- обмежана.
Тоді:
а) якщо метод найшвидшого спуску закінчується за скінченне число ітерацій N,то отримаємо
;
б)
якщо метод найшвидшого спуску не закін-ся
за скінченне число ітерацій,то
послідовність {f(xs)}
збігається і для кожної граничної точки
послідовності {xs}
виконується
.
6. Оптимальні чисті стратегії у матричній грі. Теорема про мінімакс.
Матричну
гру визначимо наступними правилами.
Грають два гравці I1
та I2.
Перший з них вибирає число i,
,
другий - число j,
.
Вибір гравцями чисел відбувається
одночасно і незалежно один від одного.
Перший гравець платить другому суму
cij,
що визначається умовами конкретної
гри (якщо cij>0,
то 1-й гравець платить другому, якщо
cij<0,
то навпаки, 2-й - 1-му). Величини cij
відомі кожному з гравців. Потрібно
вказати найкращий вибір для кожного
гравця.
Розглянемо матрицю

і назвемо її платіжною матрицею чи матрицею виграшів 2-го гравця. Відповідно, вибір числа i 1-м гравцем можна вважати за вибір i-го рядка матриці С, а вибір числа j 2-м гравцем - за вибір j-го стовпчика матриці С.
Назвемо
змішаною стратегією
гравця I1
вектор-рядок
,
,
а змішаною стратегією
гравця I2
- вектор-стовпчик
,
.
Величини
трактуються як ймовірності, з якими
гравці I1
та I2
вибирають відповідно
i-й рядок
та j-й стовбчик
матриці С.
Якщо
для деякої стратегії
виконується
,
а інші
, то ця стратегія називається і-ю
чистою стратегією
гравця I1
. Аналогічно визначається j-та
чиста стратегія гравця I2.
Роглянемо
матричну гру двох осіб з платіжною
матрицею
,
з точки зору гравця I2.
Він отримує від 1-го гравця що найменше
.
Так як другий гравець хоче зробити
виграш максимальним і може вибрати
стовбчик матриці С довільно, він обирає
j таким,
яке максимізує
.
При цьому гарантований виграш 2-го гравця
(нижня ціна гри) складає![]()
Аналогічним
чином можна розглянути цю ж гру з точки
зору гравця I1.
При цьому 2-й гравець отримає що найбільше
![]()
Величина
є верхньою ціною гри.
Якщо
1)
або
(1)
якщо
існують такі числа i*,
j*, що в співвідношенні
(1) виконується
,
то вони називаються оптимальними
рішеннями гравців I1
та I2
відповідно, то v -
ціна гри, а сама гра допускає рішення в
чистих стратегіях.
Вектори

називають оптимальними чистими стратегіями гравців I1 та I2 відповідно.
Теорема.
Матрична гра двох осіб з платіжною
матрицею
,
розв’язується в чистих стратегіях (має
місце співвідношення (1)) тоді і тільки
тоді, коли матриця С має сідлову точку.
При цьому, якщо (i*,j*)
- сідлова точка С, то ціна гри
.
Нагадаємо,
що (i*,j*)
- сідлова точка матриці
,
,
якщо для всіх вказаних і
та j
![]()
Теорема про мінімакс. Довільна матрична гра має розв’язок в змішаних стратегіях.
