- •Застосування методів дослідження операцій при розв'язанні технологічних задач
- •Класичні методи оптимізації Метод послідовного перебору (сканування)
- •Класичний метод диференційованого числення
- •Метод множників Лагранжа
- •Дослідження унімодальних функцій
- •Метод половинного поділу
- •Метод чисел Фібоначі
- •Метод золотого перетину
- •Метод спуска по координатах
- •Градієнтний метод
- •Метод найскорішого спуска
- •Метод Ньютона
Градієнтний метод
Це один із найпоширеніших регулярних, тобто методів, що детермінуються, оптимізації. Процес оптимізації по даному методу полягає у визначенні напрямку найбільшої зміни цільової функції і переміщення по цьому напрямку, тобто напрямок найбільшої зміни функції визначає напрямок переходу від однієї точки до іншої.
Нехай цільова функція задана у виді
y=f( x1, x2, …, xn)
І дана функція має безупинні частинні похідні по кожній із змінної.

Тоді grad f, обчислений у початковій точці N, характеризує напрямок, у котрому необхідно зробити крок для оптимального розв'язання.
k=
0, 1, 2, … i= 1, 2, …, n
а – деякий параметр, що визначає довжину робочого ходу. Якщо а=const і не змінюється на кожній ітерації, то величина кроку буде пропорційна величині градіенту.
x2









x1
y0(
)




Обчислення припиняються, якщо
i=
1, 2, …, n
Переваги: простота алгоритму і програми.
Недоліки:
1) необхідність виконувати достатньо складні обчислення на кожному кроку;
2) функція повинна бути диференційовною;
3) метод ускладнюється в тих випадках, коли є обмеження на область рішень, що допускаються.
Метод найскорішого спуска
Сутність у модифікації градієнтного методу. Для зменшення кількості обчислень, пов'язаних з обчисленням похідних у кожній точці на новій ітерації, у даному випадку, після виконання першого кроку провадиться прямування в тому ж напрямку без обчислення похідної. Якщо значення функції зростає (при знаходженні максимуму), то знову рухаємося в тому ж напрямку, поки функція буде зростати. Інакше знову обчислюємо значення градіенту і рухаємося в напрямку зростання функції.
x2










y0

x1

Метод Ньютона
Усі раніш розглянуті методи мають загальний недолік: повільна збіжність, якщо поверхня витягнута, тобто сильно відрізняється від сфери.
Метод Ньютона дозволяє усунути цей недолік для кількох змінних за рахунок обчислення других похідних.
Нехай цільова функція f(x)=f( x1, x2, …, xn) в окрузі свого оптимального значення (х*)

двічі безупинно диференційовна і її матриця Гессе H(x)

позитивно визначена. Тоді можна використовувати метод Ньютона для знаходження оптимального значення функції на основі ітераційної формули

де H-1 – обернена матриця Гессе;
k – номер ітерації;


Ітераційний процес завершиться, якщо виконає нерівність
j=
1, 2, …, n
де зараннє задане мале число.
Позитивна визначенність матриці Гессе забезпечує збіжність методу. Причому ця збіжність буде квадратичної.
Недолік: необхідність обчислення на кожній ітерації матриці H-1, при цьому збільшується кількість обчислень і зростає похибка обчислень.
У зв'язку з цим для функції багатьох змінних при великому n застосовують модифікований метод Ньютона, відповідно до якого ітераційний процес виконується по наступній формулі

