- •1. Огляд історії теорії оптимізації.
- •§2 Способы решения задач на экстремумы
- •2. Деякі старовинні екстремальні задачі.
- •3. Основні етапи розв’язування екстремальних задач.
- •4. Постановка задачі оптимізації та основні поняття.
- •Основні типи задач оптимізації.
- •6. Задача нелінійного програмування (знлп), загальна форма.
- •7. Геометрична інтерпретація задачі нелінійного програмування.
- •8. Приклади екстремальних задач та їх формалізація.
- •9,10. Необхідні і достатні умови одновимірної оптимізації.
- •11. Класифікація методів оптимізації. Классификация методов оптимизации
- •12. Теорема Вейєршрасса.
- •13.Классические методы поиска экстремума функции одной переменной.
- •14. Класичний метод знаходження екстремумів функції однієї змінної.
- •16. Метод знаходження екстремумів функції багатьох змінних: виключення частини змінних Якобі.
- •17. Метод множителей Лагранжа.
- •18 . Опуклі множини та їх властивості.
- •Властивості опуклих множин
- •19. Опуклі функції та їх основні властивості.
- •Властивості опуклих функцій
- •20. Методи оптимізації диференційованих функцій
- •21. Необхідні умови мінімуму в задачах оптимізації.
- •22. Теорема Куна-Таккера.
- •Необхідні умови
- •Умови регулярності
- •Достатні умови
- •23. Двоїстість в задачі опуклого програмування. Приклади.
- •24. Наближені чисельні методи оптимізації.
- •25. Метод деления пополам Метод деления пополам
- •26. Метод золотого сечения
- •27. Метод касательних.
- •Обоснование
- •Алгоритм
- •28. Метод парабол.
- •29. Пошук глобального мінімуму функції однієї змінної в середовище Excel.
- •30. Покоординатний спуск. Введение
- •Метод покоординатного спуска Алгоритм
- •Критерий останова
- •Сходимость метода
- •Числовые примеры
- •31,32. Градієнтні методи.
- •33. Чисельні методи багатовимірної оптимізації: метод Ньютона та його модифікації.
- •34. Чисельні методи багатовимірної оптимізації: методи спряжених напрямів.
- •35. Чисельні методи багатовимірної оптимізації: методи спряжених напрямів.
19. Опуклі функції та їх основні властивості.
Опукла функція — функція, яка визначена на опуклій множині лінійного простору, і задовольняє нерівності
при всіх λ ∈ [0, 1].
Нехай область визначення опуклої функції f(x) лежить в скінченовимірному просторі, тоді f(x) неперервна в будь якій внутрішній точці цієї області.
Властивості опуклих функцій
Нехай x1, ..., xm — будь які точки із області визначення опуклої функції f(x), λ1, ..., λm — невід'ємні числа, які в сумі дорівнюють 1. Тоді
.
Якщо f(x) — двічі неперервно-диференційована опукла функція, то матриця її других похідних напівдодатньо визначена.
20. Методи оптимізації диференційованих функцій
Градієнтні методи
Задача 1. Знайти для заданої функції .
Припущення 1. Функція диференційована в .
В градієнтних методах мінімізації за напрямок руху в -й ітерації обирається вектор, протилежний градієнту функції в точці . Різні варіанти градієнтного методу відрізняються один від одного способом вибору крокового множника в -й ітерації, а також тими чи іншими способами (різницевої) апроксимації градієнтів.
21. Необхідні умови мінімуму в задачах оптимізації.
Теорема.1. Якщо диференційована функція має в точці екстремум, то .
Теорема 2. У точці екстремуму функції кількох змінних кожна її частинна похідна першого порядку або дорівнює нулю, або не існує.
Означення. Точки, в яких частинні похідні першого порядку деякі функції дорівнюють нулю або не існують, називаються критичними точками.
Достатні умови існування екстремуму.
Теорема. Нехай є критична точка функції , яка в цій точці є неперервною, і нехай існує окіл точки , в якому має похідну , крім, можливо, точка . Тоді:
1) якщо в інтервалі похідна , а в інтервалі похідна , то є точкою максимуму функції ;
2) якщо в інтервалі , а в інтервалі то є точкою мінімуму функції ;
3) якщо в обох інтервалах і похідна має той самий знак ( набуває або тільки додатних, або тільки від’ємних значень), то не є екстремальною точкою функції .
22. Теорема Куна-Таккера.
В математиці, умови Каруша — Куна — Такера — необхідні умови оптимальності розв'язку задачі нелінійного програмування, при виконанні деяких умов регулярності. Нехай маємо наступну задачу оптимізації:
при виконанні умов
де — функція, що мінімізується, — функції обмежень-нерівностей і — функції обмежень-рівностей.
Необхідні умови
Припустимо, що задана функція мети (функція значення якої слід мінімізувати) і обмежуючі функції і .
Позначимо підмножину для елементів якої в обмеженнях-нерівностях виконується рівність Припустимо, що дані функції є неперервно диференційованими в точці . Якщо є локальним мінімумом, що задовольняє деякі умови регулярності, то існують константи, і такі що виконуються властивості:
Стаціонарність
Допустимість
Двоїста допустимість
Спряженість
Умови регулярності
Найпоширенішою умовою регулярності є умова лінійної незалежності градієнтів:
якщо для локального мінімуму вектори — лінійно незалежні, то в точці виконуються умови Каруша — Куна — Такера.
Умови Мангасар'яна — Фромовіца. Якщо для локального мінімуму існує вектор для якого:
Вектори — лінійно незалежні,
то в точці виконуються умови Каруша — Куна — Такера.