- •1. Применимость методов безусловной оптимизации. Задача обслуживания на 1 приборе.
- •2. Общая схема метода ветвей и границ. Задача о рюкзаке.
- •3. Общая схема метода ветвей и границ. Задача целочисленного программирования.
- •4. Метод сплайнов 1 порядка.
- •5. Минимизация унимодальных функций. Равномерный перебор.
- •6. Минимизация унимодальных функций. Метод Фибоначчи.
- •7. Минимизация унимодальных функций. Метод золотого сечения.
- •8. Градиентные методы. Выбор шага.
- •9. Методы 2 порядка. Метод Ньютона.
- •10. Методы условной минимизации. Случай линейных ограничений.
- •11. Методы условной минимизации. Метод штрафных функций.
- •12. Другие методы о выборе метода.
- •13. Динамическое программирование. Задача распределения ресурса. Инвариантное погружение.
- •14. Динамическое программирование. Составление уравнения Беллмана.
- •15. Динамическое программирование. Построение решения.
7. Минимизация унимодальных функций. Метод золотого сечения.
Рассм. задачу , (1) где – некоторые числа ( ).
Методы минимизации унимодал. ф-ций. Опр. Ф-ция наз. унимодальной на [ ], если сущ.точка т, что на ф-ция монотонно убывает, а на монотонно возрастает. - оптимал. план задачи (1).
В зад.(1)унимодальная ф-ция имеет единств. оптимал. план и не имеет локал. минимумов. Если в задаче (1) (3) , то ф-ция строго выпукла и явл. унимодальной. Если в зад.(1) ф-ция не унимодальная, то в некоторых случаях [a,b] с помощью нерав-ва (3) её удаётся разбить на интервалы унимодальности, затем чтобы реш. исходную зад.(1) достаточ. на каждом таком отрезке реш. задачу минимизации унимодал. ф-ции и простым перебором найти оптимал. план.
Будем решать задачу (1), в кот. - унимодальная функция. Поставим цель: по заданному найти на [a,b] такую часть (длиною ) и чтобы . Эта задача наз. задачей локализации точки минимума.
Если задача локализации решена, то в любую точку из (например, середину) принимают в качестве приближённого решения задачи (1).
Метод золотого сеч. Опр. Точка осуществляет золотое сечение [ ] на две неравные части. Если длина меньшего отрезка так относится к длине большего отр., как длина большего отр. относится к длине [ ], т.е. если выполн.:
Найдём расположение ,для этого подставим и найдём значение :
В методе золотого сечения на нулевой итерации каждая из точек осуществляет золотое сечение [ ] (с разных сторон), в дальнейшем применяется общая схема двух точечных методов.
Метод золотого сечения не намного хуже метода Фибоначчи, справедлива оценка:
Однако в этом методе не требуется указывать ни , ни При большом количестве итераций обычно внутренние точки разбиения обновляются: строятся новые, которые снова осуществляют золотое сечение
8. Градиентные методы. Выбор шага.
Задачу (1) будем решать в 2 этапа:
I этап: построение направлений итерации. Полагаем : где , в результате приходим к задаче: (5),где –некоторая окрестность начала координат в размерами . В результате реш-я зад.(5) получаем вектор . Он выбир.за направление на -ой итерации. При выборе направления его размеры не важны, поэтому , то есть имеет единичную длину. Константа в(5) также на направление не влияет и её отбрасывают. Т.обр., для нахождения решается задача: (5*)
Геометрич. интерпретация «овражной структуры». – линия с постоянной высотой над уровнем океана. В случае «овражной структуры», как правило, градиент имеет большую длину и направлен почти перпендикулярно к направлению ведущему к оптимал. плану.
Замечание. В случае «овражной структуры» надо строить с учётом линий уровня целевой ф-ции, желательно знать кривизну, 2-ую производную. II этап: реш-е зад.(1), когда по известному приближению построено направление выбир. размер окрестности , т.е. определ. размер шага в этом направлении. Наиболее распространены 3 способа:
а) наилучший шаг в заданном направлении, реш. зад. (8)
где . Точное решение задачи (8) выбирается за .
Опр.Метод 1-го порядка, в кот. шаг выбир.в виде (7), а направление наилучшим называется методом наискорейшего спуска. б) , где – малое число, при этом способе на всех итерациях шаг выбирается одинаковым.
Замечание. Если шаг выбрать достаточно большим, то даже если направление позволяет уменьшить целевую функцию, с этим шагом функция возрастёт.
в) метод последовательного дробления. При таком выборе шага задача (8) решается подбором.