Лекции по МОСАПР(Комаров, МП46-47) / Lekciya_ot_23.05.02 / Лекция от 23.05.02
.rtfЛекция от 23.05.02
Метод оптимизации «случайного поиска»:
Если имеется не один минимум у целевой функции, то предыдущие случаи дадут один из этих минимумов. Т.о. мы можем пропустить «глобальный минимум».
Используя генератор случайных чисел, применяют следующий алгоритм:
Пусть например:

Рис. 4
Задаются


N-количество случайных испытаний;
вычисляется
случайная величина

В
результате получаем
;
-
вычисляем значение
для
всех N
испытаний; -
ранжирование
-
выстраивание значений от min
к max
значения. Затем производится усечение
т.е.
оставляют «самые лучшие» точки; -
производим перенос
; -
Если
то
,
в противном случае переходим к пункту
2.
Недостаток: метод гарантирует сходимость, но при «пологой» целевой функции метод сходится медленно.
Метод градиентной оптимизации
Этот метод один из самых распространенных.
Пусть имеется целевая функция, зависящая от ν:

В более упрощенной записи:
,
где


или
при
.
Метод оптимизации с сопряженными градиентами

где
-
матрица Гесса;
Поиск минимума целевой функции производится по градиенту, учитывая результаты предыдущего поиска. Т.е. поиск по новому направлению происходит с учетом истории.


