Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
36
Добавлен:
16.04.2013
Размер:
266.75 Кб
Скачать

Лекция от 23.05.02

Метод оптимизации «случайного поиска»:

Если имеется не один минимум у целевой функции, то предыдущие случаи дадут один из этих минимумов. Т.о. мы можем пропустить «глобальный минимум».

Используя генератор случайных чисел, применяют следующий алгоритм:

Пусть например:

Рис. 4

Задаются

N-количество случайных испытаний;

вычисляется случайная величина

В результате получаем ;

  1. вычисляем значение для всех N испытаний;

  2. ранжирование - выстраивание значений от min к max значения. Затем производится усечение т.е. оставляют «самые лучшие» точки;

  3. производим перенос ;

  4. Если то , в противном случае переходим к пункту 2.

Недостаток: метод гарантирует сходимость, но при «пологой» целевой функции метод сходится медленно.

Метод градиентной оптимизации

Этот метод один из самых распространенных.

Пусть имеется целевая функция, зависящая от ν:

В более упрощенной записи:

,

где

или при .

Метод оптимизации с сопряженными градиентами

где

- матрица Гесса;

Поиск минимума целевой функции производится по градиенту, учитывая результаты предыдущего поиска. Т.е. поиск по новому направлению происходит с учетом истории.