
- •5. Поисковая минимизация
- •5.1.Метод покоординатного спуска Гаусса-Зейделя (Gauss - Seidel)
- •5.2.Метод конфигураций Хука – Дживса (Hooke - Jeeves)
- •7. Градиентные методы
- •7.1.Градиентный метод
- •7.1.1.Итерационная схема метода
- •7.1.2.Основные модификации метода
- •7.2.Оптимальный градиентный метод
- •7.2.1.Итерационная схема метода
- •7.2.2.Анализ сходимости метода
- •7.2.3.Траектория поиска
- •7.2.4.Выводы
- •7.4.Метод сопряженных градиентов
- •7.4.1.Оценивание направления поиска
- •7.4.2.Оценивание шага
- •7.4.3.Основные соотношения метода сопряженных градиентов Флетчера-Ривса
- •7.4.6.Траектория поиска и некоторые выводы
- •7.4.7.Модификации метода сопряжённых градиентов
- •8. Ньютоновские методы
- •8.1.Методы Ньютона и Ньютона-Рафсона
- •8.2.Скорость сходимости методов Ньютона и Ньютона - Рафсона
- •8.3.Модификации методов Ньютона и Ньютона – Рафсона
- •8.4.Некоторые результаты и выводы
- •10. Методы штрафных и барьерных функций
- •10.1.Методы преобразования
- •10.2.Условия Куна - Таккера
- •10.3.Барьерные функции
- •10.3.1.Функция барьера
- •10.3.2.Сходимость методов барьерных функций
- •10.3.5.Многократная безусловная минимизация
- •10.3.6.Проблемы применения барьерных методов
- •10.4.Штрафные функции
7.4.3.Основные соотношения метода сопряженных градиентов Флетчера-Ривса
1.Из
разложения (7.4.4) и квадратичной
определяется взаимосвязь векторов
и
,
а именно
,
и
.
(7.4.8)
2.Так как есть вектор-градиент в точке минимума функции в направлении , то
,
(7.4.9)
Покажем,
что
.
Учитывая
(7.4.9) имеем
Тогда
.
3.Так как векторы и сопряжены, то имеем важное соотношение
,
(7.4.10)
Использую
соотношения (7.4.9) и (7.4.10), можно получить
новое представление
:
.
(7.4.11)
Соотношения
(7.4.2), (7.4.5) и (7.4.7) - (7.4.11) отражают взаимосвязи
векторов
,
,
и определяют принципиальный
алгоритм
метода
сопряженных градиентов.
7.4.6.Траектория поиска и некоторые выводы
Траектория поиска минимума может иметь, например, следующий вид (Рис.7.3)
Анализ
взаимосвязи последовательностей
векторов
,
и
показывает, что направления
строятся с помощью процедуры образования
-
сопряженных векторов, использующей
векторы
,
а градиенты
строятся ортогонализацией векторов
.
Рис.7.3.
7.4.7.Модификации метода сопряжённых градиентов
Модификации метода обусловлены необходимостью его применения для минимизации функций общего вида и различаются методами оценивания:
параметра сопряжения ;
вектора направления ;
шага .
Модификации параметра сопряжения , наряду с оценкой (7.4.3), представляются оценками
(7.4.12)
и
.
(7.4.13)
Результатом большого количества численных экспериментов явился вывод о предпочтительности оценки (7.4.13) (Бертсекас,1987).
Модификации вектора направления обусловлены тем фактом, что под влиянием неквадратичных составляющих может произойти потеря сопряжённости направлений.
Так,
в случае, когда число переменных
велико,
часто оказывается, что после ряда
итераций метод начинает генерировать
направления, движение вдоль которых
неэффективно. В связи с этим, процесс
построения сопряжённых направлений
(7.4.2) целесообразно вести циклами, начиная
каждый цикл с направления
наискорейшего спуска
.
Такое периодическое восстановление метода называется рестартом.
Основными правилами выбора моментов рестарта являются:
рестарт через каждые итераций;
рестарт через итераций или, если это произойдёт раньше, при выполнении условия
.
Модификации оценивания шага отличаются требованиями к точности численной оценки . Детальные численные исследования показали высокую эффективность метода при высокой точности оценки . Однако, очень точное решение соответствующей задачи одномерной минимизации, например, регуляризованным методом Брендта, порождает большой объём вычислений. Поэтому рациональным компромиссом представляется реализация метода с машинно точным оцениванием шага при ограничении допустимого числа итераций.