
- •5. Поисковая минимизация
- •5.1.Метод покоординатного спуска Гаусса-Зейделя (Gauss - Seidel)
- •5.2.Метод конфигураций Хука – Дживса (Hooke - Jeeves)
- •7. Градиентные методы
- •7.1.Градиентный метод
- •7.1.1.Итерационная схема метода
- •7.1.2.Основные модификации метода
- •7.2.Оптимальный градиентный метод
- •7.2.1.Итерационная схема метода
- •7.2.2.Анализ сходимости метода
- •7.2.3.Траектория поиска
- •7.2.4.Выводы
- •7.4.Метод сопряженных градиентов
- •7.4.1.Оценивание направления поиска
- •7.4.2.Оценивание шага
- •7.4.3.Основные соотношения метода сопряженных градиентов Флетчера-Ривса
- •7.4.6.Траектория поиска и некоторые выводы
- •7.4.7.Модификации метода сопряжённых градиентов
- •8. Ньютоновские методы
- •8.1.Методы Ньютона и Ньютона-Рафсона
- •8.2.Скорость сходимости методов Ньютона и Ньютона - Рафсона
- •8.3.Модификации методов Ньютона и Ньютона – Рафсона
- •8.4.Некоторые результаты и выводы
- •10. Методы штрафных и барьерных функций
- •10.1.Методы преобразования
- •10.2.Условия Куна - Таккера
- •10.3.Барьерные функции
- •10.3.1.Функция барьера
- •10.3.2.Сходимость методов барьерных функций
- •10.3.5.Многократная безусловная минимизация
- •10.3.6.Проблемы применения барьерных методов
- •10.4.Штрафные функции
8. Ньютоновские методы
8.1.Методы Ньютона и Ньютона-Рафсона
Предварительно рассмотрим метод Ньютона, применяемый для решения уравнения
.
Разложение в ряд Тейлора позволяет переписать это уравнение в виде
,
а значит,
.
Следовательно, для приближения к значению корня можно использовать выражение
.
(8.1.1)
Перейдем к решению мерной задачи минимизации, сводящейся, в силу необходимых условий оптимальности, к решению уравнения
.
Применяя разложение в ряд Тейлора для отыскания корня уравнения , получим
.
Это позволяет получить рекуррентное выражение для оценивания :
,
(8.1.2a)
или
(8.1.2b)
при
условии, что обратная матрица
существует.
Формулы (8.1.2) представляют градиентный метод, у которого градиент модифицирован обратной матрицей .
Для
квадратичной
,
где
положительно
определенная матрица, и произвольной
начальной точки
,
использование выражения (8.1.2), где
даёт
.
Поскольку
,
то
точка
является точкой минимума
.
Следовательно,
точка
минимума
квадратичной функции
находится за один шаг метода Ньютона
из произвольной начальной точки
.
Исторически название “метод Ньютона” закрепилось за рекуррентным соотношением (8.1.2), а название “метод Ньютона - Рафсона” - за соотношением
(8.1.3)
Отметим, что метод Ньютона, в котором ньютоновское направление комбинируется с другим выбором шага , например, из числа рассмотренных в разделе 6.3, то такой метод Ньютона с регулировкой шага называется релаксационным (Гилл, Мюррей, Райт,1985).
8.2.Скорость сходимости методов Ньютона и Ньютона - Рафсона
Метод Ньютона – Рафсона, минимизирующий нелинейную функцию общего вида, сойдется к точке с квадратичной скоростью при следующих условиях (Гилл, Мюррей, Райт,1985 ):
матрица в точке должна быть положительно определенной;
начальное приближение должно быть достаточно близко к ;
оценки последовательных шагов должны сходиться к единице.