- •Множество и функция Множество
- •Функция
- •Поле и пространство Поле
- •Пространство
- •Обозначение векторов и скаляров
- •Вопросы для самопроверки
- •Экстремумы. Критические и стационарные точки. Задача оптимизации Экстремумы
- •Локальные и глобальные минимумы
- •Задача оптимизации
- •Вопросы для самопроверки
- •Ряд тейлора и его свойства Градиент и матрица Гессе
- •Ряд Тейлора
- •Квадратичная форма Квадратичная форма и ее виды
- •Собственные числа и собственные вектора
- •Гессиан и квадратичная функция
- •Вопросы для самопроверки
- •Окончание поиска и численное дифференцирование Критерий останова для методов оптимизации
- •Численное дифференцирование
- •Вопросы для самопроверки
- •Методы дихотомии и трехточечного деления Метод дихотомии
- •Теорема
- •Метод трехточечного деления
- •Вопросы для самопроверки
- •Метод золотого сечения
- •Метод Фибоначчи
- •Метод ньютона, метод секущих Метод Ньютона
- •Метод секущих
- •Вопросы для самопроверки
- •Метод Мюллера
- •Методы градиентного спуска Условные обозначения
- •Градиентный методы спуска с постоянным шагом
- •Градиентный метод спуска с убывающим шагом
- •Вопросы для самопроверки
- •Метод наискорейшего спуска. Овражные задачи Метод наискорейшего спуска
- •Вопросы для самопроверки
- •Метод Ньютона
- •Модифицированные ньютоновские методы Демпфированный метод Ньютона с переменным αk
- •Метод Левенберга-Марквардта
- •Вопросы для самопроверки
- •Методы барзилая-борвейна
- •Стабилизированный метод Барзилая-Борвейна
- •Вопросы для самопроверки
- •Условия вульфа
- •Алгоритм 2: Линейный поиск на основе условий Вульфа
- •Вопросы для самопроверки
- •Методы сопряженных градиентов
- •Методы сопряженных градиентов
- •Дополнение
- •Вопросы для самопроверки
- •Метод бфгш с ограниченной памятью Классический метод бфгш и его проблемы
- •Алгоритм экономии памяти для метода l-bfgs
- •Алгоритм l-bfgs
- •Вопросы для самопроверки
- •Идея метода доверительных областей
- •Основные положения
- •Метод доверительных областей
- •Вопросы для самопроверки
- •Метод хука-дживса Описание метода
- •Вопросы для самопроверки
Метод Ньютона
Для функции векторного переменного метод Ньютона формулируется практически точно так же, как и для функции скалярного переменного.
Алгоритм 1: Метод Ньютона
Геометрический смысл метода Ньютона при этом также остается аналогичным, но его интерпретация немного усложняется. Рассмотрим 1 шаг метода Ньютона на 2-мерной задаче
Градиент этой функции равен:
Ее матрица Гессе равна:
Возьмем
в
качестве
начальной
точки
x0
= (1.3, 2)⊤.
Суть
метода
Ньютона
заключается
в
том,
чтобы
найти
точку, которая является точкой пересечения
обеих касательных плоскостей к
в
начальной
точке
x0
с
плоскостью
нулевого
уровня,
как
показано
на
рисунке
1.
(a) (b) (c)
Рис. 1 – (a) Касательная плоскость к fx1 в точке x0 (отмечена красным) пересекает плоскость нулевого уровня по синей линии. (b) Касательная плоскость к fx2 в точке x0 пересекает плоскость нулевого уровня по синей линии. (c) Точка, в которой касательные плоскости одновременно пересекают плоскость нулевого уровня – иcкомая точка, отмеченная зеленым.
Возвращаясь к исходной функции, получим новую точку, отмеченную на рисунке зеленым цветом, как показано на рисунке 2.
Основа метода Ньютона – ряд Тейлора:
Для стационарной точки, из условия стационарности ∇f(xk+1) = 0 получаем соотношение:
Отсюда следует уравнение метода для новой точки:
Рассмотрим пример работы метода Ньютона на функции Розенброка при e = 10−3, x0 = (−2, − 2)⊤. Траектория оптимизации показана на рисунке 3.
Преимущества и недостатки метода Ньютона:
1. Метод Ньютона имеет квадратичную сходимость на шаре B, x* ∈ B (теорема Канторовича):
где
ℎ
–
некоторая
константа,
связанная
с
.
2. Вне достаточно малой окрестности x* метод может не сходиться (отсутствие глобальной сходимости).
3. Метод не различает типы стационарных точек.
Демпфированный метод Ньютона
Введем т.н. демпфирующий параметр ak ∈ (0; 1].
Уравнение метода запишется следующим образом:
Смысл выбора параметра ak– он должен «увеличивать»область притяжения минимума B.
Рис. 4 – (a) Отрезок, соединяющий исходную (красную) точку и точку, найденную методом Ньютона (зеленую), разделен в соотношении a, где ak ∈ (0; 1] – демпфирующий параметр. Точка, отмеченная синим – точка, прини- маемая на очередном шаге в качестве новой точки демпфирующего метода Ньютона.
Алгоритм 2: Демпфированный метод Ньютона
Рассмотрим работу демпфированного метода Ньютона на функции Розенброка при параметрах e = 10−3, x0 = (−2, − 2)⊤, a = 0.4.
Траектория оптимизации показана на рисунке 5.
Как
видим,
по
сравнению
с
классическим
методом
Ньютона,
демпфированный
метод
Ньютона
требует
значительно
больше
итераций
при
тех
же
настройках
точности.
Вопросы для самопроверки
1. Почему демпфированный метод Ньютона делает больше шагов для достижения минимума?
2. Почему метод Ньютона не страдает от овражности функции Розенброка?
Модифицированные ньютоновские методы Демпфированный метод Ньютона с переменным αk
Рассмотрим модификацию демпфированного метода Ньютона, у которого демпфирующий параметр αk изменяется с изменением шага.
Алгоритм 1: Демпфированный метод Ньютона c переменным αk
Смысл переменного αk заключается в следующем. Необходимо, чтобы выполнялось равенство αk = 1 внутри области сходимости, и 0 < αk < 1 вне этой области для глобальной сходимости.
Одна из продуктивных идей, как можно настраивать αk, принадлежит Нестерову и Немировскому. Будем рассматривать самосогласованные функции, определяемые следующим образом:
1. Это либо выпуклые одномерые функции f (x) : |f rrr(x)| ≤ 2f rr(x)3/2.
2. Либо многомерные функции f (x), такие, что одномерная функция ϕ(t) = f (x + th)
самосогласованная.
Пусть gk = ∇f (xk), Hk = ∇2f (xk). Введем т.н. ньютоновский декремент: показывает близость градиента к текущей точке xk.
Уравнение метода Нестерова-Немировского:
Вариант,
предложенный
Нестеровым
и
Немировским:
Рассмотрим работу метода Нестерова-Немировского на следующем примере. Функция
Розенброка, точность ε = 10—3. Траектория оптимизации показана на рисунке 1. Зеленый – шаги, на которых δk > 1\4, синий – шаги, на которых δk ≤ 1\4.
