- •Множество и функция Множество
- •Функция
- •Поле и пространство Поле
- •Пространство
- •Обозначение векторов и скаляров
- •Вопросы для самопроверки
- •Экстремумы. Критические и стационарные точки. Задача оптимизации Экстремумы
- •Локальные и глобальные минимумы
- •Задача оптимизации
- •Вопросы для самопроверки
- •Ряд тейлора и его свойства Градиент и матрица Гессе
- •Ряд Тейлора
- •Квадратичная форма Квадратичная форма и ее виды
- •Собственные числа и собственные вектора
- •Гессиан и квадратичная функция
- •Вопросы для самопроверки
- •Окончание поиска и численное дифференцирование Критерий останова для методов оптимизации
- •Численное дифференцирование
- •Вопросы для самопроверки
- •Методы дихотомии и трехточечного деления Метод дихотомии
- •Теорема
- •Метод трехточечного деления
- •Вопросы для самопроверки
- •Метод золотого сечения
- •Метод Фибоначчи
- •Метод ньютона, метод секущих Метод Ньютона
- •Метод секущих
- •Вопросы для самопроверки
- •Метод Мюллера
- •Методы градиентного спуска Условные обозначения
- •Градиентный методы спуска с постоянным шагом
- •Градиентный метод спуска с убывающим шагом
- •Вопросы для самопроверки
- •Метод наискорейшего спуска. Овражные задачи Метод наискорейшего спуска
- •Вопросы для самопроверки
- •Метод Ньютона
- •Модифицированные ньютоновские методы Демпфированный метод Ньютона с переменным αk
- •Метод Левенберга-Марквардта
- •Вопросы для самопроверки
- •Методы барзилая-борвейна
- •Стабилизированный метод Барзилая-Борвейна
- •Вопросы для самопроверки
- •Условия вульфа
- •Алгоритм 2: Линейный поиск на основе условий Вульфа
- •Вопросы для самопроверки
- •Методы сопряженных градиентов
- •Методы сопряженных градиентов
- •Дополнение
- •Вопросы для самопроверки
- •Метод бфгш с ограниченной памятью Классический метод бфгш и его проблемы
- •Алгоритм экономии памяти для метода l-bfgs
- •Алгоритм l-bfgs
- •Вопросы для самопроверки
- •Идея метода доверительных областей
- •Основные положения
- •Метод доверительных областей
- •Вопросы для самопроверки
- •Метод хука-дживса Описание метода
- •Вопросы для самопроверки
Гессиан и квадратичная функция
Гессиан – симметричная квадратичная форма вида
f (x) = xTH x,
где H – матрица Гессе.
Гессиан входит в ряд Тейлора для произвольной функции f (x):
f (x + ∆x) = f (x) + ∇f (x)T∆x + 1\2 ∆xTH(x) ∆x + . . .
Квадратичная функция – функция вида
f (x) = c + bTx + xTA x,
где c – скаляр, b – вектор, A – матрица.
По теореме Тейлора, любую функцию можно аппроксимировать квадратичной функ- цией (рядом Тейлора 2-го порядка). В квадратичную функцию входит квадратичная форма. Кв форма - наиболее простая дважды дифф фия на векторном пространстве которая может иметь экстремум.
Вопросы для самопроверки
1. Покажите, что критерии минимума из этой лекции и из лекции 1.3 тождественны, если функция одномерная.
2. Какую функцию нельзя аппроксимировать квадратичной функцией в окрестности некоторой точки?
Окончание поиска и численное дифференцирование Критерий останова для методов оптимизации
Любой численный метод оптимизации задается алгоритмом, общий вид которого представлен ниже. Сначала задается начальная точка и заданная точность поиска минимума. Затем в цикле осуществляется переход в новую точку и проверяется критерий окончания поиска (КОП). Если он выполнен, алгоритм завершается.
В
идеале,
метод
оптимизации
строит
последовательность
{xk},
которая
является
фундаментальной,
и
сходится
к
точке
минимума
x∗.
Но
в
алгоритме
оптимизации
следует
задавать
конечную
точность,
поскольку:
1. В компьютере нет действительных чисел: во многих случаях истинное значение x∗ не может быть найдено.
2. Вычисления с абсолютной точностью могут потребовать бесконечного времени.
3. На практике обычно достаточно знать приближение x∗.
Так или иначе, когда последовательность {xk} сошлась, нам необходимо это опреде- лить. Как же использовать заданное значение точности для остановки алгоритма? Есть несколько способов определить критерий окончания поиска.
Первая идея такова. Рассмотрим длину вектора градиента в текущей точке (2-норму, т.е. расстояние по Евклиду)
или его наибольшую компоненту (∞-норму):
Пример использования 2-нормы показан на рисунке 1.
Если выбранная нами норма меньше заданного значения ε, то алгоритм завершает свою работу.
Вторая идея заключается в следующем. Рассмотрим изменения x или f (x) в двух последних точках:
Для одномерного случая эти изменения показаны на рисунке 2.
Е
сли
выбранная
нами
разница
меньше
заданного
значения
ε,
то
алгоритм
завершает
свою работу.
Также стоит заметить, что методы оптимизации иногда могут зацикливаться. На практике нет никакой гарантии, что последовательность {xk} действительно фундаментальная. В этом случае ни один из указанных критериев не будет достигнут, и для остановки метода оптимизации нужно применить критерий, связанный с максимальным возможным числом итераций или вычислений целевой функции.
Резюмируя, составим список основных вариантов критерия окончания поиска:
7. Наибольшее число итераций K = kmax или вычислений целевой функции N .
На практике обычно используют составной КОП, например:
где ε1, ε2 – заданные значения точности.
Конкретный вид критерия зависит от задачи и метода оптимизации.
Никогда не используйте слишком маленькие значения точности! Выбирайте ε ≥ 10−14. Данное ограничение связано с близостью к т.н. машинному эпсилону, равному для типа double величине порядка 10−16. Для корректной работы алгоритма ε должен быть существенно больше машинного эпсилона.
Наиболее простой и надежный КОП, который используется в примерах в этом курсе:
где
ε
–
заданная
точность.
