- •Основные понятия.
- •Соответствие методов и множеств.
- •Общая схема безусловной оптимизации
- •Методы первого порядка (градиентные методы)
- •Градиентный метод с постоянным шагом
- •Выпуклые функции и множества
- •Cвойства выпуклых функций
- •2.Теорема:
- •4.Теорема:
- •5.Теорема:
- •Градиентные методы (продолжение)
- •2. Градиентный метод с дроблением шага.
- •3.Метод наискорейшего спуска.
- •4.Масштабирование.
- •1.2 Метод Ньютона.
- •Сравнительная таблица достоинств и недостатков градиентного метода и метода Ньютона:
- •Число обусловленности локального min.
- •1.3. Многошаговые ( двухшаговые ) методы.
- •1.4.Квазиньютоновские методы
- •1. Методы апроксимации
- •2. Метод покоординатного спуска
- •3.Метод симплексов (Нелдера- Нида)
- •4 .Метод Пауэлла (сопряженных направлений)
4.Масштабирование.
Пусть f(x) имеет вид:, где ai>0 сильно различаются между собой. Поверхности уровней функции вытянуты вдоль тех осей xi, которым соответствуют малые ai.
Для более эффективного применения градиентных методов необходимо превращение поверхностей уровня в круги
x0
Заменой переменных можно добиться того, чтобы у новых переменных yi поверхности уровней стали сферами. Для этого достаточно принять (все коэффициенты квадр. формы- единицы)
В случае, когда f(x) не квадратичная, а достаточно гладкая функция общего вида выбирают:
Это диагональные элементы матрицы вторых производных. Это преобразование не превратит поверхности уровня в сферы, но в некоторых случаях позволит уменьшить их вытянутость. Гарантировано исправить топографию функции f(x) можно, если учесть все, а не только диагональные элементы матрицы вторых производных и преобразования координат вида:
1.2 Метод Ньютона.
Разложим f(x) в ряд Тейлора до 2-го слагаемого включительно:
(*)
- вектор
- матрица Гессе, матрица вторых производных.
Будем рассматривать квадратичную аппроксимацию f(x) тогда получим (*) без то есть предполагаем, что f(x) квадратичная форма. Эта форма имеет единственную точку min, который является корнем уравнения f ’(x)=0.
В данном случае:
Метод Ньютона
Пример:
Сделаем одну итерацию метода Ньютона для квадратичной функции
Этот пример показывает связь решения системы уравнений Ax-b = 0 и поиска минимума соответствующей функции f(x).
= A - матрица вторых производных.
Одна итерация метода Ньютона:
Но это точка минимума квадратичной функции. Таким образом для квадратичной функции метод Ньютона сходится за один шаг (матрица А должна быть положительно определена и симметрична, значения собственных чисел (растянутость) не играют роли).
Точка х1 гораздо ближе к х* , чем в градиентных методах, но надо вычислить матрицу Гессе и обратить ее. Градиентный метод медленнее, но без дополнительных вычислений.
Оценим скорость сходимости метода Ньютона:
Теорема (о скорости сходимости метода Ньютона):
Пусть f(x) дважды дифференцируема, матрица удовлетворяет условию
Липшица с константой L :
f(x) сильно выпукла: 0 l I 2 f(x) и начальное приближение удовлетворяет условию:
Тогда метод Ньютона сходится х* с квадратичной скоростью
Доказательство:
Известно, что:
1)
Если на g’(x) удовлетворяет условию Липшица , то
Применим это отношение к 2 f(x), тогда
Пусть x = xk , тогда
Дано (см. условие)тогда:
Таким образом .
Пусть q1= (обозначим). Рассмотрим полученное неравенство
.........................................................................
Для сильно выпуклых функций известно
Тогда
Теорема доказана.
Если начальные условия не удовлетворяют требованиям теоремы, то метод может не сходиться.
Пусть метод обеспечивает выполнение следующего неравенства
, где d- наибольшее из чисел, для которых выполняется это условие, тогда d- скорость сходимости метода.
Если обозначить k = ,тогда скорость сходимости
d = , приk0 (k ).
Пусть k+1q k, 0 q 1. Для этого случая d =1- линейная скорость. Для метода Ньютона тогда k+1= const k2 d =2- поэтому скорость называется квадратичной.