
- •Тема 16 Методы минимизации с переменной метрикой
- •Недостатки и достоинства метода Ньютона
- •Основные предпосылки
- •Идея алгоритмов
- •Многообразие и перспективность алгоритмов
- •Общий алгоритм методов с переменной метрикой
- •Сравните с методом Ньютона
- •Последовательность вычислений
- •Общая характеристика методов
- •Рекомендация
- •Метод ДАВИДОНА-ФЛЕТЧЕРА-ПАУЭЛЛА
- •Поясним вычисление матрицы А на примере двух переменных
- •Вычисление матрицы А на примере двух
- •Программная реализация (продолжение)
- •Общий вид матрицы А
- •Метод ГОЛЬДФАРБА (1970)
- •Метод ПРОЕКТИВНОГО ГРАДИЕНТА
- •Метод МАК-КОРМИКА 1
- •Метод МАК-КОРМИКА 2
- •Метод ГРИНСТАДТА
- •Сравнение методов по эффективности
- •Конец
Тема 16 Методы минимизации с переменной метрикой
Исходные предпосылки
Общий алгоритм методов с переменной метрикой
Основные методы
06/25/19 |
1 |
Недостатки и достоинства метода Ньютона
Описанный в предыдущей лекции метод Ньютона на каждой итерации требует вычисления вектора градиента и матрицы вторых производных. Их приходится вычислять на основе разделенных
разностей, а это требует значительных затрат.
rk 1 rk 1 rk rk x x zmG x f x
Из-за этого трудоемкость каждой итерации метода Ньютона становится непомерно большой, хотя количество самих итераций в этом методе теоретически меньше, чем в других методах.
Возникает вопрос – а возможно ли построить метод минимизации, который по количеству итераций не уступал бы методу Ньютона, но затраты на каждой итерации на вычисление нужного направления были
бы значительно меньшими. |
2 |
06/25/19 |
Основные предпосылки
С другой стороны привлекательной является идея адаптивного управления спуском к минимуму. Как известно, система адаптивного управления имеет свойство накапливать информацию о предыдущем поведении управляемого объекта и, используя эту информацию, совершенствовать заложенный в ней алгоритм управления.
В приложении к рассматриваемой нами задаче оптимизации адаптивный алгоритм поиска
минимума должен как-то накапливать информацию, полученную в результате выполненных начальных спусков таким образом, чтобы постепенно приближаться к теоретически оптимальному выбору очередного направления обоснованного в методе второго порядка Ньютона.
06/25/19 |
3 |
Идея алгоритмов
В рассмотренном ниже классе методов с переменной метрикой реализована идея адаптивного управления.
Информация о предыдущих итерациях накапливается в специальной матрице Н, которая по мере накопления информации
постепенно |
превращается |
в обратную |
матрицу Гессе |
H k |
G 1( xrk ) |
|
k |
|
При этом матрица вторых производных на каждом шаге не пересчитывается.
06/25/19 |
4 |
Многообразие и перспективность алгоритмов
Процесс обработки и накопления информации, получаемой на каждой новой итерации можно реализовать разными способами. Поэтому на сегодняшний день было предложено множество различных методов, которые мы рассмотрим ниже.
Следует так же отметить, что на сегодняшний день предложен метод сходящийся за меньшее число итераций, чем метод Ньютона, хотя и использующий только матрицу вторых производных Гессе.
[Хромова Л.Н. Об одном методе минимизации с кубической скоростью сходимости. – Вестник Моск. ун- та Сер. Вычислит. Матем. и кибернетика, 1980, №3].
Поэтому возможно построение методов с переменной метрикой имеющих кубическую скорость сходимости, т.е. значительно более быстрых, чем метод Ньютона.
06/25/19 |
5 |

Общий алгоритм методов с переменной метрикой
Методами с переменной метрикой называется широкий класс эффективных градиентных методов, в
которых направление очередного спуска вычисляется |
|||||||||||||||
по формуле |
|
|
|
|
|
|
|
|
|
|
rk |
) |
|
||
|
|
|
|
rk |
|
|
|
|
|
|
|
f ( x |
|
||
d |
k |
H |
|
rk |
rk |
|
|
gk |
|
x |
|
|
|||
|
k |
g |
) |
|
1 |
|
|
1 |
|
|
|||||
|
|
|
|
g |
f ( x |
|
... |
... |
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
rk |
|
|
|
|
|
|
|
|
|
|
|
|
|
k |
) |
||||
|
|
|
|
|
|
|
|
|
gn |
f ( x |
|
||||
Hk |
Hk 1 Ak |
|
|
|
|
|
|
|
|
xn |
|
|
|||
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
Н - |
положительно |
определенная |
симметричная |
||||||||||||
матрица |
|
|
|
|
|
|
|
|
|
|
|
6 |
|||
|
|
06/25/19 |
|
|
|
|
|
|
|
|
|
|
|
Сравните с методом Ньютона
d |
k |
rk |
d |
k |
1 rk |
|
Hk g |
|
Gk g |
Hk Hk 1 Ak
•Ak корректирующая матрица, рассчитываемая по результатам
предыдущих спусков таким образом, чтобы обеспечить сходимость
H k |
G 1( xrk ) |
k |
|
06/25/19 |
7 |
Последовательность вычислений
На 1-м шаге следует положить Н0=Е |
r0 |
r0 |
) |
g |
f ( x |
Делаем очередной одномерный спуск в направлении
d |
k |
|
|
|
|
|
rk |
|
rk 1 |
|
|
rk |
zmd |
k |
|
|
Hk g |
|
x |
x |
|
||||||||||
делается пересчет корректирующей матрицы |
|||||||||||||||
Ak 1(v, u, H ) |
|
zmd |
k |
, |
r |
rk 1 |
|
rk |
|||||||
|
|
u |
g |
g |
|||||||||||
|
|
|
|
|
|
|
rk 1 |
|
то производится вычисление |
||||||
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|||||||||||
Если |
|
zm |
|
|
g |
|
|||||||||
|
|
||||||||||||||
|
|
|
|
|
|
|
нового направления спуска Нk+1=Нk+Аk+1;
k 1 rk 1
d Hk 1g
06/25/19 |
8 |

|
|
|
|
r0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
x |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Вычислить H=E |
r0 |
|
|
r0 |
|
|
|
|
r |
0 |
|
|
|
|
||||||
g |
|
|
f (x |
); d g |
|
|
|
|
|
|||||||||||
Найти zm , минимизирующее одномерную функцию |
|
|
||||||||||||||||||
Начальное z0=0 |
|
|
(z) |
|
r0 |
zd ) |
|
|
|
|
|
|
||||||||
|
|
|
|
f ( x |
|
|
|
|
|
|
||||||||||
Вычислить |
r1 |
|
r0 |
zmd; |
r |
|
|
|
|
r0 |
r1 |
|
|
|||||||
x |
x |
v zmd; |
x |
|
|
x |
|
|
||||||||||||
Вычислить |
r1 |
f |
r1 |
); |
r r1 |
r0 |
; |
r0 |
|
|
r1 |
|
|
|||||||
g |
|
(x |
|
u |
g |
g |
|
g |
|
g |
|
|
||||||||
Вычислить |
H H |
|
|
r |
r |
|
|
r |
|
|
|
|
r1 |
|
|
|||||
A(v |
, u, H ); |
d |
Hg |
|
|
|||||||||||||||
|
|
|
|
r |
|
r1 |
|
|
|
|
|
r1 |
; |
r1 |
), |
r1 |
||||
|
|
|
|
v |
g |
|
|
|
|
|
x |
f ( x |
g |
|||||||
06/25/19 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
9 |
Общая характеристика методов
В результате методы получаются
асимптотически второго порядка.
Матрица Гессе не пересчитывается на каждом спуске, и в результате
вычислительные затраты на итерацию аналогичны как и в простых градиентных методах.
Однако, в отличие от метода Ньютона, в котором минимум квадратичной функции находится за один спуск, методы с переменной метрикой гарантируют нахождение минимума квадратичной функции за n спусков (n – размерность вектора ).
06/25/19 |
10 |