- •Метод деления интервала пополам
- •5. Унимодальные функции. Метод «золотого сечения»
- •6. Метод Свенна для поиска отрезка, содержащего точку минимума
- •7. Одномерная оптимизация. Метод Ньютона-Рафсона
- •8. Одномерная оптимизация. Квазиньютоновский метод.
- •Случайный поиск
- •13. Метод Марквардта
- •14. Задачи с ограничениями. Поиск оптимума в задачах с ограничениями типа равенств. Метод неопределенных множителей Лагранжа.
- •16. Поиск оптимума в задачах с ограничениями. Метод факторов.
- •18. Линейное программирование. Преобразование основной задачи к основной задаче лп с ограничениями-неравенствами (форма а).
- •19. Линейное программирование. Геометрическое решение двумерных задач. Основная теорема о решении задачи лп.
13. Метод Марквардта
Этот метод является комбинацией методов градиентного спуска и Ньютона, в котором удачно сочетаются положительные свойства обоих методов. Движение в направлении антиградиента из точки , расположенной на значительном расстоянии от точки минимума , обычно приводит к существенному уменьшению целевой функции. С другой стороны, направление эффективного поиска в окрестности точки минимума определяются по методу Ньютона.
Отметим, что в различных модификациях метода Ньютона требуется большое количество вычислений, так как на каждой итерации следует сначала вычислить элементы матрицы , а затем решать систему линейных уравнений. Применение конечно разностной аппроксимации первых и вторых производных только ухудшит ситуацию.
Поэтому в последнее время построено много, так называемых квазиньютоновских методов, как с аналитическим вычислением градиента и матрицы Гессе, так и с их конечно разностной аппроксимацией. Эти методы опираются на возможность аппроксимации кривизны нелинейной целевой функции без явного формирования ее матрицы Гессе. Данные о кривизне накапливаются на основе наблюдения за изменением градиента во время спуска.
Различные формы таких методов, часто называемые методами секущих, показали неплохие результаты в научных и технических исследованиях.
В соответствии с методом Марквардта, направление поиска определяется равенством
(1), а новая точка задается формулой .
В системе (1) I – единичная матрица, – матрица Гессе, .
В последней формуле коэффициент перед взят равным 1, так как параметр в (1) позволяет менять и длину шага, и его направление.
На начальной стадии поиска параметру приписывается некоторое большое значение, например 104 , так что
Таким образом, большим значением соответствует направление поиска
то есть направление наискорейшего спуска.
Из формулы (1) можно заключить, что при уменьшении λ до нуля вектор изменяется от направления, противоположного градиенту, до направления, определяемому по Ньютону. Если после первого шага получена точка с меньшим значением целевой функции, то есть , следует выбрать и реализовать еще один шаг. В противном случае нужно положить , где , и вновь реализовать предыдущий шаг.
Заметим, что недостатком метода Ньютона является то, что если матрица Гессе не является положительно определенной, то Ньютоновский шаг не приводит к убыванию функции. Поэтому “исправление” Гессиана в соответствии с формулой модифицирует матрицу и при соответствующем выборе делает ее положительно определенной, так как единичная матрица положительно определена.
Приведем теперь алгоритм метода:
-
Задать – начальное приближение к , M-максимально допустимое количество итераций и – параметр сходимости.
-
Положить .
-
Вычислить .
-
Проверить ||||. Можно взять |||| = . Если да, то перейти к п.11.
-
Проверить ? Если да, то перейти к п.11.
-
Вычислить шаг , решив систему .
-
Положить .
-
Проверить: . Если да, то перейти к п.9, иначе к п.10.
-
Положить ,. Перейти к п.3.
-
Положить . Перейти к п.6.
-
Вывод результатов: , k