Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Optim_Glava_1-1.doc
Скачиваний:
3
Добавлен:
01.04.2025
Размер:
782.85 Кб
Скачать

1.4 Методы оптимизации 2-го порядка

1.4.1 Метод Ньютона

Пусть в текущей точке Xk матрица Гессе положительно определена. Тогда направление спуска Pk можно определить из условия минимума квадратичной функции специального вида. Разложим целевую функцию J(X) в ряд Тейлора относительно текущей точки Xk:

(1.4.1)

где

Функция Q(Xk ) есть квадратичная аппроксимация J(X) вблизи точки Xk. Аналогично разложим в ряд Тейлора функцию J(X) относительно точки Xk+1:

(1.4.2)

Для функции J(X) близкой к квадратичной, когда O(|k|3) близка к нулю, матрица Гессе G является матрицей констант и не зависит от значения X. Если предположить, что в точке Xk+1 находится минимум целевой функции J(X), то и сложив (1.4.1) и (1.4.2) и отбросив члены третьего и более высокого порядка малости (O(|k|3)~0 ) получим формулу Ньютона:

(1.4.3)

Достоинством метода Ньютона является отсутствие процедуры поиска минимума в заданном направлении и достижение для квадратичной функции точного решения за одну итерацию. Недостатками метода являются большие затраты на расчет матрицы вторых производных от целевой функции по поисковым параметрам и не гарантируемая сходимость к решению для не квадратичных целевых функций.

1.4.2 Метод Ньютона-Рафсона

Для повышения устойчивости работы метода Ньютона на не квадратичных функциях метод Ньютона был усовершенствован Рафсоном путем введения процедуры поиска минимума целевой функции в заданном направлении. Поисковое направление определяется по формуле:

(1.4.4)

Алгоритм метода Ньютона-Рафсона следующий.

{{{ Начало алгоритма.

1) Полагаем k=1 и Xk=Xinit.

2) Рассчитываем в точке Xk значения J(Xk), и G.

Вычисляем направление поиска по формуле (1.4.4) и находим минимум в этом направлении из условия:

k: min(J(Xk+kPk ). (1.4.5)

Рассчитываем новое приближение вектора поисковых параметров

Xk+1=Xk+kPk.

3) Если |kPk|> , то увеличиваем k на единицу k=k+1 и переходим опять к пункту 2), иначе поиск минимума окончен.

}}} Конец алгоритма.

Этот метод является одним из лучших методов безусловной оптимизации, но требует для своей реализации расчета матрицы Гессе, что при большом числе поисковых параметров является достаточно сложной и длительной процедурой. Однако идеи заложенные в этом методе нашли свое дальнейшее развитие в других методах оптимизации, например, в методах с переменной метрикой.

1.5 Методы оптимизации 1-го порядка

Методы оптимизации 1-го порядка требуют для своей реализации расчета не только значения целевой функции - J(X), но и расчета градиента от этой функции по поисковым параметрам g(X)=gradxJ(X)=xJ(X). Рассмотрим основные наиболее часто используемые методы 1-го порядка.

1.5.1 Метод наискорейшего спуска

В этом методе в качестве поискового направления выбирается направление антиградиента в текущей поисковой точке Xk, т.е.

Pk = - g(Xk). (1.5.1)

Антиградиент указывает направление наибольшего уменьшения целевой функции при движении из точки Xk.

Рис.1.5.1

Поиск минимума методом наискорейшего спуска

Алгоритм этого метода следующий.

{{{ Начало алгоритма.

1) Полагаем k=1 , Xk=Xinit и рассчитываем значение целевой функции J(Xk).

2) Рассчитываем градиент g(Xk) и поисковое направление Pk по формуле (1.5.1).

3) Определяем минимум в направлении Pk: k: min(J(Xk+kPk ). Рассчитываем новое приближение вектора поисковых параметров Xk+1=Xk+kPk.

4) Если |kPk|>, то увеличиваем k на единицу - k=k+1 и идем опять к пункту 2), иначе поиск закончен.

}}} Конец алгоритма.

Работу метода наискорейшего спуска в двумерном случае поясняет рис.1.5.1. Этот метод не оправдывает свое название, т.к. при точном поиске минимума в поисковых направлениях все направления взаимоортогональны и скорость сходимости у этого метода такая же низкая, как и в методе покоординатного поиска. Поэтому на практике этот метод используется крайне редко.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]