Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ВМиМОвЭ Очное Шестакович 2011 / ВМиМОвЭ Шестакович 2011 модифицированный.doc
Скачиваний:
24
Добавлен:
13.05.2023
Размер:
4.32 Mб
Скачать

7.5. Методы первого порядка

Как известно, направление градиента является направлением наискорейшего возрастания функции. Следовательно, противоположное направление является направлением наискорейшего убывания функции. Это свойство антиградиента лежит в основе градиентных методов первого порядка. При этом направление наискорейшего убывания в данной точке не всегда оказывается наилучшим для спуска к точке минимума, поэтому для повышения эффективности вводят различные поправки. При выборе очередного направления используют накопленную информацию о функции из предыдущих спусков. Множество возможностей введения таких поправок определяет многообразие различных методов первого порядка.

7.5.1. Метод наискорейшего спуска

В этом методе на каждой к-й итерации решается задача одномерной минимизации целевой функции (хk+pk) относительно величины шага  в направлении pk=-(xk). Новая точка вычисляется по формуле:

xk+1=хk+ minpk.

Процесс прекращается, когда выполняется одно из условий:

||xk+1xk|| < или ||pk+1|| < .

7.5.2. Метод сопряженных градиентов Флетчера – Ривса

Широкое распространение получили градиентные методы, основанные на так называемых сопряженных направлениях. Общая схема рассматриваемого класса методов может быть представлена в следующем виде:

xk+1=хk+k minpk, где pk=-(xk)+kpk-1, k=1,2,…; p0=-(x0)

Здесь, как и ранее, на каждой к-й итерации решается задача одномерной минимизации целевой функции относительно величины шага , однако, направление поиска рk выбирается с учетом направлений на предыдущих итерациях. Различные способы выбора параметра k приводят к различным модификациям градиентных методов. Очевидно, что при k=0 схема вырождается в метод наискорейшего спуска. В частности, чтобы обеспечить хорошую сходимость рассматриваемых методов, k необходимо выбирать таким образом, чтобы i направляющих векторов (i n) на последующих шагах процесса минимизации были линейно независимыми. Этому условию удовлетворяют сопряженные направления. Два вектора v и u являются сопряженными относительно положительно определенной матрицы А, если имеет место соотношение vTAu=0. Всегда имеется хотя бы одно взаимно независимое множество сопряженных векторов, ибо такое множество образуют собственные векторы матрицы А. Метод сопряженных направлений заключается в выборе соответствующим образом k и образования такой последовательности направляющих векторов p0, p1,…, pn-1, чтобы эти векторы были сопряженными относительно матрицы Гессе. В методе Флетчера–Ривса к вычисляется по формуле:

Алгоритм метода.

  1. Задается начальная точка х0, точность решения задачи минимизации .

  2. Вычисляем градиент целевой функции g0=(x0).

  3. Вычисляем вектор направления поиска p0=-g0.

  4. Решаем задачу одномерной минимизации целевой функции

f(х0+ p0) относительно шага одним из ранее рассмотренных методов.

  1. Вычисляем новую точку х1=х0+minp0. Для к=1,2,…, n -1 последовательно повторяем п. 6 – 10.

  2. Вычисляем градиент целевой функции gk=f(xk).

  3. Вычисляем k

  1. Вычисляем вектор направления поиска

pk=-gk+ kpk-1

  1. Решаем задачу одномерной минимизации целевой функции (хk+pk) относительно .

  2. Вычисляем новую точку хk+1=хk+k minpk

  3. Проверяем условие сходимости ||xnx0|| < или ||gn|| < .

  4. Если заданная точность решения не достигнута, то переходим к п. 2, с заменой x0 на xn.