- •Киров 2006
- •Рецензент: к.Т.Н., доцент каф. Эвм Матвеева л.И.
- •1 Оформление лабораторной работы
- •1.1 Цель работы
- •1.2 Формирование отчета
- •2 Общие принципы методов поиска безусловного экстремума
- •3 Методы нулевого порядка
- •3.1 Метод конфигураций (метод Хука - Дживса)
- •3.2 Метод деформируемого многогранника
- •3.3 Метод вращающихся координат (метод Розенброка)
- •3.4 Метод сопряженных направлений (метод Пауэлла)
- •4 Методы первого порядка
- •4.1 Метод градиентного спуска с постоянным шагом
- •4.2 Метод наискорейшего градиентного спуска (Метод Коши)
- •4.3 Метод Гаусса - Зейделя
- •4.4 Метод сопряженных градиентов (Флетчера – Ривса)
- •5 Методы второго порядка
- •5.1 Метод Ньютона
- •5.2 Метод Ньютона - Рафсона
- •5.3 Метод Марквардта
- •6 Пример отчета по лабораторной работе
- •7 Блок вариантов заданий
- •8 Библиографический список
4.4 Метод сопряженных градиентов (Флетчера – Ривса)
Данный метод также получил название метода сопряженных градиентов.
В 1952г Эстенс и Штифель предложили эффективный итерационный алгоритм для решения систем линейных уравнений, который по существу представлял собой метод сопряженнх градиентов. Они рассматривали левые части линейных уравнений как компоненты градиента квадратичной функции и решали задачу минимизации этой функции. Позже Флетчер и Ривс обосновали квадратичную сходимость метода и обобщили его для случая неквадратичных функций.
Это один из важнейших методов сопряженных направлений, в котором требуется построить последовательность точек , таких, что
.
Точку задаёт пользователь. Остальные точки последовательности вычисляются по правилу:
,
,
,
а
числа
выбираются из условия
.
Вычисление
по этой формуле обеспечивает для
квадратичной формы
построение последовательности
H-сопряженных
направлений
для которых
.
При этом в точках последовательности
градиенты функции
взаимно перпендикулярны,
.
Величина шага определяется для каждого значения k из условия
. (7)
Решение этой задачи одномерной минимизации можно осуществить либо из условия , либо численно, с использованием методов одномерной минимизации, когда решается задача
.
При численном решении задачи определения величины шага степень близости найденного значения к оптимальному решению , удовлетворяющему условиям , зависит от задания интервала и точности методов одномерной минимизации.
Если функция - квадратичная с положительно определенной матрицей Гессе (H>0), то метод Флетчера-Ривса является конечным и сходится не более, чем за n шагов (где n – размерность вектора x).
При минимизации неквадратичных функций метод не является конечным, при этом погрешности в решении задачи (7) приводят к нарушению не только перпендикулярности градиентов, но и H-сопряженности направлений. Для неквадратичных функций часто используется алгоритм Полака-Рибьера, когда величина вычисляется по следующему принципу:
где
.
В алгоритме Полака-Рибьера, в отличие от алгоритма Флетчера-Ривса, используются итерации наискорейшего градиентного спуска через каждые n шагов.
Теорема
3
Если квадратичная функция
с неотрицательно определенной матрицей
Гессе достигает своего минимального
значения на
,
то метод Флетчера-Ривса обеспечивает
отыскание точки минимума не более, чем
за n
шагов.
Теорема 4 Если функция ограничена снизу, а ее градиент удовлетворяет условию Липшица , где L>0, то в алгоритме Полака-Рибьера .
Эта теорема гарантирует сходимость последовательности к стационарной точке , где . Т.е. найденную в результате применения алшоритма точку нужно дополнительно исследовать, чтобы классифицировать эту точку.
Алгоритм Полака-Рибьера гарантирует сходимость последовательности к точке минимума для сильно выпуклых функций.
Если функция является строго выпуклой, то поиск глобального минимума аналогичен поиску локального минимума этой функции. Если же имеет несколько локальных минимумов, то поиск глобального минимума осуществляется в результате перебора всех локальных минимумов.
Оценки скорости сходимости получены только для сильно выпуклых функций, когда последовательность сходится к точке минимума со скоростью
.
Алгоритм:
Шаг 1. Задать: начальную точку -малые положительные числа, M – предельное число итераций. Найти градиент .
Шаг 2. Положить k=0.
Шаг 3. Вычислить .
Шаг 4. Проверить выполнение критерия окончания :
а) если критерий выполняется, , расчет окончен;
б) если нет, то перейти к шагу 5.
Шаг 5. Проверить условие :
а) если неравенство выполняется, то , расчет окончен;
б)
если нет, то при k=0
перейти к шагу 6, а при
перейти к шагу 7.
Шаг 6. Определить .
Шаг 7. Определить
,
.
Шаг 8. Определить .
Шаг
9.
Найти
из условия
.
Шаг
10.
Вычислить
.
Шаг 11. Проверить выполнение условий
:
а) если выполняются оба условия в двух последовательных итерациях с номерами k и k-1, то расчет окончен, найдена точка ;
б) если не выполняется хотя бы одно из условий, то положить k = k + 1 и перейти к шагу 3.
Геометрическая интерпретация метода для n = 2 приведена на рисунке 4.7.
Рисунок 4.7.
Пример: Методом сопряженных градиентов найти локальный минимум функции
Решение:
1. Зададим , M: , , M =10.
Найдем градиент функции в произвольной точке
2. Положим k = 0.
30. Вычислим : .
40. Проверим условие : .
50. Проверим условие : .
60.
Определим
:
.
90.
Определим
из условия
(первая итерация выполняется по методу
наискорейшего спуска).
100.
Вычислим
.
110.
Проверим условия:
:
.
Полагаем k = 1, переходим к шагу 3.
31. Вычислим : .
41. Проверим условие : .
51. Проверим условие : .
71.
Определим
.
81.
Определим
.
91.
Определим
из условия
.
Воспользуемся формулой
.
Подставляя полученное выражение в , имеем:
.
Применяя необходимое условие безусловного экстремума
находим
.
Поскольку
,
то найденное значение шага обеспечивает
минимум функции
по
.
101.
Вычислим
.
111.
Проверим условия
:
Полагаем k = 2, переходим к шагу 3.
32.
Вычислим
:
.
42.
Проверим
условие
:
.
Расчет
окончен. Найдена точка
.
Проанализируем полученную точку:
Функция
есть квадратичная функция двух переменных,
имеющая положительно определенную
матрицу Гессе
- матрицу вторых производных. Это
позволяет сделать вывод о том, что
функция
строго выпукла, следовательно, имеет
единственный минимум, приближение
которого
найдено за две итерации.
Решение задачи представлено на рисунке 4.8.
Рисунок 4.8.
