- •1. Краткие теоретические сведения.
- •1.1 Методы Ньютона.
- •1.1.1 Общая характеристика.
- •1.1.2 Метод Ньютона.
- •1.1.3 Методы с регулировкой шага (методы Ньютона – Рафсона).
- •1.1.3 Модификации метода Ньютона.
- •1.2 Метод сопряженных градиентов.
- •Рассмотрим квадратичную функцию n - переменных
- •1.2.3 Минимизация неквадратичной целевой функции.
- •2. Задание на лабораторную работу.
- •3. Варианты заданий.
1.2.3 Минимизация неквадратичной целевой функции.
Метод Флетчера-Ривса может применятся для минимизации и неквадратичных функций. Он является методом первого порядка и в тоже время скорость его сходимости квадратична. Разумеется, если целевая функция не квадратична, метод уже не будет конечным. Поэтому после (n+1)-й итерации процедура повторяется с заменой x0 на xn+1, а счет заканчивается при ||f '(xk+1)|| ε, где ε – заданное число. При минимизации неквадратичных функций обычно применяется следующая модификация метода Флетчера-Ривса.
Схема алгоритма для неквадратичных целевых функций.
шаг 1: |
При k = 0 ввод начального приближения x0 и условия останова ε3. Вычисление антиградиента S0 = – f '(x0). | ||
шаг 2: |
Решение задачи одномерной минимизации по функции f(xk + ·Sk), в результате чего определяется величина шага k и точка xk+1 = xk + k·Sk. | ||
шаг 3: |
Вычисление величин f(xk+1) и f '(xk+1). | ||
(f
'(xk+1),
f '(xk+1)
– f
'(xk))
(f
'(xk),
f '(xk))
{ 0,
при k+1
Є I. ,
при k+1
Є I, |
Если ||f '(xk+1)|| ε3, то точка xk+1 – решение задачи и на этом поиск заканчивается. Иначе определяется коэффициент βk по формуле:
βk =
| ||
шаг 5: |
Вычисление Sk+1 по формуле Sk+1 = – f '(xk+1) + βk·Sk. Присваивается k = k + 1 и переход к шагу 2. |
Здесь I – множество индексов, I = {0, n, 2n, 3n, …}. Значения k, для которых βk = 0, называют моментами обновления метода. Таким образом, обновление метода происходит через каждые n шагов.
2. Задание на лабораторную работу.
Изучить предлагаемые методы безусловной оптимизации второго порядка и метод сопряженных градиентов.
В соответствии с вариантом задания, определенным преподавателем, составить программы, реализующие методы поиска минимума; найти приближенное значение минимума с заданной точностью ε; определить количество точек, в которых пришлось вычислять функцию до достижения заданной точности; построить график траектории приближенных решений задачи минимизации.
Оформить о выполнении задания с приведением условия задачи, алгоритмов и программ, указанных в задании методов поиска, построенных графиков траекторий приближенных решений задачи минимизации, результатов сравнения рассмотренных методов, заключения по результатам сравнения методов.
3. Варианты заданий.
Методы минимизации:
а) метод Ньютона;
б) метод Ньютона-Рафсона с дроблением шага;
в) метод Ньютона-Рафсона с оптимальным шагом;
г) модификация I метода Ньютона;
д) модификация II метода Ньютона;
е) метод сопряженных градиентов;
Варианты задач
целевая функция f(x) = f(x(1), x(2))= ax(1) + bx(2) + exp(c(x(1))2 + d(x(2))2)
№ |
Целевая функция |
Начальное приближение |
ε | |||
a |
b |
c |
d | |||
|
1,0 |
-1,2 |
0,01 |
1,1 |
(0;1) |
1·10–4 |
|
2,0 |
-1,3 |
0,04 |
1,2 |
(1;1) |
2·10–4 |
|
3,0 |
-1,4 |
0,09 |
1,3 |
(-1;0) |
3·10–4 |
|
10,0 |
-1,0 |
1,00 |
2,0 |
(0;0) |
2·10–4 |
|
11,0 |
-0,9 |
1,21 |
2,1 |
(0;-1) |
4·10–4 |
|
12,0 |
-0,8 |
1,44 |
2,2 |
(1;0) |
3·10–4 |
|
16,0 |
-0,4 |
2,56 |
2,6 |
(1;1) |
2·10–4 |
|
17,0 |
-0,3 |
2,89 |
2,7 |
(0;-1) |
5·10–4 |
|
18,0 |
-0,2 |
3.24 |
2,8 |
(-1;0) |
3·10–4 |
|
19,0 |
-0,1 |
3,81 |
2,9 |
(10;) |
5·10–4 |