Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лабораторная №3 Методы Ньютона и сопряженных градиентов. Хасанов А. Ю.doc
Скачиваний:
53
Добавлен:
25.05.2014
Размер:
80.9 Кб
Скачать

1.2.3 Минимизация неквадратичной целевой функции.

Метод Флетчера-Ривса может применятся для минимизации и неквадратичных функций. Он является методом первого порядка и в тоже время скорость его сходимости квадратична. Разумеется, если целевая функция не квадратична, метод уже не будет конечным. Поэтому после (n+1)-й итерации процедура повторяется с заменой x0 на xn+1, а счет заканчивается при ||f '(xk+1)||  ε, где ε – заданное число. При минимизации неквадратичных функций обычно применяется следующая модификация метода Флетчера-Ривса.

Схема алгоритма для неквадратичных целевых функций.

шаг 1:

При k = 0 ввод начального приближения x0 и условия останова ε3. Вычисление антиградиента S0 = – f '(x0).

шаг 2:

Решение задачи одномерной минимизации по  функции

f(xk + ·Sk), в результате чего определяется величина шага k и точка xk+1 = xk + k·Sk.

шаг 3:

Вычисление величин f(xk+1) и f '(xk+1).

(f '(xk+1), f '(xk+1) – f '(xk))

(f '(xk), f '(xk))

{

0, при k+1 Є I.

, при k+1 Є I,

шаг 4:

Если ||f '(xk+1)||  ε3, то точка xk+1 – решение задачи и на этом поиск заканчивается.

Иначе определяется коэффициент βk по формуле:

βk =

шаг 5:

Вычисление Sk+1 по формуле Sk+1 = – f '(xk+1) + βk·Sk.

Присваивается k = k + 1 и переход к шагу 2.

Здесь I – множество индексов, I = {0, n, 2n, 3n, …}. Значения k, для которых βk = 0, называют моментами обновления метода. Таким образом, обновление метода происходит через каждые n шагов.

2. Задание на лабораторную работу.

  1. Изучить предлагаемые методы безусловной оптимизации второго порядка и метод сопряженных градиентов.

  2. В соответствии с вариантом задания, определенным преподавателем, составить программы, реализующие методы поиска минимума; найти приближенное значение минимума с заданной точностью ε; определить количество точек, в которых пришлось вычислять функцию до достижения заданной точности; построить график траектории приближенных решений задачи минимизации.

  3. Оформить о выполнении задания с приведением условия задачи, алгоритмов и программ, указанных в задании методов поиска, построенных графиков траекторий приближенных решений задачи минимизации, результатов сравнения рассмотренных методов, заключения по результатам сравнения методов.

3. Варианты заданий.

  1. Методы минимизации:

а) метод Ньютона;

б) метод Ньютона-Рафсона с дроблением шага;

в) метод Ньютона-Рафсона с оптимальным шагом;

г) модификация I метода Ньютона;

д) модификация II метода Ньютона;

е) метод сопряженных градиентов;

  1. Варианты задач

целевая функция f(x) = f(x(1), x(2))= ax(1) + bx(2) + exp(c(x(1))2 + d(x(2))2)

Целевая функция

Начальное приближение

ε

a

b

c

d

1,0

-1,2

0,01

1,1

(0;1)

1·10–4

2,0

-1,3

0,04

1,2

(1;1)

2·10–4

3,0

-1,4

0,09

1,3

(-1;0)

3·10–4

10,0

-1,0

1,00

2,0

(0;0)

2·10–4

11,0

-0,9

1,21

2,1

(0;-1)

4·10–4

12,0

-0,8

1,44

2,2

(1;0)

3·10–4

16,0

-0,4

2,56

2,6

(1;1)

2·10–4

17,0

-0,3

2,89

2,7

(0;-1)

5·10–4

18,0

-0,2

3.24

2,8

(-1;0)

3·10–4

19,0

-0,1

3,81

2,9

(10;)

5·10–4