Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

MOP

.pdf
Скачиваний:
9
Добавлен:
19.03.2015
Размер:
1.51 Mб
Скачать

У результаті одержуємо: точка мінімуму х 99.71, значення функції в цій точці

Lmin 0. 0841.

ЗАВДАННЯ №5

За допомогою зазначеного методу одновимірної оптимізації на заданому інтервалі і з заданою точністю ps знайти мінімальне значення функції цілі F(x):

1.Метод Фібоначі

 

 

11. Метод розподілу інтервалу навпіл

F(x)=(1-x2)(2+x) на інтервалі [-2;0]

F(x)=

x

на інтервалі

[-2;0]

 

 

 

ps=0.1

 

 

4x 2 1

 

 

 

 

 

 

 

 

 

ps=0.1

 

2. Метод розподілу інтервалу навпіл

12. Метод золотого перетину

 

F(x)=(1-x2)2x на інтервалі

[-1. 5;0.5]

F(x)= 4 x 2 2x

на інтервалі

[-2;0]

 

 

 

ps=0.1

 

 

 

 

ps=0.1

 

3. Метод золотого перетину

 

13. Метод Фібоначі

 

F(x)=(1-x2)5x

на інтервалі

[-1. 5;0.5]

F(x)=(2-x2)(4-x) на інтервалі [1.5;3.5]

 

 

 

ps=0.1

 

 

 

 

ps=0.1

 

4. Метод Фібоначі

 

 

14. Метод розподілу інтервалу навпіл

F(x)=

x

на інтервалі

[-2;0]

 

 

 

 

 

 

 

F(x)=(5-x2)7x на інтервалі [-2. 5;-0. 5]

4x 2 1

 

 

 

ps=0.1

 

 

 

 

ps=0.1

 

5. Метод розподілу інтервалу навпіл

15. Метод золотого перетину

 

F(x)= 4 x 2 2x на інтервалі

[-2;0]

F(x)=(1-x2)(2+x) на інтервалі [-2;0]

 

 

 

ps=0.1

 

 

 

 

ps=0.1

 

6. Метод золотого перетину

 

16. Метод Фібоначі

 

F(x)=(2-x2)(4-x) на інтервалі [1.5;3.5]

F(x)=(1-x2)2x на інтервалі [-1. 5;0.5]

 

 

 

ps=0.1

 

 

 

 

ps=0.1

 

7. Метод Фібоначі

 

 

17. Метод розподілу інтервалу навпіл

F(x)=(5-x2)7x на інтервалі

[-2. 5;-0. 5]

F(x)=(1-x2)5x на інтервалі [-1. 5;0.5]

 

 

 

ps=0.1

 

 

 

 

ps=0.1

 

8. Метод розподілу інтервалу навпіл

18. Метод золотого перетину

 

F(x)=(1-x2)(2+x) на інтервалі [-2;0]

F(x)=

x

на інтервалі

[-2;0]

 

 

 

ps=0.1

 

 

4x 2 1

 

 

 

 

 

 

 

 

 

ps=0.1

 

9. Метод золотого перетину

 

19. Метод Фібоначі

 

F(x)=(1-x2)2x на інтервалі

[-1. 5;0.5]

F(x)= 4 x 2 2x

на інтервалі

[-2;0]

 

 

 

ps=0.1

 

 

 

 

ps=0.1

 

10. Метод Фібоначі

 

 

20. Метод розподілу інтервалу навпіл

F(x)=(1-x2)5x

на інтервалі

[-1. 5;0.5]

F(x)=(2-x2)(4-x) на інтервалі [1.5;3.5]

 

 

 

ps=0.1

 

 

 

 

ps=0.1

 

33

НЕЛІНІЙНА БАГАТОВИМІРНА БЕЗУМОВНА ОПТИМІЗАЦІЯ

Загальний вигляд задачі:

 

 

 

x

 

 

 

 

 

1

 

Необхідно оптимізувати

 

 

x2

 

f (x) min , де

x

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xn

 

ОСНОВНІ ВІДОМОСТІ ТА ВИЗНАЧЕННЯ

Визначення: Градієнтом функції називається вектор, проекціями якого на координатні осі служать відповідні приватні похідні функції,

 

 

f

 

f

 

f

 

f

 

тобто: f (x)

 

,

 

,

 

, ,

 

.

 

 

 

 

 

 

x1

 

x2

 

x3

 

xn

Градієнт - це вектор, що вказує напрямок збільшення досліджуваної функції, тому всі методи нелінійної багатовимірної безумовної оптимізації,

пов'язані з визначенням або градієнту в цілому, або з визначенням тільки деяких складових градієнту. Довжина градієнту дорівнює найбільшій швидкості

зростання функції в цій точці.

На досліджувану функцію накладається обов'язкова умова про те, що функція повинна бути опуклою (для точки мінімуму) або увігнутою (для точки

максимуму).

Множина точок називається опуклою, якщо ця множина разом із будь-

якими своїми двома точками містить і весь відрізок, з'єднуючий ці точки.

 

Функція

 

 

 

 

f x , якщо

x визначена на опуклій множині n-мірного простору,

називається опуклою на цій множині, якщо

 

 

 

 

 

F x1

(1 ) x2

F(x1) (1

)F(x2 ), x1, x2 M

можна дати аналогічне визначення увігнутої функції, при цьому нерівність необхідно змінити протилежною нерівністю .

Деякі властивості опуклих і увігнутих функцій:

34

1.

 

 

 

 

 

 

 

 

Якщо функція f x опукла,

то [- f x ] увігнута, тобто можна перейти від

 

задачі мінімізації до задачі максимізації, або навпаки, що досягається

 

зміною опуклої функції дослідження ввігнутою функцією.

 

 

 

 

 

 

 

 

для i = 1…n, і при цьому

2.

Якщо існує послідовність опуклих функцій

fi x

 

існують довільні значення і

0, то функція

n

 

 

 

 

i fi (x) теж є опуклою.

 

 

 

 

 

 

 

i 0

3.

Опукла або увігнута функція беззупинна в кожній внутрішній точці

 

опуклої або увігнутої множини, на якому визначена досліджувана функція.

4.

 

 

 

 

 

 

 

 

Функція f x є опуклої в тому і тільки в тому випадку, якщо для будь-якої

 

 

 

 

 

 

 

 

 

точки х М виконується

2 F(x)

xi x j 0 , якщо хi і хj не зверта-

 

 

 

i

j

 

xi x j

 

 

 

 

ються в 0.

 

 

 

 

 

 

 

 

Критерій Сильвестра:

 

 

 

 

 

 

 

 

 

 

 

 

 

всі головні мінори матриці других та

 

Функція f x є опуклою тоді, коли

змішаних приватних похідних

функції

 

 

 

f x приймають позитивні або нульові

значення, у цьому випадку матриця є позитивно визначеною. Функція

 

є

f x

увігнутою, якщо знак усіх головних мінорів матриці других та змішаних приватних похідних чергується, починаючи з «-». При цьому матриця називається негативно визначеною. В усіх інших випадках знак матриці невизначений, тому матриця називається знако-невизначеною.

Будь-яка задача нелінійної багатовимірної безумовної оптимізації на

визначення екстремальних значень функції вирішується за допомогою двох

основних теорем, які є необхідною і достатньою умовами існування екстремумів функції.

Теорема 1: {необхідна умова існування екстремума}

 

 

Для того, щоб точка x* була стаціонарною точкою деякої функції

F (x) ,

необхідно, щоб усі координати градіенту у цій точці дорівнювали нулю.

 

Теорема 2: {достатня умова існування екстремума}

 

35

 

Нехай точка x* стаціонарна. Для того, щоб точка x* була точкою мінімуму досить, щоб матриця Гесса (матриця других приватних і змішаних похідних) в

ній була позитивно визначеною. У випадку, коли матриця Гесса в x* є негативно визначеною, точку x* необхідно вважати точкою максимуму.

Загальний вигляд матриці Гесса:

Матриця Гесса симетрична, через те, що для беззупинних функцій неважливий порядок взяття приватних похідних, що утворюють змішані похідні.

H (x)

 

 

2 F

 

 

x12

 

 

 

 

2 F

 

 

 

x2 x1

 

 

 

 

 

 

 

2 F

 

 

 

 

 

 

xn x1

 

 

2 F

 

 

2 F

 

 

 

 

 

 

 

 

 

 

x1 x2

 

 

x1 xn

2 F

 

 

2 F

 

 

x22

 

 

 

 

 

 

 

 

x2 xn

 

 

 

 

2 F

 

 

2 F

 

 

 

 

2

 

 

xn x2

 

 

 

 

xn

 

 

Серед методів багатовимірної безумовної оптимізації розрізняють точні та наближені.

МЕТОД ЕЙЛЕРА Це точний метод, який дозволяє досліджувати функцію і визначити будь-які

екстремальні значення функції (мінімум, максимум, точки перегину).

Метод цілком побудований на необхідній і достатній умовах існування екстремума функції і умовно складається з двох кроків:

1-й крок. Визначаємо аналітичний вигляд градієнту функції, прирівнюємо всі координати градієнту до нуля і визначаємо стаціонарні точки функції,

вирішуючи нелінійну систему рівнянь.

2-й крок. Будуємо матрицю Гесса. Визначаємо її числовий вид і знак для кожної стаціонарної точки, визначеної на першому кроці. Класифікуємо стаціонарні точки за критерієм Сильвестра .

Наприклад. Знайти всі стаціонарні точки заданої функції

 

x1

3

2

 

x1

3

2

6x1

 

f x

2

2x2 1

4x1 x2 6x1 f x

2

2x2 1 4x1 x2

та

класифікувати їх тип.

36

Розв язок. Побудуємо систему приватних похідних функції, прирівнюємо їх до нуля. У результаті отримуємо систему нелінійних рівнянь:

3 x 2 2 4x

 

6 0;

 

 

 

 

2

 

 

 

4

 

 

 

 

 

 

 

 

 

 

1

 

 

2

 

 

X

1

 

3

 

X

2

 

3

 

,

де

X

 

,

X

 

- стаціонарні

 

4 2x

 

1 4x 0

 

 

 

 

1

 

 

 

 

 

 

 

 

1

 

 

2

 

 

2

 

1

 

 

 

 

 

6

 

 

 

 

 

2

 

 

 

 

 

 

 

 

точки функції. Класифікуємо їх за допомогою матриці Гесса, загальний вигляд

якої

 

 

6 x1 2

4

 

 

 

 

 

H x

 

 

 

 

 

. Для класифікації точок підставимо їх координати в

 

 

 

 

4

 

 

8

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

матрицю Гесса:

 

 

 

 

 

 

 

 

 

 

 

 

 

2

2

 

 

 

8

4

 

,

 

 

H X

1

 

6 3

 

4

 

 

 

, тоді X1 - точка перегину функції

 

 

 

4

 

8

 

 

8

 

 

 

 

 

 

 

 

 

4

 

 

 

 

 

 

6 4 2

4

 

 

12 4 ,

 

 

- точка мінімуму функції.

H x

 

 

 

 

 

 

 

 

 

, тоді X

2

 

 

 

4

 

8

 

 

 

4 8

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

НАБЛИЖЕНІ МЕТОДИ БЕЗУМОВНОЇ БАГАТОВИМІРНОЇ НЕЛІНІЙНОЇ ОПТИМІЗАЦІЇ

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

1

 

 

 

Необхідно оптимізувати

 

 

x2

 

 

 

f (x)

min де x

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xn

 

 

 

До вихідної задачі необхідно ще додати початкове наближення до точки

 

 

 

 

 

 

 

 

 

 

 

оптимуму x0 і точність обчислення >0.

 

 

 

 

 

 

 

 

 

Метод Ньютона

 

 

 

 

Заснований на послідовному визначенні точок за допомогою рекурентного

 

 

 

 

H

1

 

 

, де

 

співвідношення: xn

xn 1

 

(xn 1 ) F (xn 1 )

 

H

1

 

 

 

 

 

 

 

 

 

 

(xn 1 ) - зворотня матриця Гесса в точці xn 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

F (xn 1 ) - градіент у точці

xn 1

 

 

 

 

 

 

Наближеною точкою оптимуму будемо вважати ту, значення градієнту в якій по модулю менше або дорівнює . При визначенні точок відбувається

37

перебір припустимих значень точки оптимуму по напрямку антиградієнта функції, тобто по напрямку зменшення значення функції цілі. На цьому принципі заснований будь-який градієнтний наближений метод оптимізації.

Метод дає швидке рішення задачі, якщо початкову точку задано якнайближче до точки оптимуму.

Недоліком методу є постійне визначення зворотної матриці на кожному кроці пошуку точки наближення до оптимуму.

Метод найскорішого спуску

Цей метод є модифікацією методу Ньютона. Не вимагає використання матриці Геса для обчислень і дає краще наближення в тому випадку, якщо

початкова точка віддалена від точки оптимуму.

 

Обчислення

координат

точок ведуться

по наступному рекурентному

 

 

 

 

співвідношенню: xn

xn 1 F (xn 1 ) .

 

Умова завершення перерахунку така ж, сама і в методі Ньютона.

 

 

 

 

визначається як точка мінімуму функції F (xn 1

F (xn 1)) min

Метод покоординатного спуску У методі покоординатного спуску кожна координата точки визначається

окремо, причому отримане значення i-ї координати використовується при визначенні i+1-ї координати. Умова завершення підрахунку точок така ж сама, як і в усіх наближених градієнтних методів: точки перераховуємо доти, поки градієнт у деякій к-ій точці по модулю буде не більше заданої точності

обчислень. Тоді точка вважається точкою мінімуму. Необхідно обчислити x(k )

значення функції в цій точці.

 

x

 

 

 

 

1

 

 

 

x2

 

 

x

 

 

 

;

 

 

 

 

 

 

 

 

 

 

 

 

 

xn

 

 

 

F

 

 

 

 

 

 

 

x1 (k 1)

 

 

x

xk

 

 

 

 

 

~

x2 (k)

 

x1 (k 1) x1 (k)

 

 

 

 

 

 

 

1

 

 

 

 

 

;

 

 

-проміжна точка;

 

 

 

x

 

2

 

 

 

 

 

F

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

x21

 

 

 

k

 

 

x (k)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

38

 

 

F

 

x

 

 

 

 

 

 

 

 

 

 

 

 

x2

 

 

k

 

x2 (k 1) x2 (k)

 

 

 

 

;

2 F

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

x2

 

 

k

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

x (k 1)

 

 

 

 

1

 

 

~

x2 (k 1)

 

 

xn 1

 

 

 

;

 

 

 

 

 

 

 

 

 

xn (k)

 

 

 

 

 

 

 

 

F

 

x

 

 

 

 

 

 

 

 

 

xn

 

 

n 1

xn (k 1) xn (k)

 

 

 

 

2 F

 

 

x

 

 

 

 

 

 

 

 

x2

 

 

n 1

 

 

 

 

 

 

n

 

 

 

 

 

x (k 1)

 

 

 

 

 

1

(k 1)

 

 

 

 

x2

 

 

;

xk 1

 

 

 

 

;

 

 

 

 

 

 

 

 

 

 

 

 

 

x (k 1)

 

 

 

 

 

n

 

 

 

Розглянемо використання наближених методів багатовимірної оптимізації на

 

 

x1

3

2

4x1 x2 6x1 , стаціонарні точки якої

прикладі функції

f x

2

2x2 1

5

класифіковані методом Ейлера раніше, якщо задано початковий вектор X 1

та точність =0.2

Розрахунки проводимо за допомогою пакету MathCad, тому використаємо його символіку.

f( x1 x2)

( x1

 

2)3

 

 

 

( 2 x2

 

 

 

1)2

 

 

4 x1 x2

 

6 x1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X0

5

 

та точність =0.2.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Метод Ньютона

Побудуємо градієнт функції та матрицю Геса.

grad( x1 x2)

3

 

( x1

 

2)

2

 

 

4

 

x2

 

 

6

H( x1

x2)

 

 

 

6 ( x1

 

2)

4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4 ( 2 x2

 

 

 

 

1)

 

4 x1

 

 

 

4

 

8

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Отримаємо значення градієнта, матриці Геса та зворотної матриці Геса в початковій точці X0:

grad X00 X01

 

 

25

H X00 X01

 

 

18

 

4

H X00 X01

1

0.063

0.031

 

 

 

 

 

 

 

24

 

 

 

 

4

8

 

 

0.031

0.141

 

 

 

 

 

 

 

 

 

 

39

Оскількі градієнт функції в заданій точці не відповідає вимогам точності, запишемо правило переходу до наступної точки X1:

X1 X0

 

H X0

 

X0

1

 

grad X0

 

X0

 

 

0

1

 

0

1

 

 

 

 

 

 

 

Після обчислень отримаємо координати точки X1 та значення градієнта функції в ції точці:

X1

4.188

grad X10 X11

 

1.98

1.594

0

 

 

 

Вимоги точності в цій точці також не виконані, тому обчислюємо наступну:

X2

 

 

 

X1

 

H X1 X1

1

1 grad X1

0

X1

 

 

 

 

 

 

 

 

 

 

0

 

 

 

1

 

 

 

X2

 

4.009

 

grad X20

X21

 

 

0.095

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1.505

 

 

 

 

 

 

 

 

15

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3.553

10

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Вимоги точності в точці X2 виконані, оскількі обидві координати вектора - -градієнта меньші, ніж 0.2. Точка X2 є точкою мінімума. Обчислимо значення функції в точці X2:

f X20 X21 24

Метод найскорішого спуску

Вигляд функції, початкова точка, точність обчислень тіж самі. Метод найскорішого спуска є методом першого порядка і не потребує використання матриці Гєса.

f( x1 x2) ( x1

 

 

2)3

 

 

 

 

 

 

( 2 x2

 

 

 

1)2

 

 

 

4 x1 x2

 

6 x1

 

 

 

 

 

 

 

 

 

 

 

grad( x1 x2)

 

3 ( x1

 

 

2)2

 

 

4 x2

 

 

6

 

 

 

 

 

5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4 ( 2 x2

 

 

 

1)

 

 

 

 

4 x1

 

 

 

X0

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

grad X00 X01

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

25

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

24

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Оскількі градієнт функції в заданій точці не відповідає вимогам точності, запишемо правило переходу до наступної точки X1:

X1=X0- *grad(X0) X11=10- *146

X12=10- *44

40

Підставимо отримані координати точкі X1, які записані у символьному вигляді через

коефіцієнт в задану функцію f(x1,x2).

 

Тепер функція f стала функцією одного

аргумента . Знайдемо мінімум цієї функції за допомогою класичного метода

Ейлера, використовуючу першу та другу похідні функції f.

 

 

 

 

 

 

f( )

( 5

 

 

25

 

 

2)3

1)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( 2 ( 1

 

 

 

 

24)

 

 

 

 

 

 

 

 

 

 

 

4 ( 5

 

 

 

25

 

 

2) (

 

1

 

 

 

24)

 

6 ( 5

 

25

 

2)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f1( )

 

 

 

 

75 ( 3

 

 

 

 

 

25 )2

 

 

 

334

 

 

 

 

 

 

9408

 

перша похідна

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g( )

20658

 

 

 

93750

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

друга похідна

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рішенням рівняння f1( ) є два значення :

 

1

0.385

2 0.056

Однак вимогам мінімуму функції відповідає тількі

 

2, оскількі значення другої

похідної в цій точці позитивне :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g( 1)

 

 

 

1.544

104

 

 

 

 

 

 

g( 2)

1.541 104

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Підставимо 2 в вирази координат точкі X1 та отримаємо числові координати цієї

точки та значення градієнту функції в ції точці:

 

 

 

 

 

 

 

 

 

 

 

 

X1

0

 

5

 

 

 

 

2 25

 

 

X1

1

 

 

 

 

1

 

 

 

 

2 24

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X1

 

3.6

 

 

 

 

 

 

 

 

 

 

 

grad

 

X10

X11

 

0.304

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.344

 

 

 

 

 

 

 

 

 

 

 

 

 

7.648

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Як і в методі Ньютона ми не отримали заданої точності , тому необхідно вести обчислення далі аналогічно попередньому кроку. Для задано ї функції необхідна точність буде отримана в точці X5 . Точка X5 - точка мінімуму.

X5

3.99

 

 

 

grad X50 X51

 

 

 

 

0.012

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1.473

 

 

 

 

 

0.176

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2)3

 

 

 

 

 

 

 

 

 

 

 

 

 

1)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f( x1 x2)

( x1

 

 

 

 

 

( 2 x2

 

 

 

 

 

 

 

 

 

 

 

4 x1 x2

 

 

6 x1

f X5

0

X5

1

 

 

23.998

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Метод покоординатного спуску

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Вигляд функції, початкова точка, точність обчислень тіж самі.

 

 

 

 

f( x1 x2)

( x1

 

2)3

 

 

 

 

( 2 x2

 

 

 

 

 

 

1)2

 

 

 

 

 

4 x1 x2

 

 

6 x1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

grad( x1 x2)

 

3 ( x1

 

2)2

 

 

4 x2

 

6

 

X0

 

5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4 ( 2 x2

 

 

 

 

1)

 

 

 

 

 

4 x1

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

41

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3 ( x1

 

 

2)2

 

 

 

 

 

 

 

4 x2

 

6

 

перша приватна похідна по x1

 

 

 

 

 

 

 

 

 

 

 

 

6 x1

12

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

друга приватна похідна по x1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

gr2( x1)

6 x1

 

12

 

 

друга приватна похідна по x1 є функцією від x1, тому

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

позначимо її як gr2(x1)

4 ( 2 x2

 

 

 

1)

 

 

 

 

 

 

4 x1

 

 

 

 

перша приватна похідна по x2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

8

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

друга приватна похідна по x2

grad X00 X01

 

 

 

 

 

 

 

Як і в попередніх випадках стартова точка не

25

 

 

 

 

 

 

 

24

 

 

 

 

 

відповідає вимогам точності, переходимо до

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

підрахунку першої координати наступної точки. За

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

правилом, що наведено раніше, отримуємо вираз для

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

координати X10

X10

 

X00

 

 

 

 

 

 

grad X00 X01 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

gr2 X00

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X1 p

 

 

 

 

 

 

X10

 

 

 

 

 

 

X1 p

 

 

3.611

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X01

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

grad(X00,X01)0 - це значення першої приватної похідної по координаті x1 в початковій точці X0, а gr2(X0)0 - це значення другої приватної похідної в точці X0.

X1p - проміжна точка, в якій перша координата є зміненою, а друга залишилася без змін. Переходимо до перерахунку другої координати точки X1, яка в MathCad позначається X11

 

 

 

 

 

 

grad X1 p

X1 p

 

 

 

 

 

 

 

 

X10

 

X1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3.611

 

 

 

X11

 

X01

 

 

 

0

 

 

 

1 1

 

 

X1

 

 

X11

 

0.344

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

8

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Отримана точка X1 має обидві змінені

 

 

 

 

 

 

 

 

 

 

3.435

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

grad X10 X11

 

 

 

 

 

 

15

 

 

 

координати. Значення градієнта в цій точці

 

 

 

 

 

 

не відповідає вимогам точності, тому

 

 

 

 

 

 

 

 

 

 

1.776 10

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

необхідно вести розрахунок наступної

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

проміжної точки, а потім наступної поточної

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

точки.

 

 

 

 

 

 

 

 

Необхідна точність досягається в точці X4, оскількі кожний складник градієнта

меньше

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X4

 

 

3.989

 

 

 

 

 

grad X40

X41

 

 

 

0.108

 

f X40 X41

 

23.999

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1.494

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

42

 

4 10

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]