Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
26
Добавлен:
12.04.2015
Размер:
200.44 Кб
Скачать

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 21]

Пример 3

Найти минимум f(x) = x21+x22, g1(x) = x1¡1 = 0, g2(x) = x1+x2¡2 6 0.

Решение

1.В поставленной задаче m = 1, p = 2.

2.Составим вспомогательную функцию ©(x; sk):

©(x; s

) = x2

+ x2

+

sk

(x

1

¡

1)2 +

sk

(x1 + x2 ¡ 2)2; x1 + x2 ¡ 2 > 0;

 

 

k

1

2

2

 

2

(0; x1 + x2

¡

2

6

0:

 

 

 

 

 

 

 

 

 

 

 

 

 

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 22]

3. Найдем безусловный минимум вспомогательной функции ©(x; sk) по x =

(x1; x2)T с помощью необходимых и достаточных условий экстремума:

(

 

@(x; sk)

=

2x1 + sk(x1 ¡ 1) + sk(x1 + x2 ¡ 2) = 0;

x1 + x2 ¡ 2 > 0;

 

@x1

 

=

2x1 + sk(x1 ¡ 1) = 0; x1 + x2 ¡ 2 6 0:

 

¡

 

 

@x2 k

 

(2x2

= 0; x¡1 + x2

 

2 0:

¡

 

 

 

@(x; s

)

 

2x2

+ sk(x1

1) + sk

(x1

+ x2

 

2) = 0;

x1 + x2

 

2 > 0;

 

 

 

 

 

 

 

¡

6

 

 

 

 

 

 

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 23]

Пусть x1 + x2 ¡ 2 > 0.

 

 

 

 

 

 

 

 

 

 

 

Вычитая из первого уравнения второе, получим:

 

 

 

 

 

 

 

 

 

 

sk

 

 

 

 

 

 

x2 = x1 +

 

(x1 ¡ 1):

 

 

 

 

 

 

2

 

 

 

 

После подстановки в первое уравнение имеем

 

 

 

 

 

 

sk2 + 6sk

 

 

 

sk2 + 4sk

 

x1¤(sk) =

 

 

 

 

; x2¤(sk) =

 

 

 

 

:

s2

+ 6s

k

+ 4

s2

+ 6s

k

+ 4

 

k

 

 

 

 

 

k

 

 

 

Однако при всех sk > 0 имеем

x

1¤

+ x

2¤ ¡

2 =

¡2sk ¡ 8

< 0;

sk2 + 6sk + 4

 

 

 

 

что противоречит условию x1 + x2 ¡ 2 > 0.

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 24]

Пусть x1 + x2 ¡ 2 6 0. Тогда

x1¤(sk) =

sk

; x2¤ = 0:

2 + sk

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 25]

Матрица Гессе:

 

 

 

 

 

 

 

 

 

 

 

 

@2©(x) @2©(x)

 

 

 

 

 

 

H(x; sk) =

6

 

 

 

7

=

·

0

2¸

:

@2©(x)

 

@2©(x)

 

2

@x12

@x1@x2

3

 

 

2 + sk

0

 

 

6

 

 

 

7

 

 

 

 

 

 

6

 

2

7

 

 

 

 

 

 

4

 

 

 

5

 

 

 

 

 

 

6

@x2@x1

 

@x2

7

 

 

 

 

 

Так как угловые миноры ¢1 = 2+sk > 0, ¢2 = 2(2+sk) = 4+2sk > 0, (sk > 0), то матрица Гессе является положительно-определенной (достаточные

условия минимума ©(x; sk) выполняются).

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 26]

4. Условный минимум x¤ ищем как предел x¤(sk) при sk ! 1:

x

1¤

= lim

sk

= 1; x

2¤

= 0:

2 + sk

 

sk!1

 

 

Точка x¤ = (1; 0)T удовлетворяет условиям x1¤ + x¤2 ¡ 2 = ¡1 6 0 и x1¤ ¡ 1 = 0.

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 27]

 

ЗАДАЧИ

1.

Найти максимум f(x) = x1 ¡ 2x22 + 4x2, 3x1 + 2x2 + 6 = 0.

2.

Найти максимум f(x) = ¡4x12 ¡ 8x1 + x2 + 3, x1 + x2 + 2 = 0.

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 28]

2. Метод барьерных функций

Постановка задачи

Даны дважды непрерывно дифференцируемые целевая функция функция f(x) и функции ограничений-неравенств gi(x) 6 0, i = 1; m, определяющие множество допустимых решений D.

f(x¤) = min f(x);

x2D

где

D = ©x : gi(x) 6 0; i = 1; mª:

Описание метода. Идея метода состоит в сведении задачи условной минимизации к последовательности задач поиска безусловного минимума вспомогательной функции ©(x; sk):

©(x; sk) = f(x) + Ã(x; sk) ! min ; k = 1; 2; ::::;

x2RN

где Ã(x; sk) штрафная функция, sk > 0 параметр штрафа, задаваемый на каждой k-ой итерации.

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 29]

Как правило используются:

(а) обратная штрафная функция

Xm 1

Ã(x; sk) = ¡sk i=1 gi(x)

(б) логарифмическая штрафная функция

Xm

Ã(x; sk) = ¡sk ln(¡gi(x)):

i=1

Обе штрафные функции определены и непрерывны внутри множества D, т.е. на множестве D = ©x : gi(x) < 0; i = 1; mª и стремятся к 1 при

приближении к границе множества D изнутри. Поэтому штрафные функции называются барьерными.

При sk > 0 штрафная функция, задаваемая обратной функцией, положительна.

Логарифмическая штрафная функция положительна при ¡1 < g(x) < 0 и отрицательна g(x) < ¡1.

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 30]

1.Начальная точка x0 задается из области допустимых решений D.

2.На каждой k-ой итерации ищется точка минимума x¤(sk) вспомогательной функции ©(x; sk) с помощью одного из методов безусловной минимизации:

©(x¤(sk); sk) = min ©(x; sk):

x2RN

Соседние файлы в папке lecture