Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
26
Добавлен:
12.04.2015
Размер:
200.44 Кб
Скачать

ЧИСЛЕННЫЕ МЕТОДЫ ПОИСКА УСЛОВНОГО ЭКСТРЕМУМА

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 2]

1. Метод штрафов

Постановка задачи

Даны дважды непрерывно дифференцируемые целевая функция функция

f(x) и функции ограничений gj(x) = 0, j = 1; m, gj(x) 6 0, j = m + 1; p, определяющие множество допустимых решений D.

f(x¤) = min f(x);

x2D

где

D = ©x : gj(x) = 0; j = 1; m; m < N; gj(x) 6 0; j = m + 1; pª:

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 3]

Описание метода. Идея метода состоит в сведении задачи условной минимизации к последовательности задач поиска безусловного минимума вспомогательной функции ©(x; sk):

©(x; sk) = f(x) + Ã(x; sk) ! min ; k = 1; 2; ::::;

x2RN

где Ã(x; sk) штрафная функция, sk параметр штрафа, задаваемый на каждой k-ой итерации.

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 4]

Штрафная функция строится, исходя из условий:

8 <0; при выполнении ограничений;

Ã(x; sk) = :> 0; при невыполнении ограничений:

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 5]

Причем при невыполнении ограничений и sk ! 1, k ! 1 справедливо

Ã(x; sk) ! 1.

Для ограничений типа равенств использунтся квадратичный штраф, а для ограничений типа неравенств квадрат срезки:

 

 

 

m

 

 

 

 

p

 

 

Ã(x; sk) =

sk

 

8

[gi(x)]2 +

 

[gj+(x)]29

;

 

j=m+1

2

 

<i=1

 

 

 

 

=

 

 

 

 

X

 

 

 

 

X

;

 

где gj+(x срезка функции:

:

 

 

 

8

 

 

 

 

 

 

 

 

 

gj+(x) = max 0; gj(x)

 

=

 

 

 

 

f

 

 

g

 

gj(x); gj(x) > 0

 

 

 

 

 

:

gj(x) 6 0:

 

 

 

 

 

<0;

 

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 6]

1.Начальная точка x0 задается из области допустимых решений D.

2.На каждой итерации ищется точка минимума x¤(sk) вспомогательной функции ©(x; sk) с помощью одного из методов безусловной минимизации:

©(x¤(sk); sk) = min ©(x; sk):

x2RN

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 7]

3. Полученная точка x¤(sk) используется в качестве начальной на следующей итерации, выполняемый при возрастающем значении параметра штрафа sk.

4. При неограниченном возрастании sk последовательность fx¤(sk)g стремится к точке условного минимума x¤.

Алгоритм

Шаг 1. Задать начальную точку x0, начальное значение параметра штрафа s0, коэффициент ¸ > 0 увеличения параметра штрафа и параметр точности поиска ". Полагаем k = 0 и переходим к основной части алгоритма.

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 8]

Шаг 2. Строим вспомогательную функцию:

8

©(x; sk) = f(x) + sk <Xm [gi(x)]2 +

2 :i=1

где

gj+(x) = max 0; gj(x)

g

=

8

f

 

<0; gj

 

 

 

gj(x);

 

 

 

:

9

Xp =

[gj+(x)]2;;

j=m+1

gj(x) > 0 (x) 6 0:

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 9]

Шаг 3. Находим точку x¤(sk) безусловного минимума вспомогательной функции ©(x; sk) по x с помощью какого-либо метода безусловной минимизации (нулевого, первого, второго порядков):

©(x¤(sk); sk) = min ©(x; sk):

x2RN

В качестве начальной точки взять xk. Вычислить значение штрафной функции Ã(x¤(sk); sk).

[Жусубалиев Ж.Т. Методы оптимизации. 2010. Слайд 10]

Шаг 4. Проверить условие окончания поиска:

(а)Если Ã(x¤(sk); sk) 6 ", то закончить поиск, положив x¤ = x¤(sk).

(а)Если Ã(x¤(sk); sk) > ", то положить sk+1 à ¸sk, xk+1 à x¤(sk), k à k + 1 и перейти к шагу 2.

Соседние файлы в папке lecture