Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

569

.pdf
Скачиваний:
1
Добавлен:
15.11.2022
Размер:
407.27 Кб
Скачать

Процесс продолжают до тех пор, пока все частные критерии не будут достаточно (с требуемой точностью)

близки к своим желаемым значениям (случай в),

изображенный на рис. 2.1). При этом приведение критериев к нормированному виду Ki(X)Ki* необходимо, чтобы

Ki*

В равной степени учитывать изменение критериев независимо от их абсолютных величин (как слишком больших, так и слишком малых, возможно различающихся на несколько порядков).

В случае вероятностного (статистического) метода построения обобщенной целевой функции выбирают

f(X)=P(X) max,

где P(X) – вероятность выполнения условий работоспособности, то есть вероятность того, что при наборе значений внутренних параметров X=(x1, x2.,…,xn )

выходные параметры объекта проектирования будут удовлетворять требованиям ТЗ. Для определения вероятности Р(Х) на практике обычно используют метод статистических испытаний (метод Монте-Карло) / 5 /.

2.2. Методы перехода от задачи с ограничениями к задаче безусловной оптимизации

Для перехода от задачи параметрической оптимизации

21

с ограничениями (2.2) к задаче без ограничений, или задаче безусловной оптимизации:

Ф(Х) extr

(2.3)

используется один из

следующих методов: метод

неопределенных множителей Лагранжа; метод штрафных функций; метод барьерных функций.

В методе неопределенных множителей Лагранжа вводятся дополнительные переменные y1,y2.,…,yL, которые называют неопределенными множителями Лагранжа. Их количество равно числу ограничений L в задаче оптимизации (2.2). Целевая функция (функция Лагранжа) с

учетом ограничений строится по формуле:

 

L

 

Ф(Х,Y)=f(X)- yl gl (X ),

(2.4)

l=1

 

где X=(x1, x2.,…,xn), Y=( y1,y2.,…,ym) , yl>0, l=1,…,L.

 

Формула (2.4) применима, если задача (2.2) ставится

как задача максимизации, при этом для полученной целевой функции Ф(X,Y) необходимо найти седловую точку, то есть по переменным X=(x1, x2.,…,xn) проводится поиск максимума, а по переменным Y=( y1,y2.,…,ym) – поиск минимума, то есть

Ф(X,Y) max min.

(2.5)

X Y

 

22

Основной проблемой при использовании метода Лагранжа является значительное увеличение размерности

задачи параметрической оптимизации.

 

В методе штрафных функций целевую

функцию

задачи безусловной оптимизации получают по формуле:

Ф(Х)=f(X)+ k(X) extr,

(2.6)

где X=(x1, x2.,…,xn)–набор управляемых параметров, k(X)-

штрафная функция, k-номер итерации (шага) в методе поисковой оптимизации.

На практике задачи параметрической оптимизации решаются в основном итерационными (пошаговыми)

методами, которые называют методами поисковой оптимизации. При этом на каждом шаге поиска значение штрафной функции k(X) уточняется (рассчитывается

заново) по формуле:

 

 

 

L

2

 

k(X)= rk[ max{0,gl(Х)}],

(2.7)

k

l=1

 

 

где rk=10. Формула (2.7) применима, если задача (2.2)

ставилась как задача минимизации. gl(X)< XP

gl(X)

gl(X)>

Рис. 2.2

23

Логика построения штрафной функции заключается в следующем: внутри области работоспособности ХР gl(X), l=1,…,L, на границе - gl(X) , а вне ХР gl(X)>( рис.2.2 ).

Целевая функция задачи безусловной оптимизации Ф(Х)

должна быть максимально близкой к целевой функции f(Х)

задачи с ограничениями внутри области работоспособности

XР={X=(x1,x2.,…,xn)gl(X) , l=1,…,L } и быть значительно хуже (больше) функции f(Х) вне области работоспособности ( при gl(X)>). Действительно, внутри области работоспособности ХР gl(X) , l=1,…,L, поэтому max{0,gl}=0 для всех l, то есть внутри области работоспособности Ф(Х)=f(Х). Если ограничения выполнены, то никакого штрафа на целевую функцию не накладывается. В противном случае, если имеются нарушения одного или нескольких ограничений g t (X) > 1 t L, то каждое из них дает свой вклад в штрафную функцию k(X) в виде квадрата слагаемого [ max{0,gt(Х)}],

где max{0,gt(Х)}=gt(Х). Метод штрафных функций часто называют методом внешней точки, потому что при проведении дальнейшей оптимизации поисковыми методами для метода штрафных функций не важно,

принадлежит ли начальная точка поиска области работоспособности ХР.

24

В методе барьерных функций на границе области

работоспособности ХР ставится непреодолимый барьер

(целевая функция задачи безусловной оптимизации Ф(Х)

возрастает до бесконечности на границе области ХР).

Поэтому начальная точка поиска обязательно должна принадлежать области работоспособности, если при построении целевой функции задачи безусловной оптимизации был применен метод штрафных функций, или метод внутренней точки. Целевую функцию Ф(Х) в методе барьерных функций получают по формуле:

Ф(Х)=f(X)+ k(X) extr,

(2.8)

где k- номер итерации

поискового метода,

весовой

-k

 

 

 

коэффициент rk=10

, а барьерная функция

k(X)

вычисляется по формуле:

 

 

L

 

 

 

k(X)= -rk[1/ gl(Х)].

 

(2.9)

l=1

 

 

 

Действительно, при приближении к границе ХР gl(Х)

0,

так как Х ХР (метод внутренней точки) gl(X), l=1,…,L,

поэтому gl(Х) - . Именно поэтому в формуле (2.9)

используется знак минус: k(X) возрастает до бесконечности при приближении к границе области работоспособности.

Главный недостаток метода барьерных функций

25

заключается в том, что начальную точку поиска

приходится выбирать внутри области работоспособности ХР, что представляет собой сложную задачу при малых размерах области ХР.

Таким образом, при небольшом количестве управляемых параметров Х и ограничений gl(X),

целесообразно применять метод неопределенных множителей Лагранжа, если проверка принадлежности начальной точки поиска области ХР не слишком трудоемкая задача, то применяем метод барьерных функций, в противном случае – метод штрафных функций,

который, хотя и является более универсальным, но впоследствии, в ходе поисковой оптимизации требует большего числа итераций по сравнению с методом барьерных функций.

2.3.Задания и вопросы для самостоятельной подготовки

1.Что понимают под многокритериальностью задачи оптимизации?

2.Назовите методы перехода от многокритериальной задачи оптимизации к однокритериальной.

3.Постройте целевую функцию всеми известными Вам методами для многокритериальной задачи:

26

 

Ki*.

K1(X) max, 0.1

1000

K2(X) min,

0.2

20

K3(X) min,

0.5

750

K4(X) max,

0.05

0.005

K5(X) min

0.15

0.4

k

4. Почему в методе штрафных функций выбирают rk=10,

-k

а в методе барьерных функций rk=10 ?

5.Как построить функцию Лагранжа для задачи с ограничениями с максимизируемой целевой функцией f(X)?

6.Какие методы перехода от задачи с ограничениями к задаче безусловной оптимизации Вы знаете?

7.Дайте практические рекомендации по применению методов учета ограничений.

27

З. МЕТОДЫ ПОИСКОВОЙ ОПТИМИЗАЦИИ

3.1. Назначение и классификация методов поисковой оптимизации

В связи со сложностью и малоизученностью объктов проектирования и критерии качества, и ограничения задачи параметрической оптимизации (2.1), как правило, слишком сложны для применения классических методов поиска экстремума. Поэтому на практике предпочтение отдается методам поисковой оптимизации. Рассмотрим основные этапы любого метода поиска.

Исходными данными в методах поиска являются требуемая точность метода и начальная точка поиска Х.

Затем выбирается величина шага поиска h, и по некоторому k+1

правилу происходит получение новых точек Х

по

k

 

предыдущей точке Х при k=0,1,2,… Получение новых точек продолжают до тех пор, пока не будет выполнено условие прекращения поиска. Последняя точка поиска считается решением задачи оптимизации. Все точки поиска составляют траекторию поиска.

Методы поиска отличаются друг от друга процедурой

28

выбора величины шага h ( шаг может быть одинаковым на всех итерациях метода или рассчитываться на каждой итерации), алгоритмом получения новой точки и условием прекращения поиска.

Для методов, использующих постоянную величину шага, h следует выбирать значительно меньше точностиh ). Если при выбранной величине шага h не удается получить решение с требуемой точностью, то нужно уменьшить величину шага и продолжить поиск из последней точки имеющейся траектории.

В качестве условий прекращения поиска принято использовать следующие:

все соседние точки поиска хуже, чем предыдущая;

Ф(Xk+1 )-Ф(X k) , то есть значения целевой функции Ф(Х) в соседних точках (новой и предыдущей) отличаются друг от друга на величину не больше, чем требуемая точность ;

Ф(Х k+1) , i=1,…,n, то есть все частные

xi

производные в новой точке поиска практически равны 0,

то есть отличаются от 0 на величину, не превышающую точности .

Алгоритм получения новой точки поиска Хk+1 по

29

предыдущей точке Хk свой для каждого из методов поиска,

но всякая новая точка поиска должна быть не хуже предыдущей: если задача оптимизации является задачей поиска минимума, то Ф(Хk+1)Ф(Хk).

Методы поисковой оптимизации принято классифицировать по порядку производной целевой функции, используемой для получения новых точек. Так, в

методах поиска нулевого порядка не требуется вычисления производных, а достаточно самой функции Ф(Х). Методы поиска первого порядка используют первые частные производные Ф(Х ) , i=1,…,n, а методы второго порядка

xi

используют матрицу вторых производных (матрицу Гессе).

Чем выше порядок производных, тем более обоснованным является выбор новой точки поиска и тем меньше число итераций метода. Но при этом возрастает трудоемкость каждой итерации из-за необходимости численного расчета производных.

Эффективность поискового метода определяют по числу итераций и по количеству вычислений целевой функции Ф(Х) на каждой итерации метода. Рассмотрим наиболее распространенные методы поиска, расположив их в порядке уменьшения числа итераций.

Для методов поиска нулевого порядка справедливо

30

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]