Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Системы экстремального управления

..pdf
Скачиваний:
10
Добавлен:
19.11.2023
Размер:
33.28 Mб
Скачать

Многоэкстремальная задача (N ^> 1)

характеризуется

следующими соотношениями объемов:

 

V* > V** < V0,

(20.1.7)

где F0 — объем всей зоны поиска.

Заметим, что вместо объема для описания размеров зон можно воспользоваться их радиусами R (предполагая, что каждая зона имеет сферическую форму). Этот радиус связан с объемом известной формулой

V —

2яп/2

Rn,

(20.1.8)

"г(^)

где Г — гамма-функция.

Теперь сформулируем задачи поиска глобального экст­ ремума.

З а д а ч а № 1. При заданном объеме экспериментов

N найти оценку положения глобального экстремума X** такую, чтобы она наименьшим образом отличалась от действительного положения глобального экстремума X**, т. е.

|Х** _ х ** | ^ min.

(20.1.9)

В этой задаче требуется как можно ближе подойти к глобальному экстремуму, независимо от его значения.

3 а д а ч а № 2. При заданном объеме экспериментов N

найти оценку X** такую, чтобы значение показателя ка­ чества в этой точке наименьшим образом отличалось от глобального, т. е.

Q (X**) — Q (X**) -> min.

(20.1.10)

В этом случае требуется лишь близость по показателю качества.

З а д а ч а № 3. Определить оценку положения гло­ бального экстремума X** с точностью не меньше заданной

е | X** — X** |, затратив на это минимальное число экспериментов:

N -+ min.

(20.1.11)

Здесь требуется попасть в е-окрестность глобального экстремума с минимальными затратами.

3 а д а ч а № 4. Определить оценку X**, показатель качества которой отклоняется от глобального значения

на величину не больше заданной е Q (X **) Q (X**) при минимальном числе проб (20.1.11).

В этом случае необходимо оценить глобальный экстре­ мум с заданной точностью и минимальным ущербом.

Однако последние две задачи могут быть решены лишь при строго детерминированном подходе, который крайне редко применяется для решения глобальных задач, а при наличии помех попросту невозможен. Поэтому здесь тре­ бование решить задачу с точностью не больше е целесооб­ разно заменить и сформулировать в статистическом смыс­

ле: осуществить выполнение неравенств | X** — X** | ■<

<

е или Q (X**) Q (X**) < е с вероятностью не мень­

ше

заданной, т. е.

 

 

Вер {| X** X** | < е} > />,

(20.1.12)

или

 

 

Вер {Q (X**) - Q (X**) < е} > р.

(20.1.13)

§ 20.2. Примеры многоэкстремальных

 

многопараметрических объектов

 

 

Рассмотрим в этом параграфе несколько

примеров

многоэкстремальных задач, которые и привели к необхо­ димости создания глобальных методов поисковой оптими­ зации.

А. Оптимальное проектирование. Задачи оптимального проектирования сводятся к определению большого числа

конструктивных параметров объекта хх,

., хп с целью

экстремизации определенного функционала Q (X), харак­

теризующего эффективность объекта,

при

выполнении

многочисленных ограничений

вида

., р).

(X) = 0 (i =

= 1,

., к и hj (X) > 0

(/' =

1,

 

Многоэкстремальность

задач

оптимального проекти­

рования связана, прежде всего, с необходимостью отыска­ ния наилучших структур и компоновок. Если структура объекта определена, то задача может быть локальной, т. е. иметь один экстремум. Но если отыскание оптималь­ ной конструкции производится на структурах, то такая задача неизбежно имеет многоэкстремальную функцию качества Q (X).

Например, конструкция автомобиля при различном расположении двигателя существенно изменяется. Оба варианта расположения двигателя (передний и задний) имеют локально-оптимальную конструкцию. Поиск тако­ го локального оптимума можно производить локальными средствами. Но определение оптимальпой в целом конст­ рукции автомобиля связано с решением миогоэкстремальной задачи. (Заметим, что в данном примере два локаль­ ных экстремума не требуют специальных глобальных ме­ тодов решения этой задачи — достаточно рассмотреть оба варианта. Однако в более общем случае число локаль­ ных экстремумов бывает слишком велико и необходимо иметь специальные методы отыскания наилучшего вариан­ та в такой многоэкстремальной обстановке.)

Таким образом, задачи оптимального проектирования, связанные с выбором оптимальной структуры объекта, как правило, имеют многоэкстремальную функцию ка­ чества.

Б. Оптимальный раскрой. Одна из задач оптимального раскроя формулируется следующим образом. Имеются определенные плоские шаблоны — выкройки будущих деталей. Эти шаблоны следует так расположить на плоской поверхности, чтобы они не пересекались, причем площадь занимаемой ими выпуклой фигуры должна быть мини­ мальной.

Здесь показателем качества Q (X ) является площадь выпуклой фигуры, которую занимают все шаблоны. Каж­ дый шаблон определяется своей формой и положением на плоскости, например, абсциссой, ординатой центра тяже­ сти и углом разворота. Поэтому вектор оптимизируемых параметров X = (а^, ., хп) разбивается на тройки чисел, причем каждая тройка определяет положение од­ ного из шаблонов. Зная форму шаблонов и их координаты, всегда можно определить, насколько они пересеклись. Пусть rtj определяет величину пересечения i-ro и /-го шаблонов (например, максимальный размер зоны пересе­ чения обоих шаблонов). Очевидно, что Гц зависит от формы шаблонов и их места расположения, т. е. гц = ri} (X ). Теперь задачу оптимального раскроя можно сформули­ ровать следующим образом:

Q = Q(X)-+ min при 2 гц(X) = 0.

(20.2.1)

Очень легко показать, что функция Q (X ) является многоэкстремальной. Действительно, при любом исходном по­ ложении шаблонов всегда можно легким «покачиванием» координат X добиться общей минимальной площади. Но будет ли это глобальный экстремум? Маловероятно. Каж­ дое исходное состояние после локальной оптимизации приводит к локальному минимуму и лишь немногие (или даже одно) — к глобальному минимуму площади, зани­ маемой всеми шаблонами.

Таким образом, задача об оптимальном раскрое яв­ ляется задачей многоэкстремальной с глубокими локаль­ ными экстремумами.

В. Задача оптимальной электросети. Одна из задач оп­ тимальной сети энергоснабжения формулируется следую­ щим образом. Следует расположить т электростанций так, чтобы общая длина коммуникаций к к потребителям была минимальной [20.1].

Эта задача может быть представлена в геометрической форме. На плоскости заданы п точек с координатами (ж*,

у{),.

• ? (хп, Уп)

(это — потребители

электроэнергии).

Найти положение т

точек (жь уг),

(хт, ут) (это —

электростанции)

так,

чтобы функция

 

 

 

 

 

П

 

 

 

 

 

< ? = 2

. min foito.îO)}

 

(20.2.2)

 

 

 

j s !

J 1» • • •

 

 

была

минимальной.

Здесь ги — расстояние

между i-м

потребителем и /-й электростанцией:

 

 

 

гц — V{Xi — Xjf — (y'i — уjf.

(20.2.3)

Если положение станций задано, то определить общую длину коммуникаций достаточно легко. Для этого нужно просуммировать расстояния от каждого потребителя до ближайшей станции. Если расстояния до двух станций окажутся одинаковыми, следует выбрать одну из них по жребию.

Покажем, что функция качества этой задачи имеет мно­ гоэкстремальный характер. Рассмотрим конкретный при­ мер (рис. 20.2.1). Здесь кружками обозначены потреби­ тели, а черными точками — электростанции, причем с < < d. На обоих рисунках изображены варианты локально­

оптимального расположения электростанций — в этом можно легко убедиться, незначительно варьируя положе-

Рис. 20.2.1. К задаче об оптимальной сети.

ние черных точек. Но, как видно, вариант а имеет меньшее значение показателя качества, чем б, и, следовательно, реализует глобальный минимум.

§ 20.3. Модели многоэкстремальных многопараметрических объектов

Рассмотрим несколько удобных многоэкстремальных моделей объектов с несколькими оптимизируемыми па­ раметрами.

А. Кусочно-конусная и квадратичная модели. Эта модель с т локальными экстремумами записывается в виде

Q (X ) = min [ к , \ Х - X - 1+ <£},

(20.3.1)

где Xi — положение £-го локального экстремума, — значение показателя качества в этом экстремуме, — коэффициент «заостренности» £-го локального экстрему­ ма. Чем больше этот коэффициент, тем более «острым» является этот экстремум. Это кусочно-конусная модель.

Особенностью этой модели является наличие разрывов производной. Эти разрывы расположены как в самих экст­ ремумах, так и на линиях «водоразделов», т. е. границах, разделяющих зоны притяжения различных экстремумов.

Разрывы в районе экстремумов X = Х\ легко устраняют­ ся возведением в квадрат, в результате чего получается

кусочно-квадратичная модельмногоэкстремальной функции:

Q (X ) = min {ki (X - Х[у + <?•}.

(20.3.2)

Здесь разрывы производной имеются только по линиям водоразделов.

Б. Экспоненциальная модель. Эта модель для т ло­ кальных экстремумов имеет вид

т

 

Q (X) = Qo - 2 «i exp { - ft. {X - X l n

(20.3.3)

i=i

 

где Xi — примерное положение i-ro локального экстре­ мума (здесь оказывают влияние соседние экстремумы), Qo ai — примерное значение показателя качества г-го локального экстремума (в предположении, что взаимное

влияние экстремумов

невелико),

кг — коэффициент за­

остренности i-ro экстремума.

 

 

Аналогичный вид

имеет следующая модель:

 

ç(X ) = ç „ - 2

ai

(20.3.4)

 

 

^ k . ix - x 'r + i

 

где входящие параметры играют ту же роль, что и в пре­ дыдущей модели.

Моделями многоэкстремальных объектов могут служить некоторые простые многоэкстремальные задачи. Например, задача об оптимальной электросети, рассмотренная в предыдущем параграфе.

В. Сетевая модель. В этом случае многоэкстремальная

модель имеет

вид

 

 

 

 

 

 

 

ч

 

 

 

 

 

 

<?(*)= 2

“ in

|Х ,- Х ,|,

(20.3.5)

 

 

i = 1 i —I»***»171

 

 

 

где

Xi = (xi\

x^) (i =

1,

q) — потребители,

Xj =

=

x^) (/' = 1,

.,

m) — источники,

X — 2тн-мер-

ный

вектор оптимизируемых

параметров

 

 

х =

( x lt

х т) =

(х ? \ з £ \ 4 а), 4 а\

4 т \

4 т))-

 

 

 

 

 

 

(20.3.6)

Эту модель можно обобщить на случай /с-мерного прост­ ранства. В этом случае должны быть заданы векторы

А вектор оптимизируемых параметров имеет размерность

п = km:

X =

2-21»

•* Ям.

Д'Ьг»

■»

(20.3.8)

Однако для

этой

задачи заранее неизвестно

положение

локальных

экстремумов.

 

 

 

Классификация.

Существует огромное количество ал­

горитмов глобального поиска. Почти все они имеют сугу­ бо эвристический характер и поэтому с трудом поддаются классификации. Однако некоторые соображения относи­ тельно классификации этих методов можно высказать, положив в основу понятие случайной выборки.

Будем различать три типа алгоритмов глобального поиска:

1) «независимый» — имитирующий независимую слу­ чайную выборку в соответствии с заданным законом распре­ деления;

2)«блуждающий» — имитирующий многомерное блуж­ дание объекта как динамической системы, и

3)смешанный, сочетающий свойства первых двух ти­

пов.

Рассмотрим каждый из указанных типов в отдельно­ сти.

§20.4. «Независимый» глобальный поиск

Простейшим «независимым» алгоритмом «слепого» гло­ бального поиска является случайный перебор, который сводится к следующему. На каждом шаге в соответствии с заданной пространственной плотностью распределения

Р(Х )

независимо

и случайно

определяется

состояние

Xi,

вычисляется

критерий

качества в этом

состоянии

Q (Х{) и полученное значение сопоставляется с хранимым

в памяти Oi-j. Если Q (Xt) ^

Ç?-i, то производится оче­

редной

случайный

эксперимент,

если же Q(Xt)<i

то новое значение показателя качества Q (X г) запоминает­

ся,

равно как и состояние Xi,

которое привело к этому

снижению функции качества. После этого делается оче­ редная случайная проба в соответствии с той же заданной в пространстве параметров плотностью распределения случайных проб P (X).

Алгоритм этого поиска может быть записан в виде сле­ дующей рекуррентной формулы для содержимого па­ мяти:

х0 = [ Х 1Ъ если Q (.X,) > Q U

*

Xif если Q (X*) < Q U ;

(20.4.1)

1 Q (X,), если Q(XiX Q U

где Xi i-e случайное состояние, выбранное в соответст­

вии с

заданной

плотностью распределения

P (X); X®.

Q° = Q (Xf) — содержимое

памяти

на i-м шаге поиска.

Как

нетрудно

заметить,

этот

алгоритм

гарантирует

отыскание глобального экстремума при достаточно разум­

но построенном распределении

P (X) Ф 0 для Х е*5

и N —>- оо. Действительно, если вероятность

отыскания

е-окрестности экстремума конечна,

то в силу

случайно­

го характера поиска когда-нибудь будет выбрано состояние, отличающееся от глобального экстремума пе более чем на е.

Однако для решения практических задач таким способом необходимо большое число проб, которое далеко не всегда удается реализовать. Поэтому рассмотренный метод «сле­ пого» глобального поиска имеет весьма ограниченное применение.

Это обстоятельство заставило обратиться к изменению плотности распределения случайных проб P (X) с тем, что­ бы повысить вероятность случайного отыскания состояния, близкого к глобальному экстремуму. Такая адаптация распределения проб позволяет значительно повысить эф­ фективность поиска.

Для этого естественно ввести условную плотность рас­

пределения пробных шагов

в виде

 

P (X) = P

(X, W),

(20.4.2)

где W — вектор параметров, который позволяет целе­ направленно изменять и тем самым адаптировать распре­ деление. Закон изменения W от шага к шагу поиска явля­ ется не чем иным, как законом обучения, который в об­ щем виде представляется так:

= F (JF„ Xi, Qt),

(20.4.3)

где Xi, Qi = Q(Xi) — опыт, полученный на i-м этапе поиска.

Рассмотрим некоторые из таких алгоритмов глобаль­ ного поиска с адаптацией.

Пусть [20.31 область поиска S сначала представляет со­

бой гиперпараллелепипед:

 

 

 

<4^ <; xi <;

(i = 1,

., п),

(20.4.4)

a исходная плотность распределения

{X)

равномерна

П

 

 

 

по всему объему Vi = Д (а$ —

этого

t=i

 

педа, т. е.

 

1/Уг для X<=Fx,

0 для

X çf- F].

параллелепи-

(20.4.5)

Разделим весь процесс поиска на к этапов, каждый из которых состоит из Nj проб (/ = 1, -, к). На каж­ дом этапе будем определять состояние, соответствующее наименьшему значению показателя качества, так, как это делалось выше в алгоритме случайного перебора, и соот­ ветственно перестраивать плотность распределения Pj (X), уменьшая каждую сторону гиперпараллелепипеда по­

иска в

с

1 раз.

 

 

На /-м этапе поиска плотность распределения проб

будет,

таким образом,

иметь вид

 

 

 

 

С(М)«

(20.4.6)

 

 

 

 

а зона поиска определяется соотношением а$ ^

я,- ^ а$

(i = 1,

-,

п), где

 

 

 

 

а& =

~ 4 _1)]

(20.4.7)

и

— координаты

наилучшей точки на

(/ — 1)-м

этапе.

 

 

 

 

Из этих выражений следует, что на каждом этапе про­ исходит уточнение результата, полученного на предыду­ щем этапе. Такой поиск обеспечивает отыскание глобаль­ ного экстремума с высокой точностью при одном существен­ ном условии: глобальный экстремум X* не должен быть

«утерян» в процессе сужения зоны поиска. Однако вероят­ ность утери глобального экстремума возрастает с каждым этапом и зависит от числа проб на этапе N /. Если с целью понижения этой вероятности значительно увеличивать число проб, то придется ограничиться одним этапом,

т.е. поиск вырождается в обычный случайный перебор. Как видно, адаптивность этого метода получена за

счет повышения риска утери глобального экстремума. Это обстоятельство характерно для всех адаптивных мето­ дов глобального поиска. Именно поэтому нельзя ставить задачу на определение глобального экстремума (эту за­ дачу решает лишь случайный перебор при N оо). Сле­ дует отыскивать состояние, показатель качества которого достаточно близок к значению показателя в глобальном экстремуме. Такую задачу могут решить адаптивные мето­ ды глобального поиска.

Распределение проб Р(Х, W) в ряде случаев целесообраз­ но делать не равномерным, а нормальным с центром в на­ илучшей точке предыдущего этапа [20.3]. В этом случае алгоритм поиска формируется в следующем виде.

Случайные пробы X определяются n-мерным нормаль­

ным законом распределения N (Х\, сг£), где X* — матема­ тическое ожидание этого распределения, соответствующее иаилучшей оценке глобального экстремума на г-м шаге;

а\ — дисперсия. В памяти

алгоритма, таким образом, на

каждом шаге хранятся X*,

Q* и а£,

которые изменяются

следующим образом. Рекуррентные

формулы для Х\ и

Qi сохраняют вид (20.4.1),

а

ст; — среднее

квадратиче­

ское отклонение изменяется

в соответствии

с правилом

где ог0 — исходная дисперсия. / (сг£) — функция, опреде­ ляющая уменьшение а, (например, / (о{) = g аг, где 0 <С

< ? < ! ) • Как видно, алгоритм работает следующим образом.

Случайные пробы производятся в соответствии с нормаль­ ным распределением, математическое ожидание которого соответствует наилучшей предыдущей пробе, а дисперсия уменьшается при неудачных пробах и увеличивается до