Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Системы экстремального управления

..pdf
Скачиваний:
10
Добавлен:
19.11.2023
Размер:
33.28 Mб
Скачать

свойствами, однако ои весьма чувствителен к выбору па­ раметров поиска: длине рабочего шага, углу раскрытия направляющего конуса и числу проб. Эти параметры нуж­ но подбирать в процессе поиска, т. е. делать поиск самонастраивающимся.

Это замечание касается и первых двух алгоритмов, которые имеют также три параметра: длину рабочего ша­ га а, величину параметра с и число проб т. Эти параметры

Рис. 20.6.8. Траектория движения системы при а = У32, ф = = 1/2 рад.

также определяют инерционность поиска. Действительно, чем больше а и т или меньше с, тем инерционней система, и наоборот. Заметим, что в данном случае оптимальная на­ стройка поиска также зависит от трех параметров, как и в непрерывном поиске, рассмотренном в предыдущем пара­ графе. По-видимому, глобальный поиск в самой простой реализации является не менее чем трехпараметрической системой.

Очевидно, что оптимальные значения параметров по иска зависят целиком и полностью от вида минимизируе­

мой функции качества Q Q (X) и ее особенностей. В за­ дачах, где эта функция имеет много экстремумов, ввиду большой сложности, по-видимому, единственным способом отыскания оптимальных значений параметров поиска является их самонастройка в процессе поиска.

§ 20.7. «Сглаживающие» алгоритмы глобального поиска

Очень часто функция качества может быть представлена в виде суммы двух функций

Q (X) = Qx (X ) + Q2 (X),

(20.7.1)

где Qx (X) — некоторая унимодальная функция, выражаю­

щая

общую тенденцию

Q (X),

Q2 (X) — колебательная

быстроизменяющаяся

функ­

 

ция (не обязательно периоди- Q

 

ческая)

с

нулевым средним

 

значением — ее моделью мо­

 

жет служить, например, реа­

 

лизация

случайного процес­

 

са. На рис. 20.7.1 пунктиром

 

показаны

примеры

таких

 

функций.

Естественно,

что

 

функции Qx и Q2 не известны.

 

Положение глобального экст­

 

ремума

исходной функции Рис. 20.7.1. Пример много­

Q {X)

обычно не

совпадает

экстремальной функции.

с положением

экстремума

 

Çi(X). Однако они расположены близко. Поэтому отыска­ ние экстремума унимодальной функции Qx (X) значительно облегчает определение глобального экстремума. Таким образом, задача заключается в том, чтобы сначала выйти в район экстремума Qx (X), а затем в зону глобального экстремума. Для решения первой задачи естественно вос­ пользоваться идеей осреднения, что позволит избавиться или, точнее, существенно уменьшить влияние колебатель­ ной составляющей Q2 (X), так как ее среднее значение рав­ но нулю.

Оператором осреднения в частном случае может быть оператор вычисления среднего значения в заданной

бавиться от колебательной составляющей Q2 (X ), которая образует многоэкстремальность, и тем самым воспользо­ ваться любым локальным методом поиска, чтобы выйти в район глобального экстремума.

Алгоритм локального поиска в этом случае осложняет­ ся лишь необходимостью вычисления интеграла (20.7.2) в каждой точке поиска.

Проиллюстрируем сказанное на одномерном примере (п = 1), когда колебательная составляющая имеет парабо­

лический характер.

 

П р и м е р

1.

Q (X ) = кхг a cos юя (глобальный

экстремум расположен в

точке х** — 0).

Пусть F (я)

х+и/2

Q(у) dy, где v — база осреднения.

^

Получаем

 

 

X—V/2

 

 

 

 

 

л

w

= * (*г + -g-) = «л « + ,

п

/

\

2d

CÛU •

Г

2(х) =

---- COS -Ô—Sin 0>Я.

 

4

'

œv

2

Как видно, колебательная составляющая уменьшилась в VCÙ/2 раз. Поэтому для эффективного подавления Q2 (я) следует базу осреднения выбирать как можно больше. Однако слишком большая база нарушает (20.7.6). Поэтому величина базы должна выбираться оптимально или адап­ тироваться в процессе поиска. (Адаптация будет рассмот­ рена ниже.)

Теперь рассмотрим способы вычисления многомерного интеграла (20.7.2). Известно, что однократный и двукрат­ ный интегралы вычисляются обычными квадратурными и кубатурными формулами [20.9]. Однако для вычисления многократных интегралов (п 3) более эффективным является метод статистических испытаний (Монте-Карло) [20.10—20.12], смысл которого сводится к следующему. Пусть необходимо вычислить многомерный интеграл по заданной области Q

/?= ^ Ç (X )d X .

(20.7.11)

п

В области £2 равномерно и независимо «разыгрывают­ ся» случайные точки Х 2, ., Х т. Это означает, что эти точки являются случайными реализациями векторов

с равномерной в Q плотностью распределения. Теперь ин­ теграл (20.7.11) можно приближенно оценить суммой

 

т

=

(20.7.12)

 

1=1

причем с ростом числа т оценка Fm становится все более и более точной и в пределе совпадет с точным значением интеграла:

lim Fn = F .

(20.7.13)

m - * зо

 

Это и есть основное положение теории статистических испытаний.

Применяя этот метод, можно всегда оценить сглажен­ ное значение показателя качества в заданной области Q*:

 

 

 

771

 

 

 

=

i=l

(20.7.14)

где Xi е йх (i. = 1,

-, т).

 

 

 

Область йх можно задавать по-разному. Приведем не­

которые способы такого задания.

 

П р и м е р 2. Qx — гиперкуб со стороной 2g и с цент­

ром в точке X.

Он

задается

естественным

выражением

X gl < Xi <

X -f gl, где /

= (1,1,

1) — единич­

ный вектор. (Заметим, что это векторное неравенство сле­ дует понимать как неравенство для каждой координаты пространства параметров.) Генерирование случайной точ­ ки в этом случае сводится к вычислениям по формуле Xi = X + g S, где S = ( |lf g2, ., £„) — вектор, об­ разуемый независимыми случайными величинами, равно­ мерно распределенными в интервале

 

 

Ъг

 

Объем гиперкуба со стороной 2g равен

 

 

 

Fx= 2пап.

 

П р и м е р

3. йх — гиперсфера радиусом g и с цент­

ром в точке X.

В этом случае X t =

X + gB, где S =

= ( |lt

., i n) — случайный вектор,

составляющие ко­

торого, также

как в предыдущем примере, распределены

равпомерно в интервале [—1, 1], но при этом еще удовлет-

П

воряют условию 2 ^ 1. Объем гиперсферы радиуса g

i=l

равен V2 = Çnini где qn — коэффициент, не зависящий от 2

радиуса сферы: qn = —у—г-яп'2, а Г — гамма-функция.

пГ1 п \

\ 2 J

При выборе величины g, характеризующей размер об­ ласти й, следует помнить о следующем.

Вдали от экстремума эта область для повышения эффе­ кта сглаживания дожна быть большой. В зоне экстрему­ ма ее следует уменьшать.

Теперь организуем глобальный поиск с использовани­ ем оператора сглаживания. В качестве локального мето­ да выберем очень распространенный метод градиента:

XiV+1 = XN - aNgrâd Fm(X ),

(20.7.15)

где используется оценка (20.7.14). Для оценки градиента можно было бы воспользоваться обычной точечной оценкой (17.1.6) или (17.1.10). Однако удобнее применить следую­ щий прием.

Введем понятие функции р* (У), которая равна нулю всюду вне области йх и 1/V внутри этой области. Тогда оператор сглаживания (20.7.2) можно записать в виде

/ ? (Х )= $ < ? (У )р . ,(Г )< Л ',

(20.7.16)

где интеграл берется по всему пространству параметров и

Px(Y) = l V

при

(20.7.17)

I 0

при

У ф Qx-

Эту формулу удобно для конкретного вида области йх преобразовать к центральному виду.

Для гиперкуба

P (Z) =

 

 

 

 

( :А г

при

| Zi|< g

(i =

l, ...,гс),

= j (2g)

при

IZ il^g

хотя

бы для одного 1 = 1 ,..., ГС.

I 0

Здесь Z

= (zv z%,

zn).

(20.7.18)

 

Для

гиперсферы

 

 

 

 

P(Z) J w

- f "

 

(20.7.19)

 

I 0 при |Z |> g .

 

 

Теперь (20.7.16) запишется в виде

 

 

 

F(X) =[)Q(Y)f>(X-Y)<lY

(20.7.20)

Определим градиент этой функции.

 

 

Так

как

 

 

 

 

\ Q <У) - é r P (X -

Y) dY (J =

1.......п),

(20.7.21)

ТО

 

 

 

 

 

grad F {X) = J Q (Y) grad*p (X -

Y) dY

(20.7.22)

Любопытно, что для определения градиента сглаженной функции не нужно дифференцировать исходную функцию. Это означает, что исходная функция может и не иметь производных.

Теперь, воспользовавшись методом Монте-Карло, мож­ но получить следующую оценку градиента сглаженной функции на базе т случайных проб:

т

grad F (X) =

grâd*, f (*) = ■!- 2

gradpO T-Xi),

 

 

i=l

 

где

функция

grad p (Z) вычисляется

аналитически, так

как

она задана.

 

Таким образом, одним их ценных преимуществ опера­ ции сглаживания является удобство вычисления градиен­ та сглаженной функции, которое выражается в том, что дифференцируется не исходная функция, а заданная ана­ литически весовая функция.

Определим частные производные весовой функции для случая гиперкуба (20.7.18):

dp(Z) _

j

(Zj + g) — à — g)] при I Zi I ^ g (i=1,..., n),

^Zi

[

0 при | Zi | > g хотя бы для одного i = 1 ,..., n.

 

 

(20.7.23)

Подставляя это выражение в (20.7.21), получим после ин­ тегрирования

=

<?(х+ * « ,) - 0 (*-*«,)] о - l . -...в).

1

(20.7.24)

где в) (/' = 1,

., п) — орты. Как видно, обнаруживает

ся очень интересная особенность: градиент сглаженной функции F (X ) при кубической области осреднения в точ­ ности равен точечной оценке градиента исходной функции на базе 2g известным методом парных проб (15.1.10). Сле­ довательно, метод парных проб является градиентным способом оценки сглаженной в гиперкубе функции каче­ ства. Причем база оценки градиента равна стороне гипер­ куба осреднения.

Обобщим изложенное. Будем рассматривать весовые функции р (Z) (иногда их называют ядрами) не только вида (20.7.17), т. е. ступенчатого типа, но и другие. Сформулируем требования, предъявляемые к весовой функции (ядру):

1.

Весовая функция всюду неотрицательна, т. е. для

любых Z

 

 

р (Z) > 0.

(20.7.25)

2.

Нормирована, т. е.

 

 

Jp (Z )d Z = l.

(20.7.26)

3.

Дельтаобразна по параметру g, т. е. имеет параметр,

для которого справедлив предел вида

 

 

lim р (Z) = ô (Z),

(20.7.27

 

g-*о

 

где Ô — дельта-функция.

Так, например, рассмотренные выше весовые функции (20.7.18) и (20.7.19) обладают этими свойствами, в чем легко убедиться. Однако, кроме этого, можно предложить и другие функции. Например, гауссова функция

Р^ = (V2â)ngn е х р ~2g*~ S

• (20.7.28)

Одномерный срез этой функции приведен на рис. 20.7.2.

Рис. 20.7.2. Весовые функции: а) ступенчатая, б) гауссова.

Обобщенный «локон Аньези»

 

р (Z) =

-------— г ,

(20.7.29)

V '

g(i + \ Z \ 1)*

 

где I — параметр «локона», характеризующий скорость его затухания, а К — коэффициент, определяемый из условий

 

ра)

 

нормировки

(20.7.26). Не­

 

 

сколько весовых функций

 

 

а)

приведены в работе [20.13].

 

 

Теперь

 

 

рассмотрим

 

 

 

стратегию изменения пара­

-9

9

zi

метров g

и

а. Очевидно,

 

 

 

что вдали

от глобального

 

 

 

экстремума

эти величины

 

 

 

должны быть

большими,

 

 

 

а в его районе — малыми.

 

 

 

Относительно

скорости

 

 

 

уменьшения этих парамет­

фров можно высказать сле­ дующие соображения.

Если параметр зоны сглаживания g уменьшает­ ся, то можно показать, что в силу свойства дельтаоб­

разности ядра (20.7.25) градиент сглаженной функции (20.7.22) стремится к градиенту исходной функции, т. е.

lim grad F (X ) = grad Q (X).

(20.7.30)

g-*о

Это означает, что поиск (20.7.15) вырождается в обычный локальный градиентный поиск, который не решает задачу отыскания глобального экстремума. Поэтому величина g должна выбираться такой, чтобы в результате сглаживания исходная функция превращалась в унимодальную.

Пусть

X g — экстремум сглаженной функции, т. е.

результат

решения задачи

 

 

 

F (X) —> min.

(20.7.31)

 

 

 

х

 

Пусть,

как

обычно,

X** — глобальный

экстремум,

т. е. результат

решения

задачи

 

По условию эти экстремумы

расположены

достаточно

близко друг к другу, т. е.

 

 

 

 

 

Xg «

X**.

 

(20.7.33)

Этим обстоятельством можно воспользоваться.

g

такова,

Если величина

параметра

сглаживания

что функция F (X) унимодальна, то выбор закона умень­

шения параметра

аы (N =

1,

.) следует выбирать в

соответствии с условиями

Дворецкого (16.5.4),

т. е.

 

оо

 

оо

 

 

2 aN = 00; 2 я^<С°°- (20.7.34)

N = 1

N = 1

В этом случае гарантируется

сходимость процесса по­

иска к экстремуму сглаженной функции Х*е. Определив

X gи зная, что глобальный экстремум где-то близко, мож­ но его найти, обследуя небольшую зону вокруг точки

X*g (например, методом сканирования (20.4.1)). Однако можно воспользоваться другим, более эффективным мето­ дом. Будем величину g уменьшать в процессе поиска, но так, чтобы система не могла зафиксироваться в промежу­ точном экстремуме. Для этого величину gx следует умень­ шать достаточно медленно. Скорость уменьшения зави­ сит от величины зон притяжения локальных экстремумов. Чем меньше эти зоны, тем быстрее может уменьшаться па­ раметр gN.

Другой способ сглаживания связан с упрощением за­ дачи оптимизации до одноэкстремальной или решаемой аналитическим путем. Пусть показатель качества объекта представляет собой функцию вида

Q = Q(X, А),

где X — как обычно, вектор оптимизируемых параметров объекта, определенный в области S, а А = (ах, . ., ат) — вектор параметров объекта, характеризующих много­ критериальную специфику задачи оптимизации. Этот век­ тор выбирается из следующих соображений. При А — 0 задача должна стать разрешимой, например одноэкстре­ мальной, но при этом не потерять смысла, как задача оптимизации. Возможно, что при А — 0 задача останется