Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Системы экстремального управления

..pdf
Скачиваний:
10
Добавлен:
19.11.2023
Размер:
33.28 Mб
Скачать

Г Л А В А 14

МЕТОДЫ ПОКООРДИНАТНОГО СПУСКА

Рассматриваемые в этой главе методы поиска экстре­ мума функции многих переменных отличаются наличием процесса спуска вдоль выбранного координатного направ­ ления. Это обстоятельство сводит многопараметрическую оптимизацию к однопараметрической, что значительно упрощает процесс оптимизации.

§ 14.1. Метод Гаусса — Зайделя

Этот метод является естественным применением одно­ параметрического поиска к решению задачи многопара­ метрической оптимизации. Смысл его сводится к последо­ вательной циклической оптимизации по каждому из

Рис. 14.1.1. Блок-схема реализации метода Гаусса — Зайделя.

управляемых параметров. Эта задача решается одним одноканальным оптимизатором и блоком управления (ВУ), который последовательно переключает оптимизатор с од­ ного параметра на другой и т. д. (рис. 14.1.1) в момент, когда достигается экстремум по предыдущему каналу.

Алгоритм работы оптимизатора может быть любым цз рассмотренных в главах 4—6. При работе алгоритма

на г-м цикле поиска происходит минимизация показа­ теля качества Q по £-му параметру, т. е. решается одно­ мерная задача зкстремальпого управления

Q(*i, х 2, . . . , хп)

min,

(14.1.1)

где S — множество допускаемых значений X =

(%, ж2, .

., жп). Показатель качества при этом является функ­ цией одной переменной xt; остальные же параметры оста­ ются неизменными: xj = const (/ Ф i).

Алгоритм поиска оптимального значения параметра xi в дискретном случае записывается в виде рекуррентной

формулы

 

х ^ +1) = xjN) + ДхР+1),

(14.1.2)

где

 

AX [n+1) = aF ( x f \ æ P _1), . . . )

(14.1.3)

— рабочий шаг, который для различных алгоритмов вы­ глядит по-разному. Так, если выбрать алгоритм с парными пробами (см. § 4.1), получаем для случая минимизации

F =sign [Q (XN+ gej — Q(X N—ge4)l,

(14.1.4)

где — i-й орт, и т. д.

 

В непрерывном случае, когда объект является непре­ рывной функцией оптимизируемых параметров, можно воспользоваться непрерывными алгоритмами поиска, ко­

торые характеризуются дифференциальным

уравнением

doc

(14.1.5)

~dt = — aFfa).

Так, используя алгоритм синхронного детектирования (см. § 6.2), имеем

F = Q[X + f(t)ei]f(t)t

(14.1.6)

где / (t) — модуляция, позволяющая выделить производ­ ную показателя качества по оптимизируемому параметру.

Далее будем для простоты рассматривать лишь шаго­ вые алгоритмы одноканального поиска (14.1.2).

Теперь рассмотрим алгоритм работы блока управ­ ления. Этот блок работает так, чтобы процесс оптими­ зации, реализуемый одноканальным оптимизатором,

последовательно охватывал все переменные объекта. Для этого он осуществляет последовательное циклическое пе­ реключение оптимизатора с одной переменной объекта на другую в моменты времени, которые характеризуются определенным поведением объекта

(14.1.7)

где / — номер параметра, к которому подключается опти­ мизатор, Ô — заданный порог. При j — п следует / = 1, чем осуществляется циклическое переключение оптими­ зируемых параметров объекта. Это правило означает, что переход к оптимизации очередного параметра осущест­ вляется не раньше, чем приращение показателя качества по оптимизируемому параметру станет меньше заданного порога Ô.

Другим и наиболее простым алгоритмом БУ является программная оптимизация в течение времени Т каждого параметра. Этот алгоритм опирается на известное свой­ ство экстремального управления, которое лишь умень­ шает показатель качества (с точностью до потерь на рыс­ канье, разумеется). За время Т смещение по каждому параметру будет разным и примерно пропорциональным соответствующей частной производной.

§ 14.2. Работа метода в пространстве параметров

Рассмотрим поведение метода Гаусса — Зайделя в пространстве оптимизируемых параметров {X}. На рис. 14.2.1 показан пример двумерного объекта, который задан линиями равного уровня показателя качества. Пусть скорость изменения оптимизируемого параметра постоянна и равна а:

| ti | = а.

(14.2.1)

Тогда показатель качества в процессе оптимизации изме­ няется со скоростью

d Q _ =

d Q _ à x

dQ

(14.2.2)

dt

дхi dt

дх.

 

Очевидно, что в момент прохождения экстремума по t,

do

n

 

 

когда - ^

= О, получаем

 

 

 

^ -

= 0.

(14.2.3)

Если удастся зафиксировать

момент

= 0, то это, как

легко заметить, будет самым выгодным режимом опти­ мизации. Это условие выполняется в точках Х г, Х2, Х а и т. д. Определим градиент в этих точках. В силу (14.2.3) имеем

g rad Ç lX O ^O .-g -);

'

 

grad<?(X,) = (i2 -,0 );

,

(14.2.4)

gr a d u a ) - (О ,-Ц )

ит. д., откуда следует, что градиент в точках переклю­ чения ортогонален траектории. А так как линии равного уровня ортогональны гради­ енту, то в точках переклю­ чения линии равного уровня будут касаться траектории.

(на рис. 14.2.1 эти линии показаны пунктиром).

Это обстоятельство в зна­ чительной степени облегчает проведение траекторий при

поиске по методу Гаусса —

 

Зайделя. Для

определения

 

точки перелома

траектории

Зайделя в пространстве па­

достаточно провести (интер­

раметров.

полировать) линию равного уровня, касательную к траектории. Точка касания и

определит момент перехода на оптимизацию другого па­ раметра. Однако в действительности производная dQ/dt оценивается не точно, что приводит к переключению либо раннему, либо позднему и очень редко правильному.

Но продолжим рассмотрение особенностей процесса поиска по методу Гаусса — Зайделя в предположении о возможности точной оценки производной dQ/dt.

Рис. 14.2.2, Работа алгоритма Гаусса — Зайделя на сепарабель­ ном объекте.

Рассмотрим, в каких случаях целесообразно и когда нецелесообразно обращаться к этому методу. Наиболее эффективно применение метода Гаусса — Зайделя к се­ парабельным объектам (см. § И .4), в которых нет пере­ крестного влияния параметров. Модель сепарабельного объекта имеет вид

П

 

■?№ = <?•+ 3 ф,(*i- * ;),

(14.2.5)

1=1

 

где cpi (•) — экстремальные функции с минимумом в на­ чале координат:

 

Ф. (0 )< «Pi (у)

(i = 1,

-, п).

(14.2.6)

Например,

эллиптическая функция

 

 

 

 

П

 

 

 

Q(X) = Q' +

2 Щ(X, -

*\)г

(14.2.7)

 

 

1=1

 

 

является

сепарабельной.

 

 

 

Отсутствие перекрестного влияния параметров дает возможность лишь однажды обращаться к каждому па­ раметру в процессе опти­ мизации. Действительно, для сепарабельной функ­ цииположение экстремума

по каждому параметру не зависит от значений других параметров. Поэто­ му для решения задачи оптимизации достаточно сделать п спусков (по чи­ слу параметров объекта). На рис. 14.2.2 показана траектория поиска для

двумерного эллиптического объекта. Как видно, задача решается за два спуска и результат не зависит от порядка выполнения спусков.

Таким образом, можно смело утверждать, что метод поочередного изменения параметров (Гаусса — Зайделя) наиболее эффективен при оптимизации сепарабельных объектов или близких к ним.

Однако простота реализации метода стимулирует его применение и для объектов иной структуры.'Рассмотрим работу метода при оптимизации несепарабельной, квадра­

тичной формы вида Q (х1} х2) = (% — х[)2 + 2 х2)г

р (% ху){х2 х2). Эта ’'функция] при р = 0 стано­ вится сепарабельной. Коэффициент р, как^видно, пока­ зывает степень уклонения этой функции от сепарабель­ ной. Естественно оценить влияние этого коэффици­ ента на эффективность поиска.

Для простоты будем рассматривать случай, ко­ гда цель расположена в начале координат, т. е.

xî = х2 = 0 и функция ка* чества имеет вид Q (ж1?

х2) =

х\ + х\ — ЦХ]Х2. На

Рис. 14.2.3. Рельеф песепара бель-

рис. 14.2.3 показан рельеф

ной квадратичной формы.

этой функции для 0 < ] i <

 

2.

Пусть х10 и х20 — начальные условия. Определим

положение системы после одного цикла поиска (под цик­ лом в данном случае подразумевается п однократных спусков).

Для того чтобы определить результат спуска по первой оси, нужно минимизировать по Xj функцию Q (а^, х20) =

= х\ -+- х|0 — рххх20. Ее минимум расположен в точке Zn = ^ у '■>спуск вдоль оси х2из точки (хи , х20) сводится

к минимизации функции Q (хп , х2) = Ха + х^ + рхцХ2. Ее минимум расположен в точке х21 = у р = у х20. Та­ ким образом, один цикл поиска приводит систему к состоянию, определяемому точкой Хх — |у х20, y x 20j ,

где значение показателя качества равно Qi = ^ (4 — р2)х20.

Если изменить порядок спусков, т. е. сначала сделать спуск по х2, а потом по хх, то придем в другую точку:

(у Л1о» у xJ0Y с показателем качества Q2 = ^ (4 — р2)х‘*м.

Теперь оцепим эффективность цикла поиска при по­ мощи отношения

Q foil, *21, . Жп1)

(14.2.8)

Q (х\о, хца, . жп0)

Эта величина характеризует степень уменьшения пока­ зателя качества за один цикл поиска. Для рассматрива­ емого примера получаем в первом случае

16(1+ т3 — рт) ’

где

^ _а-м

хю '

Характерно, что эффективность q зависит лишь от отно­ шения т начальных условий. Определим наихудшее соот­ ношение начальных условий, когда q — max (qmm = 0 при

т = 0). Получаем стандартным приемом qmax = ^ • А начальные условия в этом самом неблагоприятном слу­ чае должны удовлетворять уравнению = 1. Однако

это — самые худшие условия для поиска. Для того чтобы оценить эффективность поиска «в среднем» достаточно представить, что вектор начальных условий Х 0 = (ж10 х20) распределен равномерно по всем направлениям. Это оз­

начает, что его угол наклона к оси

 

— угол ср распределен

 

 

/ \

 

1

.

хго

равномерно и имеет плотность р (ф) =

ZJT

где т = tg ф = — .

 

 

 

 

 

Я?10

Среднее значение эффективности q в этом случае равно

 

ц,2 (4 -

ц,2)

tg ф dy

 

 

?ср

16я

) 1 + tg2ф — р tg ф

 

 

 

о

 

 

 

 

Из этого выражения видно, что независимо от значения интеграла эффективность поиска уменынаехся с ррстрм параметра ц.

Таким образом, чем более объект отличается от сепа­ рабельного, тем менее эффективно применение метода поочередного изменения параметров.

Значение показателя качества после N циклов равно

Q U N ) 1? U ,) = î f 'V Q U , ) - (14-2.9)

Эта формула обобщает (14.2.8). Здесь qx — значение па­

раметра (14.2.8) на втором цикле,

Х г — состояние после

первого цикла, а Xп — финальное

состояние после N

циклов поиска.

 

Как видно, траектория поиска в этом случае пред­ ставляет собой ломаную линию. Определим линии точек

перелома этой

траектории.

Эти

линии

показаны на

рис. 14.2.3 пунктиром. Из предыдущего получаем

Xi

(* ? ,

*2о) =

*20 (-Ç- , l)

,

Хг

С20

Ц2а:2о\ _ Ц.Х20

/ л

\

! »

4

I "

2

Г*

2 / '

 

X

у *20, ^ ! о )

 

(у » *) »

*2

!^!т

ttlr

\

- V3xw

И

 

8 *20, 16*20) —

8

 

Проведем через точки Х[ и Х'2, а также Х г и Х 2 прямые. Из линейной зависимости векторов Х х и Х2следует, что

2

прямая х2 — — хх является геометрическим местом точек И-

реверса траектории при переходе от оптимизации по параметру хх к оптимизации по параметру х2. Аналогич-

ц

но прямая х2 = -J- ххявляется геометрическим местом точек

излома траектории оптимизации при переходе с пара­ метра х2 на параметр хх (см. рис. 14.2.3). Хорошо видно, что при р. 2 обе прямые неограниченно сближаются, что приводит к крайне невыгодному процессу поиска. В этом случае поиск практически останавливается, так как рельеф превращается в очень узкий овраг.

Бели же перейти к другой системе координат

Ух Хх “Ь #2, Уй — *1 *2)

то функция качества приобретает сепарабельный вид

Q (ух, У*) = (2 + р) у\ + (2 — |i)ÿ|. Отсюда следует очень важный вывод: метод Гаусса — Зайделя очень

чувствителен к выбору системы координат. В случае, когда соответствующим выбором координатных осей можно добиться сепарабельности, этот метод дает значительпый эффект. Если же добиться этого не удается, эффективность метода существенно снижается.

Рассмотрим работу метода Гаусса — Зайделя в об­ становке ограничений. Пусть, например, следует решить экстремальную задачу вида

Q (®i>

я2) =

4

+ Â

min

;

S : h (xl5 æ2) =

xx +

х*, xi е

s

— 1 > 0

(рис. 14.2.4).

Точное

решение

этой

задачи очевидно:

X* = (Vs. гк)- Однако, как видно из рисунка, применение

 

 

данном

случае

приводит

 

 

либо к Х г — (0, 1), либо к

 

 

Х 2 = (1, 0), в зависимости

 

 

от порядка

выполнения

 

 

спусков.

Следовательно,

 

 

при наличии ограничений

 

 

этот метод может

вообще

 

 

не найти точного решения.

 

 

Далее, для метода Гаус­

 

 

са — Зайделя можно до­

 

 

вольно

просто

построить

Рис. 14.2.4. Работа метода

Гаус­

«ловушки». Однойиз таких

са — Зайделя в обстановке

огра­

ловушек является так на­

ничений.

 

зываемый овраг с острым

 

 

дном. Функция

качества

вида Q {хх, х2) = ^ \ х1 +

ж2 | +

| хх х2 |

имеет

такой

овраг, «дно» которого совпадает с биссектрисой первого квадранта (на рис. 14.2.5 это дно обозначено пунктиром).

Легко показать, что система, однажды попав в про­ цессе поиска в любую точку дна оврага х1 = х2, уже не сможет двигаться дальше с использованием метода Гаус­ са — Зайделя. Для этого рассмотрим поведение в точке

%io ~

х20 = 1.

При движении вдоль оси хх получаем

Q

1) = у

(а* + 1) + | — 1 |. Как легко заметить,

минимум этой функции расположен в точке хх = х1й = 1 и в процессе поиска по хх система должна остаться в том

же состоянии. Если же варьировать второй переменной

х2, то

зависимость Q (1, х2) = у (1 +

х2) + | 1 — х2 |

также

имеет минимум в точке х2 — х20 =

1 • В этом легко

убедиться. Следовательно, при варьировании х2 система не выйдет из состояния х2 = 1. На рис. 14.2.5 показаны эти зависимости на дополнительных графиках.

Это позволяет утверждать, что, попав на дно такого

оврага, система, оптими­

 

зируемая методом Гаус­

 

са — Зайделя,

не смо­

 

жет из него выбраться.

 

Не следует

думать,

 

что приведенный при­

 

мер

уж

очень

«экзо­

 

тичен».

Большинство

 

практическихзадачмно-

 

гопараметрической оп­

 

тимизации, особенно из

 

области

оптимального

 

проектирования, «стра­

 

дают»

обилием

такого

Рис. 14.2.5. Пример оврага с «острым

рода ловушек. Поэтому

дном».

применение метода Га­ усса — Зайделя для решения таких задач чаще всего ука­ зывается нецелесообразным.

В заключение отметим, что достоинства рассмотрен­ ного метода заключаются, прежде всего, в простоте его практической реализации. Его целесообразно применять при оптимизации сравнительно простых объектов. Слож­ ные многопараметрические объекты с большим числом ограничений и оврагов функции качества лучше оптими­ зировать другими методами.

Рассмотрим некоторые модификации метода Гаусса — Зайделя, которые расширяют его возможности.

§ 14.3. Модификации метода Гаусса — Зайделя

Указанные в предыдущем параграфе недостатки могут быть частично устранены за счет определенных модифи­ каций алгоритма. Рассмотрим некоторые из них.

А. Релаксационный поиск. Эта модификация опи­ рается на метод релаксации, рассмотренный в § 13.3.