![](/user_photo/_userpic.png)
книги из ГПНТБ / Егоров С.В. Элементы идентификации и оптимизации управляемых систем учеб. пособие
.pdfВ атом случае обычно минимизируется средняя по мно жеству возмущений величина критерия оптимальности:
J з= М7 [J(U , Z)},
при этом предполагается, что статистические свойства воз мущений на всем интервале оптимизации известны.
Пункт 11. Задачи о встрече движений
Различают два типа задач о встрече движений двух объектов, из которых движение хотя бы одногб описывается дифференциальными уравнениями:
1)задачи слежения, когда один объект (цель, уставка
процессу и т. д.) движется независимо от движения второго, преследующего его объекта;
2)дифференциальные игры, когда каждый объект строит
свое движение в зависимости от поведения второго. Задача первого типа, когда траектория движения пресле
дуемого объекта задана как функция 'времени являют ся обобщением задачи об оптимальном регуляторе, когда точка равновесия X* является подвижной и закон ее движе ния задан как X*(t). Если траектория преследующего объек
та описывается уравнением
X= F(X, U, t), X(t0)= X 0, |
(1-18) |
то при введении вектора рассогласования Е= Х* —Х задачу
слежения можно сформулировать как задачу минимизации функционала
|
т |
|
|
|
У = Ф(£(Г)) + J |
<3(Е, U, |
1)Л, |
(1-19) |
|
|
I. |
|
|
|
где Ф — функция от |
конечного |
рассогласования Е(Т), при |
||
наличии связи (1-18), |
которую |
удобно |
переписать |
в виде |
£= F,(Е, U, 0 , E(to)=X*(t0) - X о
иразличного рода ограничениях И(Е, U) ^ 0 .
Отметим здесь, что запись функционала (1-19) является наиболее общей формой: введение слагаемого Ф(£(Т)) поз воляет особо выделить состояние системы в конечный мо мент времени. Во многих практических случаях (в системах посадки самолетов, при реализации технологического про цесса таким образом, чтобы конечная продукция наименее
31
уклонялась от стандарта и т. д.) задача управления форму лируется как задача управления конечным состоянием
(terminal control), когда движение системы на остальном ин тервале времени нас не интересует (в выражении (1-19) Gн=. 0). Поскольку для динамической системы конечное со
стояние является функционалом от управления, то и задача слежения, и ее частный случай — задача управления конеч ным состоянием относятся к задачам динамической юггтими- , зации.
Услов1Ия дифференциальных игр, рассмотренных в рабо
тах Красовского Н. Н., Понтрягина Л. С. и др., формулиру
ются следующим образом.
Имеется два объекта (партнера), уравнения движения ко торых имеют вид
j |
X s^F ^X i, |
U) |
1 |
X2 = F2(X2, |
( 1-20) |
V), |
где Х\, Х2 характеризуют состояния соответственно первого
(преследующего) и второго (преследуемого) объектов, и, V —управляющие воздействия объектов, которые должны
формироваться по информации о состоянии объектов.
Вводится вектор существенных для встречи |
координат |
X — (Х\~, Х г), где Х\~, ^ - — существенные |
координаты |
’первого и второго объектов, по которым можно судить о
встрече. Вектора Х\~, Х2~ получаются простым |
отбрасыва |
|
нием из X, |
и Х2 несущественных для встречи |
координат, |
например, |
координат угловых перемещений относительно |
осей вращения объектов или координат скорости, поскольку для встречи существенно лишь совпадение координат цент ров тяжести объектов.
Игра считается законченной, если вектор X попадает на
заданное многообразие |
X* (часто Х = Х г —Х2~ и Х *= 0). |
|
При этом первый объект стремится достичь X* с наимень |
||
шим показателем платы игры |
|
|
|
т |
|
Juv |
[ 0 ( Х и Xt, U, V) dt |
min, (1-21) |
|
t. |
u,v |
где Х\(Т), Х2(Т )~ состояния объектов в момент окончания иг
ры, а второй объект ставит задачу максимизации величины (1-21), в частное™, стремится не допустить попадания X на многообразие X*. В приложениях плата игры может иметь
различный смысл, например:
а) время встречи, когда
при ||X ||< е,
' N 0, О =
при ||ХЦ>е;
6) промах при заданном Т, когда
Ф = |X (Г) |, G ss 0.
Кроме того, заданы ограничения Н (Хi, Ха)^0, например:
а) ограничения на мгновенные значения: ||б’||г=С|ло>
J ^ v 0;
б) ограничения иа импульс (ресурс) управляющих сил:
ОО |
90 |
J II w II л < 1‘ W . |
,f \W \\dt < v (/,); |
в) ограничения на траектории летательных аппаратов, которые не должны пересекать земли и т. д.
Совокупность величин
{ X ,(to), X2(t0), р (М . v(/0)}=P(*o) |
(1-22) |
называется позицией игры, сложившейся к моменту |
t — to. |
Если предположить, что позиция игры известна партнерам в каждый данный момент, то указанная задача относится к
позиционной дифференциальной игре двух сторон с полной информацией. Функции U(P), V(P), определенные на мно жество всевозможных позиций, называются позиционными стратегиями сторон.
Задача состоит в отыскании среди допустимых стратегий таких, которые обеспечивают выполнение равенства
Ju'v* = min max Ju\ |
— max min Л/г |
(1-23) |
|
и v |
v |
v |
|
для любой допустимой исходной позиции Р(/0). Из послед него соотношения вытекают условия седловой точки игры
Ju'v^J u 'v '^J uv‘> |
(1-24) |
которые означают, что при отклонении любым из партнеров от оптимальной стратегии и при условии, что другой парт нер придерживается своей оптимальной стратегии, резуль тат для отклонившего оптимальную стратегию партнера только ухудшится. Игровые задачи, которые не имеют сед ловой точки, являются некорректными (нерегулярными). Не
3—1303 |
33 |
регулярности иногда можно преодолеть |
изменением усло |
|||
вий задачи, например: |
стратегий |
в классе |
||
а) |
отыскивая одну из оптимальных |
|||
более |
информативных, чем позиционная, |
в |
частности |
|
U = U ( P ( t ) , V(t)); |
|
в частности, |
||
б) |
решая более узкую задачу, чем исходная, |
отыскивая стратегию, обеспечивающую J v '~ min sup J uv.
Дифференциальные игры относятся к задачам динамичес кой оптимизации.
Вышеприведенные примеры относятся к детерминирован ным оптимизационным задачам, в которых элемент случай ности практически не фигурирует или пренебрежен. Однако во многих управляемых системах такое пренебрежение не оправдано: в следящих системах со случайным задающим воздействием, для технологических процессов с высоким уровнем возмущений, для летательных аппаратов при поле тах в турбулентной атмосфере, в системах с неполной ап риорной информацией о ее характеристиках и воздействиях и т. д. Такого типа задачи в данной книге практически не рассматриваются. Не вошли сюда задачи адаптации и обуче ния (Фельдбаум А. А., Цыпкин Я- 3- и др.), которые, в боль шинстве случаев, также формулируются как некоторые опти мизационные.
§ 1-3. Классы оптимизационных задач и классические методы их решения
Как видно из рассмотренных примеров, всякая задача, связанная .с экстремизацией функции или функционала, яв ляется оптимизационной. В зависимости от характера огра ничений на переменные управляемой системы задачи опти мизации делятся на классические т неклаооические: в клас
сических задачах ограничения имеют форму равенств, а в некласоических — и форму неравенств.
Далее будем рассматривать динамические системы с со средоточенными параметрами, в которых изменением. пере менных в пространстве пренебрегают. При этом динамиче
ские системы будем описывать |
переменными |
состояния |
(см. § 1-1, п. 2). |
|
|
Будем называть классическими конечными задачами оп- |
||
тимизации задачи типа: |
|
|
Найти значения переменной U = (щ, |
. . . . и,п), котораядает экстремум |
|
целевой функции |
|
|
G= G (U) |
(1-25) |
31
при связях |
f((L/) = 0, |
/ |
1...... т \ < т , |
|
(1-26) |
||||
|
|
||||||||
при этом функции |
G(U), |
\f,(U)} |
непрерывны |
и имеют |
частные произ |
||||
водные второго порядка по совокупности всех своих аргументов |
(усло |
||||||||
вия гладкости). |
|
|
|
|
|
|
|
|
|
Будем называть классическими вариационными задачами |
|||||||||
оптимизации задачи типа: |
|
|
|
|
|
||||
Найти функцию |
|
U(t) — |
(u,(t).........um (t)), |
принадлежащую задан |
|||||
ному классу функций |
сравнения, которая дает |
экстремум |
функционалу |
||||||
|
|
|
|
|
|
Т |
|
|
|
|
/ = |
Ф ( Х ( Г ), |
Т) + |
j G (X, X, U, t)dl |
|
(1-27) |
|||
|
|
|
|
|
|
п |
|
|
|
при связях |
|
|
|
|
|
|
|
|
|
U |
(A’. X , |
U , |
() — |
0, |
|
//11 с п |
|
(1-28) |
|
с краевыми условиями |
|
|
|
|
|
|
|
||
ФИ*('о). Л'(Г), |
Т) = и. |
k = 1........я, с 2п+ 2. |
(1-29) |
||||||
при этом функции |
|
G, |
{/,•;, |
|
имеют непрерывные |
частные произ |
водные второго порядка по совокупности всех своих аргументов.
Помимо граничных условий вида (1-29) иногда накладыва ются условия типа
т
j g{X, X, и, t)lit — с fo
(изопериметрические условия).
Кратко рассмотрим методы решения указанных задач, по лагая для определенности, это экстремум—минимум. Такие задачи решаются классическими методами дифференциаль ного и вариационного исчисления, развитыми в работах Ньютона, Эйлера, Лагранжа. Они основаны на рассмотрении приращений функций и функционалов при варьировании не зависимых переменных: для оптимальных значений перемен ных такие приращения должны быть равны нулю (условия стационарности функции или функционала). Условия ста ционарности являются необходимыми условиями оптималь
ности и записываются в виде уравнений (конечных или дифференциальных).
Пункт 1. Задача на безусловный экстремум функции
(1-25) является частным случаем конечной задачи оптимиза ции, когда Щ\ — 0.
Условие стационарности функции в точке U* для малых приращений Ш имеет вид
G(U* + 6U) = G(U*).
3* |
35 |
Ho G (U *+6U )^G (U *) + v jG (f/ * )-6t/+o(||fit/|l2), где
г |
= |
/ |
dG |
dG |
У |
, |
n |
вектор Vu G |
\ |
---- , . . |
------ |
— градиент функции G, по- |
|||
|
|
д и , |
д и т |
/ |
|
|
этому в стационарной точке
VJ О (U*) ■8U = 0.
Поскольку приращения бС/ произвольны, то условие ми
нимума запишется как |
|
v *TG(t/*)= 0. |
(1-30) |
Однако условию (1-30) удовлетворяют также точки мак симума, перегиба и седловые. Следовательно, указанное ус ловие минимума является лишь необходимым. Для .нахож дения достаточных условий рассмотрим в разложении функ ции в ряд Тейлора члены второго порядка малости:
G(U* + 6U) & G(U*) + VuTG(t/*)-6t/ + - j6 U ? H a(U*)-8U+
+ o(||6C/||3),
где матрица вторых частных .производных (гессиан функции
G) в точке U* обозначена НаШ )* = [——7— ]
L ouidui \и-и•
Приращение функции в этой точке равно
6G(t/*) = G(G* + 6t/)-G(G*) = — 6t/TH0(£/*)-6£/ + o(||6t/||3).
А
Если стационарная точка является точкой минимума, то квадратичная форма 6Ur ■Ha{U*)-6U должна быть положи
тельно определенной, что приводит к .следующим условиям (Сильвестра):
дЮ |
d*G |
— |
|
ди* |
ди , д щ |
|
|
det |
|
> 0, |
(1-31) |
d*G |
дЮ |
|
|
|
|
||
dukdui |
д и \ |
и=и» |
|
k = |
1........... т. |
|
|
Если функция G имеет несколько экстремумов, то най денные из уравнений (1-30) стационарные точки должны быть проверены по критерию (1-31), и из них должна быть выбрана единственная, дающая абсолютный минимум функ ции G. К счастью, многие практические задачи имеют одно
36
экстремальный характер, причем тип экстремума заранее известен. Это облегчает процедуру решения и дает возмож ность использовать для его нахождения только необходимые условия (1-30).
Имеется две группы методов нахождения решения —
аналитические и вычислительные (числовые). Несмотря на
достоинства аналитических методов, позволяющих получить решение в общем виде и выявить его основные закономерно сти, что весьма важно при теоретическом анализе, они об ладают малой мощностью, поскольку позволяют решать лишь сравнительно простые, задачи. Поэтому нашли боль шое применение (особенно в связи с внедрением вычисли тельных машин) значительно более мощные числовые мето ды. Среди последних для решения конечных уравнений типа (1-30) применяют итеративные методы, которые использовал
еще Коши. Для итеративного решения уравнения (1-30) пе
репишем его в удобной для осуществления |
итеративного |
процеоса равносильной форме |
|
U= U—Г у UG (U ), |
|
которая позволяет найти (< + 1)-ю итерацию по формуле |
|
Д /[Н -1]= ад-Ш + 1]У иС (В Д , 7 = 0, 1, 2, |
(1-32) |
где Г= [у,J — матрица коэффициентов шага итерации, в об щем случае зависящая от номера итерации. От ее выбора зависит сходимость итеративного процесса, т. е. выполнение условия
lim U[t]z= U*.
/ <*о
Можно показать, что точка минимума является точкой ус
тойчивости алгоритма (1-32). |
(1-32) при |
выборе |
ПН-1]= |
||
Из общего алгоритма |
|||||
~ Н в~](U{t]) получаем алгоритм Ньютона, |
- а |
при Г= у1 ~ |
|||
градиентный алгоритм |
(I — единичная матрица). Схема ите |
||||
ративного решения по |
(1-32) |
показана на рис. |
1-7, |
где двой |
ные стрелки обозначают векторные связи, а зачерненные — матричные, буквой D обозначен дискретный интегратор,
блок определения градиента обозначен VG.
Пункт 2. Задача на условный экстремум функции (1-25)
при наличии связей (1-26) (т \ Ф 0) решается методом мно
жителей Лагранжа. Для этого составляется функция Лагран жа
G i = G ( V ) + A * F(U), ■ |
( 1-33) |
37
относительно которой решается рассмотренная выше задача
на безусловный экстремум, |
при этом A — (Ai, |
/.,„i)T— век |
тор множителей Лагранжа, |
F = (f 1, ..., /mi) — вектор связей |
(1-26).
Необходимые условия стационарности приводят , к урав
нениям |
|
|
|
|
j |
V« G). = О, |
(1-34) |
||
l |
Vx Gx = |
0. |
||
|
||||
Аналогачно вышеизложенному |
итеративные |
алгоритмы |
||
оптимизации для одноэкстремальных задач имеют вид |
||||
Г U[i +1 ] = 0[/]— T[t + 1 ]V„ Gx (U[t], AW), |
(135) |
|||
1 A{/+ 1] = A W -1\[/+1F(G[/]), / = 0, 1, 2, |
..., |
где Г, Г* — матрицы коэффициентов шага, используемые при вычислениях соответственно U и А.
, - Г
&V и
X
t
Рис. 1-7. Схема итеративного решения задачи минимизации функции
Заметим, что дискретные алгоритмы (1-32), (1-35) могут быть записаны в непрерывной форме следующим образом. Если вычисление t-й итерации соответствует моменту t, то
при
M-^dt и MJ[l}=U[t+l]-U[t}-+dU(t)
получаем непрерывный аналог дискретного процесса реше ния оптимизационной задачи, который, например, для (1-35) имеет вид
== — Г (/) Vu Ox (U (0 ) Л (0 ),
(1-36)
= — Гх(0 • /=•(£/(/,).
38
Схема реализации |
решения |
по (1-36) показана на |
рис. 1-8. |
что во |
всех рассмотренных схемах |
Обратим внимание, |
решения конечных задач оптимизации требуется информа ция о градиенте скалярной функции V UG, а в задачах со связями — и о градиенте векторной функции, или якобиане
d F |
^ |
Если эти функции заданы аналитически, то |
|
d U |
|||
д и / |
|
реализация соответствующих блоков градиента осущест вляется либо с помощью вычислительной программы, либо с
Рис. 1-8. Схема итеративного решения задачи минимизации функции при связях между пере менными
помощью аналогового преобразования. Если же функции G и F определяются экспериментально на самом объекте уп
равления, то и частные производные определяются экспери ментальным образом, например, по приближенной формуле разделенных разностей:
dG (U ) |
G ( и , , . , uj *4- Ди /1.. ■, П/ч) |
б (и,, . . . , u j , . . . , |
ди] |
Дuj |
|
|
7 = 1 , . . . , т. |
(1-37) |
39
Однако помимо градиентных методов оптимизации сущест вуют и другие (см. гл. 4).
Пункт 3. Задачи на экстремум функционала (1-27) при отсутствии ограничений на переме?тые решаются методами
вариационного исчисления. При наличии связей (1-28) здесь также применяется метод множителей Лагранжа.
На практике по виду краевых условий (1-29) различают задачи с закрепленными концами (X(t0) —Xo, Х (Т )—Хт) и
задачи о подвижными концами, которые могут быть в част ности свободными или лежащими на заданных многообра зиях По, Пг: Л(/о)еП0, Х(Т) е И,.. При этом в задачах управ
ления обычно подвижным может быть правый конец траек тории Х (Т), а левый X(tо) — является закрепленным. Это
объясняется тем, что на практике начальное состояние объекта управления задано, а конечное состояние может быть фиксированным или в определенной степени произволь ным в зависимости от конкретной цели управления (см., на пример, задачу о минимальном расходе топлива, когда целе вое множество Пт фиксировано или подвижно). Вариацион ные задачи, кроме того, делятся на задачи со свободным и фиксированным конечным временем Т, что можно рассмат
ривать как частный случай фиксированных или свободных концов в (n + 1)-мерном пространстве (ящ ..., хп, t).
Рассмотрим необходимые условия минимума функцио нала (1-27) при связях (уравнениях объекта) (1-28).'Состав ляя функционал
|
|
т |
|
|
Л |
*1»(Х(7-)) + |
f (G(X, X, U,t) |
-\ \ 'F (X ,X ,U ,t))d t — |
|
|
|
К |
|
|
|
|
г |
|
|
|
= |
Ф (*(Г|)+ f G>, ( • ) dt, |
(1-38) |
|
|
|
и |
|
|
где |
A=(>vi(t), ..., |
Xmi(/)) — вектор |
множителей |
Лагранжа, |
решим задачу на безусловный экстремум функционала. Предположим, что оптимальное управление найдено и,
следовательно, определена оптимальная траектория системы, «а которой функционал (1-38) минимален. Рассмотрим его приращение за счет малой е-вариации оптимального управ ления и соответствующей ей вариации траектории системы, приняв для простоты, что функции G и F не зависят явно от
времени.
В силу гладности функций (1-28) малые вариации управ лений дают и малые вариации траектории, поэтому новое,
40