Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Егоров С.В. Элементы идентификации и оптимизации управляемых систем учеб. пособие

.pdf
Скачиваний:
5
Добавлен:
24.10.2023
Размер:
9.47 Mб
Скачать

В атом случае обычно минимизируется средняя по мно­ жеству возмущений величина критерия оптимальности:

J з= М7 [J(U , Z)},

при этом предполагается, что статистические свойства воз­ мущений на всем интервале оптимизации известны.

Пункт 11. Задачи о встрече движений

Различают два типа задач о встрече движений двух объектов, из которых движение хотя бы одногб описывается дифференциальными уравнениями:

1)задачи слежения, когда один объект (цель, уставка

процессу и т. д.) движется независимо от движения второго, преследующего его объекта;

2)дифференциальные игры, когда каждый объект строит

свое движение в зависимости от поведения второго. Задача первого типа, когда траектория движения пресле­

дуемого объекта задана как функция 'времени являют­ ся обобщением задачи об оптимальном регуляторе, когда точка равновесия X* является подвижной и закон ее движе­ ния задан как X*(t). Если траектория преследующего объек­

та описывается уравнением

X= F(X, U, t), X(t0)= X 0,

(1-18)

то при введении вектора рассогласования Е= Х* —Х задачу

слежения можно сформулировать как задачу минимизации функционала

 

т

 

 

У = Ф(£(Г)) + J

<3(Е, U,

1)Л,

(1-19)

 

I.

 

 

 

где Ф — функция от

конечного

рассогласования Е(Т), при

наличии связи (1-18),

которую

удобно

переписать

в виде

£= F,(Е, U, 0 , E(to)=X*(t0) - X о

иразличного рода ограничениях И(Е, U) ^ 0 .

Отметим здесь, что запись функционала (1-19) является наиболее общей формой: введение слагаемого Ф(£(Т)) поз­ воляет особо выделить состояние системы в конечный мо­ мент времени. Во многих практических случаях (в системах посадки самолетов, при реализации технологического про­ цесса таким образом, чтобы конечная продукция наименее

31

уклонялась от стандарта и т. д.) задача управления форму­ лируется как задача управления конечным состоянием

(terminal control), когда движение системы на остальном ин­ тервале времени нас не интересует (в выражении (1-19) Gн=. 0). Поскольку для динамической системы конечное со­

стояние является функционалом от управления, то и задача слежения, и ее частный случай — задача управления конеч­ ным состоянием относятся к задачам динамической юггтими- , зации.

Услов1Ия дифференциальных игр, рассмотренных в рабо­

тах Красовского Н. Н., Понтрягина Л. С. и др., формулиру­

ются следующим образом.

Имеется два объекта (партнера), уравнения движения ко­ торых имеют вид

j

X s^F ^X i,

U)

1

X2 = F2(X2,

( 1-20)

V),

где Х\, Х2 характеризуют состояния соответственно первого

(преследующего) и второго (преследуемого) объектов, и, V управляющие воздействия объектов, которые должны

формироваться по информации о состоянии объектов.

Вводится вектор существенных для встречи

координат

X — (Х\~, Х г), где Х\~, ^ - — существенные

координаты

’первого и второго объектов, по которым можно судить о

встрече. Вектора Х\~, Х2~ получаются простым

отбрасыва­

нием из X,

и Х2 несущественных для встречи

координат,

например,

координат угловых перемещений относительно

осей вращения объектов или координат скорости, поскольку для встречи существенно лишь совпадение координат цент­ ров тяжести объектов.

Игра считается законченной, если вектор X попадает на

заданное многообразие

X* (часто Х = Х г —Х2~ и Х *= 0).

При этом первый объект стремится достичь X* с наимень­

шим показателем платы игры

 

 

т

 

Juv

[ 0 ( Х и Xt, U, V) dt

min, (1-21)

 

t.

u,v

где Х\(Т), Х2(Т )~ состояния объектов в момент окончания иг­

ры, а второй объект ставит задачу максимизации величины (1-21), в частное™, стремится не допустить попадания X на многообразие X*. В приложениях плата игры может иметь

различный смысл, например:

а) время встречи, когда

при ||X ||< е,

' N 0, О =

при ||ХЦ>е;

6) промах при заданном Т, когда

Ф = |X (Г) |, G ss 0.

Кроме того, заданы ограничения Н (Хi, Ха)^0, например:

а) ограничения на мгновенные значения: ||б’||г=С|ло>

J ^ v 0;

б) ограничения иа импульс (ресурс) управляющих сил:

ОО

90

J II w II л < 1‘ W .

,f \W \\dt < v (/,);

в) ограничения на траектории летательных аппаратов, которые не должны пересекать земли и т. д.

Совокупность величин

{ X ,(to), X2(t0), р (М . v(/0)}=P(*o)

(1-22)

называется позицией игры, сложившейся к моменту

t — to.

Если предположить, что позиция игры известна партнерам в каждый данный момент, то указанная задача относится к

позиционной дифференциальной игре двух сторон с полной информацией. Функции U(P), V(P), определенные на мно­ жество всевозможных позиций, называются позиционными стратегиями сторон.

Задача состоит в отыскании среди допустимых стратегий таких, которые обеспечивают выполнение равенства

Ju'v* = min max Ju\

max min Л/г

(1-23)

и v

v

v

 

для любой допустимой исходной позиции Р(/0). Из послед­ него соотношения вытекают условия седловой точки игры

Ju'v^J u 'v '^J uv‘>

(1-24)

которые означают, что при отклонении любым из партнеров от оптимальной стратегии и при условии, что другой парт­ нер придерживается своей оптимальной стратегии, резуль­ тат для отклонившего оптимальную стратегию партнера только ухудшится. Игровые задачи, которые не имеют сед­ ловой точки, являются некорректными (нерегулярными). Не­

3—1303

33

регулярности иногда можно преодолеть

изменением усло­

вий задачи, например:

стратегий

в классе

а)

отыскивая одну из оптимальных

более

информативных, чем позиционная,

в

частности

U = U ( P ( t ) , V(t));

 

в частности,

б)

решая более узкую задачу, чем исходная,

отыскивая стратегию, обеспечивающую J v '~ min sup J uv.

Дифференциальные игры относятся к задачам динамичес­ кой оптимизации.

Вышеприведенные примеры относятся к детерминирован­ ным оптимизационным задачам, в которых элемент случай­ ности практически не фигурирует или пренебрежен. Однако во многих управляемых системах такое пренебрежение не оправдано: в следящих системах со случайным задающим воздействием, для технологических процессов с высоким уровнем возмущений, для летательных аппаратов при поле­ тах в турбулентной атмосфере, в системах с неполной ап­ риорной информацией о ее характеристиках и воздействиях и т. д. Такого типа задачи в данной книге практически не рассматриваются. Не вошли сюда задачи адаптации и обуче­ ния (Фельдбаум А. А., Цыпкин Я- 3- и др.), которые, в боль­ шинстве случаев, также формулируются как некоторые опти­ мизационные.

§ 1-3. Классы оптимизационных задач и классические методы их решения

Как видно из рассмотренных примеров, всякая задача, связанная .с экстремизацией функции или функционала, яв­ ляется оптимизационной. В зависимости от характера огра­ ничений на переменные управляемой системы задачи опти­ мизации делятся на классические т неклаооические: в клас­

сических задачах ограничения имеют форму равенств, а в некласоических — и форму неравенств.

Далее будем рассматривать динамические системы с со­ средоточенными параметрами, в которых изменением. пере­ менных в пространстве пренебрегают. При этом динамиче­

ские системы будем описывать

переменными

состояния

(см. § 1-1, п. 2).

 

 

Будем называть классическими конечными задачами оп-

тимизации задачи типа:

 

 

Найти значения переменной U = (щ,

. . . . и,п), котораядает экстремум

целевой функции

 

 

G= G (U)

(1-25)

31

при связях

f((L/) = 0,

/

1...... т \ < т ,

 

(1-26)

 

 

при этом функции

G(U),

\f,(U)}

непрерывны

и имеют

частные произ­

водные второго порядка по совокупности всех своих аргументов

(усло­

вия гладкости).

 

 

 

 

 

 

 

 

 

Будем называть классическими вариационными задачами

оптимизации задачи типа:

 

 

 

 

 

Найти функцию

 

U(t) —

(u,(t).........um (t)),

принадлежащую задан­

ному классу функций

сравнения, которая дает

экстремум

функционалу

 

 

 

 

 

 

Т

 

 

 

 

/ =

Ф ( Х ( Г ),

Т) +

j G (X, X, U, t)dl

 

(1-27)

 

 

 

 

 

 

п

 

 

 

при связях

 

 

 

 

 

 

 

 

 

U

(A’. X ,

U ,

() —

0,

 

//11 с п

 

(1-28)

с краевыми условиями

 

 

 

 

 

 

 

ФИ*('о). Л'(Г),

Т) = и.

k = 1........я, с 2п+ 2.

(1-29)

при этом функции

 

G,

{/,•;,

 

имеют непрерывные

частные произ­

водные второго порядка по совокупности всех своих аргументов.

Помимо граничных условий вида (1-29) иногда накладыва­ ются условия типа

т

j g{X, X, и, t)lit — с fo

(изопериметрические условия).

Кратко рассмотрим методы решения указанных задач, по­ лагая для определенности, это экстремум—минимум. Такие задачи решаются классическими методами дифференциаль­ ного и вариационного исчисления, развитыми в работах Ньютона, Эйлера, Лагранжа. Они основаны на рассмотрении приращений функций и функционалов при варьировании не­ зависимых переменных: для оптимальных значений перемен­ ных такие приращения должны быть равны нулю (условия стационарности функции или функционала). Условия ста­ ционарности являются необходимыми условиями оптималь­

ности и записываются в виде уравнений (конечных или дифференциальных).

Пункт 1. Задача на безусловный экстремум функции

(1-25) является частным случаем конечной задачи оптимиза­ ции, когда Щ\ — 0.

Условие стационарности функции в точке U* для малых приращений Ш имеет вид

G(U* + 6U) = G(U*).

3*

35

Ho G (U *+6U )^G (U *) + v jG (f/ * )-6t/+o(||fit/|l2), где

г

=

/

dG

dG

У

,

n

вектор Vu G

\

---- , . .

------

— градиент функции G, по-

 

 

д и ,

д и т

/

 

 

этому в стационарной точке

VJ О (U*) ■8U = 0.

Поскольку приращения бС/ произвольны, то условие ми­

нимума запишется как

 

v *TG(t/*)= 0.

(1-30)

Однако условию (1-30) удовлетворяют также точки мак­ симума, перегиба и седловые. Следовательно, указанное ус­ ловие минимума является лишь необходимым. Для .нахож­ дения достаточных условий рассмотрим в разложении функ­ ции в ряд Тейлора члены второго порядка малости:

G(U* + 6U) & G(U*) + VuTG(t/*)-6t/ + - j6 U ? H a(U*)-8U+

+ o(||6C/||3),

где матрица вторых частных .производных (гессиан функции

G) в точке U* обозначена НаШ )* = [——7— ]

L ouidui \и-и

Приращение функции в этой точке равно

6G(t/*) = G(G* + 6t/)-G(G*) = — 6t/TH0(£/*)-6£/ + o(||6t/||3).

А

Если стационарная точка является точкой минимума, то квадратичная форма 6Ur ■Ha{U*)-6U должна быть положи­

тельно определенной, что приводит к .следующим условиям (Сильвестра):

дЮ

d*G

 

ди*

ди , д щ

 

 

det

 

> 0,

(1-31)

d*G

дЮ

 

 

 

dukdui

д и \

и=и»

 

k =

1........... т.

 

 

Если функция G имеет несколько экстремумов, то най­ денные из уравнений (1-30) стационарные точки должны быть проверены по критерию (1-31), и из них должна быть выбрана единственная, дающая абсолютный минимум функ­ ции G. К счастью, многие практические задачи имеют одно­

36

экстремальный характер, причем тип экстремума заранее известен. Это облегчает процедуру решения и дает возмож­ ность использовать для его нахождения только необходимые условия (1-30).

Имеется две группы методов нахождения решения —

аналитические и вычислительные (числовые). Несмотря на

достоинства аналитических методов, позволяющих получить решение в общем виде и выявить его основные закономерно­ сти, что весьма важно при теоретическом анализе, они об­ ладают малой мощностью, поскольку позволяют решать лишь сравнительно простые, задачи. Поэтому нашли боль­ шое применение (особенно в связи с внедрением вычисли­ тельных машин) значительно более мощные числовые мето­ ды. Среди последних для решения конечных уравнений типа (1-30) применяют итеративные методы, которые использовал

еще Коши. Для итеративного решения уравнения (1-30) пе­

репишем его в удобной для осуществления

итеративного

процеоса равносильной форме

 

U= U—Г у UG (U ),

 

которая позволяет найти (< + 1)-ю итерацию по формуле

Д /[Н -1]= ад-Ш + 1]У иС (В Д , 7 = 0, 1, 2,

(1-32)

где Г= [у,J — матрица коэффициентов шага итерации, в об­ щем случае зависящая от номера итерации. От ее выбора зависит сходимость итеративного процесса, т. е. выполнение условия

lim U[t]z= U*.

/ <*о

Можно показать, что точка минимума является точкой ус­

тойчивости алгоритма (1-32).

(1-32) при

выборе

ПН-1]=

Из общего алгоритма

~ Н в~](U{t]) получаем алгоритм Ньютона,

- а

при Г= у1 ~

градиентный алгоритм

(I — единичная матрица). Схема ите­

ративного решения по

(1-32)

показана на рис.

1-7,

где двой­

ные стрелки обозначают векторные связи, а зачерненные — матричные, буквой D обозначен дискретный интегратор,

блок определения градиента обозначен VG.

Пункт 2. Задача на условный экстремум функции (1-25)

при наличии связей (1-26) (т \ Ф 0) решается методом мно­

жителей Лагранжа. Для этого составляется функция Лагран­ жа

G i = G ( V ) + A * F(U), ■

( 1-33)

37

относительно которой решается рассмотренная выше задача

на безусловный экстремум,

при этом A — (Ai,

/.,„i)T— век­

тор множителей Лагранжа,

F = (f 1, ..., /mi) — вектор связей

(1-26).

Необходимые условия стационарности приводят , к урав­

нениям

 

 

 

j

G). = О,

(1-34)

l

Vx Gx =

0.

 

Аналогачно вышеизложенному

итеративные

алгоритмы

оптимизации для одноэкстремальных задач имеют вид

Г U[i +1 ] = 0[/]— T[t + 1 ]V„ Gx (U[t], AW),

(135)

1 A{/+ 1] = A W -1\[/+1F(G[/]), / = 0, 1, 2,

...,

где Г, Г* — матрицы коэффициентов шага, используемые при вычислениях соответственно U и А.

, - Г

&V и

X

t

Рис. 1-7. Схема итеративного решения задачи минимизации функции

Заметим, что дискретные алгоритмы (1-32), (1-35) могут быть записаны в непрерывной форме следующим образом. Если вычисление t-й итерации соответствует моменту t, то

при

M-^dt и MJ[l}=U[t+l]-U[t}-+dU(t)

получаем непрерывный аналог дискретного процесса реше­ ния оптимизационной задачи, который, например, для (1-35) имеет вид

== — Г (/) Vu Ox (U (0 ) Л (0 ),

(1-36)

= — Гх(0 • /=•(£/(/,).

38

Схема реализации

решения

по (1-36) показана на

рис. 1-8.

что во

всех рассмотренных схемах

Обратим внимание,

решения конечных задач оптимизации требуется информа­ ция о градиенте скалярной функции V UG, а в задачах со связями — и о градиенте векторной функции, или якобиане

d F

^

Если эти функции заданы аналитически, то

d U

д и /

 

реализация соответствующих блоков градиента осущест­ вляется либо с помощью вычислительной программы, либо с

Рис. 1-8. Схема итеративного решения задачи минимизации функции при связях между пере­ менными

помощью аналогового преобразования. Если же функции G и F определяются экспериментально на самом объекте уп­

равления, то и частные производные определяются экспери­ ментальным образом, например, по приближенной формуле разделенных разностей:

dG (U )

G ( и , , . , uj *4- Ди /1.. ■, П/ч)

б (и,, . . . , u j , . . . ,

ди]

Дuj

 

 

7 = 1 , . . . , т.

(1-37)

39

Однако помимо градиентных методов оптимизации сущест­ вуют и другие (см. гл. 4).

Пункт 3. Задачи на экстремум функционала (1-27) при отсутствии ограничений на переме?тые решаются методами

вариационного исчисления. При наличии связей (1-28) здесь также применяется метод множителей Лагранжа.

На практике по виду краевых условий (1-29) различают задачи с закрепленными концами (X(t0) —Xo, Х (Т )—Хт) и

задачи о подвижными концами, которые могут быть в част­ ности свободными или лежащими на заданных многообра­ зиях По, Пг: Л(/о)еП0, Х(Т) е И,.. При этом в задачах управ­

ления обычно подвижным может быть правый конец траек­ тории Х (Т), а левый X(tо) — является закрепленным. Это

объясняется тем, что на практике начальное состояние объекта управления задано, а конечное состояние может быть фиксированным или в определенной степени произволь­ ным в зависимости от конкретной цели управления (см., на­ пример, задачу о минимальном расходе топлива, когда целе­ вое множество Пт фиксировано или подвижно). Вариацион­ ные задачи, кроме того, делятся на задачи со свободным и фиксированным конечным временем Т, что можно рассмат­

ривать как частный случай фиксированных или свободных концов в (n + 1)-мерном пространстве (ящ ..., хп, t).

Рассмотрим необходимые условия минимума функцио­ нала (1-27) при связях (уравнениях объекта) (1-28).'Состав­ ляя функционал

 

 

т

 

 

Л

*1»(Х(7-)) +

f (G(X, X, U,t)

-\ \ 'F (X ,X ,U ,t))d t

 

 

К

 

 

 

 

г

 

 

 

=

Ф (*(Г|)+ f G>, ( • ) dt,

(1-38)

 

 

и

 

 

где

A=(>vi(t), ...,

Xmi(/)) — вектор

множителей

Лагранжа,

решим задачу на безусловный экстремум функционала. Предположим, что оптимальное управление найдено и,

следовательно, определена оптимальная траектория системы, «а которой функционал (1-38) минимален. Рассмотрим его приращение за счет малой е-вариации оптимального управ­ ления и соответствующей ей вариации траектории системы, приняв для простоты, что функции G и F не зависят явно от

времени.

В силу гладности функций (1-28) малые вариации управ­ лений дают и малые вариации траектории, поэтому новое,

40

Соседние файлы в папке книги из ГПНТБ