книги из ГПНТБ / Сейдж Э.П. Идентификация систем управления
.pdf4.3] МЕТОДЫ ИДЕНТИФИКАЦИИ ДИ НАМ ИЧЕСКИ Х СИСТЕМ 121
для итеративного вычисления вектора начальных усло вий, который требуется для решения дифференциального Уравнения из пункта 2). Неудобство этой процедуры со стоит в том, что обычно получаются начальные условия, отличные от нулевых.
Используя дискретную модификацию градиентного метода, можно решить задачу идентификации дискретной передаточной функции
3(«) |
ao + ctiz + . . . + а п_г г п 1 |
= Ж(г) = |
|
U ( z ) |
Ро + ры + . . . + P ^ z " - 1 ' |
Конечно, и здесь вычисления можно упростить, заменив их приближенными вычислениями. Так, читатель отме тит тесную связь между рассматриваемым примером и алгоритмом идентификации эталонной модели из главы 2.
Один из наиболее удобных путей упрощения сводится к использованию предположения о том, что постоянные параметры а и b могут быть идентифицированы приме нением статического варианта градиентного метода. Строго говоря, это неверно, хотя и может быть оправдано про стотой процедуры приближенных вычислений. Для общей задачи минимизации функционала
Ч
/ = jj<p[x(£), p(f), t]dt
to
при ограничениях
X = f [X (t), р (0, t], |
X (to) = х0, |
Р = о
будем задаваться начальным значением р! и, решив си стему дифференциальных уравнений, оценим величину функции штрафа /*. Слегка изменяя р{, для нового зна чения р* + Bj найдем штраф + т]/, /-ю компоненту вектора-градиента функции штрафа можно приближенно оценить как
dJ |
(j i + |
у - j i |
= |
dpj ~ |
(Р* + |
ер — р1 |
ej |
122 |
ГРАДИЕНТНЫ Е М ЕТОДЫ ИДЕНТИФИКАЦИИ |
[ГЛ . 4 |
Повторяя эту процедуру для возмущений различных компонент вектора параметров, определим приближенное значение вектора-градиента dJIdpк Первое приращение вектора параметров в направлении наискорейшего спус ка к минимуму функции штрафа составит
dpi1
а новое приближение для вектора параметров определится как
pi+1 = р*+ Ар1.
Простота приближенного метода позволила положить его в основу нескольких итерационных схем главы 2, од нако трудно оценить ошибку, связанную с приближен ным вычислением djldp1 (процедура точного вычисления свелась бы к уже известным алгоритмам решения динами ческих задач). Приближенная процедура приводит к су щественным ошибкам, особенно тогда, когда функция штрафа не очень чувствительна к изменению вектора па раметров. Последнее, к сожалению, довольно часто имеет место, если измерения или наблюдения искажены поме хой и имеются неизвестные входные сигналы.
Так же как и в статическом случае, можно рассмотреть разложение в ряд функции штрафа динамической задачи до членов второго порядка малости. Для функции штрафа (4.3.17) такое разложение имеет вид
» г |
Г 900 |
, д |
ПТ А . |
1 |
А |
Т |
920о д . |
|
|
|||
А / = |
Ы г + |
J |
Ах° + |
Т |
Лх° |
Ахо + |
|
|
||||
+ |
9 0 , |
|
Аху + -4~ Ax j — |
Ах/ -f Г^Аро — ГJ Ар/ + |
||||||||
9х^ |
|
|||||||||||
|
|
|
|
|
|
dxf |
|
|
|
|||
|
fc,-l |
|
|
|
|
|
|
|
|
|
|
|
|
+ 2 В 1 - ^ Т ах + Ш Т а « + [ ^ - г ]Т а р + |
|||||||||||
|
К=ки |
|
|
92Я |
|
|
д дП |
д |
дН |
|
||
|
|
|
|
|
|
|
Ах' |
|||||
|
|
+ 4" |
Дх |
|
9х2 |
|
9и 9х |
9р |
дх |
|||
|
|
Аи |
|
Г 9 |
дН 1Т |
|
92Я |
9 |
дН |
Ди |
||
|
|
|
9и 9х •] |
|
9и2 |
9и |
9р |
|||||
|
|
. АР . |
|
Ар |
||||||||
|
|
9 'дН 1Т Г д дН ■1Т 92Я |
||||||||||
9р дх J L9и 9р J 9р2
(4.3.42)
4.3] МЕТОДЫ ИДЕНТИФИКАЦИИ ДИНАМ ИЧЕСКИХ СИСТЕМ 123
Для упрощения обозначений индекс к (номер шага) опу щен. Чтобы упростить выражение (4.3.42), потребуем выполнения условий (4.3.18) и (4.3.19), в результате для А / получим
AJ = |
ЭОо |
|
-|Т |
|
|
|
|
|
|
|
|
Л х 0 + |
|
- т т г А х о + |
|
|
|||||
Эхо |
|
|
|
|
||||||
|
|
|
|
|
||||||
|
1 |
т |
Э20, |
|
|
|
*Г г |
[ ^ - ] Т Ли |
||
|
т у |
4х' |
4 Х, + Г ]4 р 1 + 2 |
|||||||
|
дх? |
|
|
|
'к~ко |
|
|
|
||
|
|
|
|
э*я |
|
|
|
|
||
|
|
|
|
д |
дН |
д |
дН |
|
||
|
|
Дх |
т |
Эх2 |
Эи |
дх |
Эр |
дх |
Дх |
|
+ |
Ди |
|
д |
дП Т |
Э2Я |
д |
дН |
Ди |
||
|
Эи |
Эх |
Эи2 |
Эи |
Зр |
|||||
|
|
ДР _ |
■V |
|
дН'Т Г |
9 |
ГЭЯ |
т| дЧ1 |
Др |
|
|
|
Т — - |
||||||||
|
|
|
_ L |
Эр |
дх |
ди |
Эр |
“Зр2- |
_ |
|
(4.3.43)
Отметим теперь, что можно осуществить дополнительную минимизацию (4.3.43) по Ах, Др и Ди. Эту минимизацию следует проводить при учете соотношений (4.3.14) и (4.3.15), используя которые, получим
Ах (к -j- 1) = |
Эф |
|
Ах (к) |
|
|
дх (к) |
|
|
|
д |
|
дН |
■JАх |
|
„ Эх (к) дХ (к) |
||||
|
Эф |
Аи (к) |
Эф |
|
|
Эи (к) |
э |
ЭЯ |
др (А) АР (*) = |
(к) |
|
] Аи (к) + |
||
|
_ Эи (к) |
дХ (к) |
|
|
ддН
Эр (к) Э ?Д ч ]ЛР^ ; (4 -3 -44^
А р(& + 1) = Ар (к). |
(4.3.45) |
Обычное применение дискретного принципа максимума приводит к двухточечной задаче для уравнений (4.3.44), (4.3.45), а
4и>=*<-[етщГ{[' |
Эи (к) |
Эх (к) J |
|
|
|
э; |
ЭЯ -I1 Ах (к) |
|
|
_ Эи (к) |
дН |
тт |
ДА, (к -|- 1) |
|
дХ (к) _ |
|
|
||
Э |
ЭЯ |
дП |
} , (4.3.46) |
|
_ Эи (к) Эр (к) |
Ар (к) Эи (к) |
|||
124 ГРАДИЕНТНЫ Е МЕТОДЫ ИДЕНТИФИКАЦИИ [ГЛ . 4
4МЧ-= Ь ^ Н * > + [ ^ |
г Ш |
|
J |
4и<*> + |
|
|||
+ |
Г д |
дП 1 |
,т.ч , г д |
дН |
|
АХ(к |
1), (4.3.47) |
|
L йр (к) |
дх (к) ■] АР (к) + [ дХ(к) дх (к) |
|||||||
|
|
|
[WW^w] |
А 1 (к + !)+ |
||||
|
|
|
Э |
дП |
|
|
|
|
4 Г Й = 4 Г № + 1) , L |
W |
|
|
|
|
|||
“t |
[ j p ® |
] 4 Р <4 + |
\.,Цщ Щ ц ] Ли (Ч + дх (к) |
Йр (к) ]A x№)- |
||||
|
|
|
|
|
|
|
|
(4.3.48) |
Здесь А Х и ДГ — множители Лагранжа, которые удовлет воряют условиям на концах:
41 <*•> - |
- t w |
~ х <*•> - т Ш 4х (« • <4-зд9> |
ДГ(А0) = |
- Г ( А 0), |
(4.3.50) |
= |
|
(4-3-51) |
ДГ (kf) — 0. |
(4.3.52) |
|
Так же, как и в статическом случае, использование вторых приращений определяет изменение управления от итера ции к итерации. Сложность вычислительных алгоритмов существенно возрастает по сравнению с градиентным ме тодом первого порядка. В то же время сходимость ока зывается квадратичной и гораздо более быстрой. Однако область начальных условий и начальных приближений к управлению, гарантирующая сходимость, существенно сужается.
Схема вычислений такова:
1)задаться начальным значениемиг(к), х1 (к0) и р»(&0);
2)решив уравнения (4.3.14) и (4.3.15), определить траекторию х; (к) и параметры р* (к); ясно, что для реше ния уравнения (4.3.15) вычислительная машина не по
требуется, так как р{(к) = рг(&0); 3) решить сопряженные системы уравнений (4.3.18)
и(4.3.19) в «обратном» времени от kf и /с0;
4)решить линейную двухточечную задачу (4.3.44) —
(4.3.52).
Благодаря линейности задачи для ее решения можно воспользоваться мпожеством различных методов (см.
4.3] МЕТОДЫ ИДЕНТИФИКАЦИИ ДИ НАМ ИЧЕСКИ Х СИСТЕМ 125
Сейдж, [116]). Удобнее всего воспользоваться преобразо ванием Риккати. С линейными двухточечными задачами еще не раз придется встретиться в главе 6. Решение линей ных ДКЗ дает искомые значения Дх* (к0) и Др{ (к0);
5)определить из уравнения (4.3.46) Ди* (к);
6)используя (4.3.27) — (4.3.29), построить новое
приближение x i+1 (к0), |
pi+1 (&0) и ui+1(/c); |
|
7) вернуться к пункту 2) и повторять вычисления до |
||
тех пор, |
пока хг (к0), р1 (к0) и и1 (к) при переходе от ите |
|
рации и |
итерации практически не перестанут меняться. |
|
Как уже отмечалось, процедуру вычислений Ах (к), |
||
Ли (к) и Лр (к) можно |
упростить, используя преобразо |
|
вание Риккати. Но вместо того чтобы сразу же применить это преобразование для упрощения формул градиентного метода второго порядка, поступим несколько иначе.
Допустим снова, что уже выбраны начальные прибли
жения |
для управления ш (к), начального состояния |
х* (к0) и |
вектора параметров р1 (к0). Уравнения для со |
стояний и параметров (4.3.14), (4.3.15) решаются в пря мом времени, сопряженные уравнения (4.3.18) и (4.3.19) — в «обратном» времени. Затем предполагается, что вариации первого порядка, связаны условиями, вытекающими из уравнений (4.3.14), (4.3.15), (4.3.18) и (4.3.19), а именно:
Ax^ +1) = |
|
AxW + |
|
||
J'~ [ да (к) ЭХ (к + 1)] |
Au W |
+ |
[ ар (к) ЭХ (к + 1)] Ар ^ |
== |
|
= |
а д - Ах (*) + |
a lw |
Аи (*) + а д - Ар (*>. |
(4-3-53) |
|
|
Лр (к И ) |
= ■Ар (к), |
(4.3.54) |
||
АХ (к) = |
ЭЧ1 |
|
Э |
дН |
|
_дх (А)2] Ах (к) |
ди (к) дх (кd) Au + |
|
|||
|
ЭН |
|
д |
дН |
|
Эр (к) |
Эх (к) ] Ар (к) - [ щ |
а д а д ] АМ * + 1 ), (4.3.55) |
|||
АГ(А) |
[ дх (к) Эр (к) ] АХ ^ + [ Эи (к) Эр (к) ] Аи № + |
|
|||
+ [а д г2] Ар + [ э а д if а д -] А^ (к + ^ + АГ (* + 1)>
(4.3.56)
126 |
ГРАДИ ЕНТНЫ Е М ЕТОДЫ ИДЕНТИФИКАЦИИ |
[ГЛ . 4 |
где II определяется выражением (4.3.16). Изменение уп равления Ли определяется применением к дН/ди известно го линейного преобразования, а именно:
Г дЛ |
" |
Г |
д |
ЭН |
Лх (к) + |
' (Ml |
|
|
|
|
|
||||||
_ д и (к) _ |
|
_ 9 и (к) |
|
ди (/с)2;] AU (к ) |
|
|||
л |
|
д _ |
дН |
|
д |
дН 1Т |
Лр(к). |
|
|
|
|
|
|
|
ди (к) |
др (к) J |
(4.3.57) |
|
|
|
|
|
|
|
|
|
Условия на концах для линейной двухточечной задачи имеют вид
Ы |
(*о) = - |
дв11Х{щ |
]' ~ к (Ао) - |
ЛХ (* о)> (4-3'58) |
^ |
(*/) = |
|
Лх (*/)’ |
(4-3-59) |
лг (А0)= - |
Г (к0), |
ЛГ (к,) = 0. |
(4.3.60) |
|
Полученные соотношения можно записать в более простом виде:
Дх (к + 1)
ДХ (к)
Др (к + 1)
ДГ (к)
~Си {к) Сп (к) С13 (к) 0 - |
Дх (к) |
|
|||
С21 (к) С22(к) С23 {к) 0 |
ДХ, (к + 1) |
|
|||
0 |
0 |
I |
0 |
Др (к) |
|
_<& <*) |
< £ (* ) |
Сзз (к) |
0 |
_Д Г (к + 1) _ |
|
|
|
|
|
Дон (к) |
|
|
|
|
+ |
До>2 (к) |
(4.3.61) |
|
|
|
0 |
||
|
|
|
|
|
|
Дшз (к)
с условиями на концах (4.3.58) — (4.3.60).
Отправляясь от особенностей двухточечной задачи,
представляется |
разумным искать ее решение в виде |
|
М (к) = 3 Хх(£) Лх (к) + EipAp (к) + ах (А), |
(4.3.62) |
|
ЛГ (к) = |
3 Гх(к) Лх (к) -f- 3 ГрЛр (к) -]- юг (к). |
(4.3.63) |
Подставляя эти выражения в (4.3.61) после несложных преобразований при отличных от нуля Дх и Ар получим
4.3] М ЕТОДЫ ИДЕНТИФИКАЦИИ ДИ НАМ ИЧЕСКИ Х СИСТЕМ 127
набор матричных уравнений Риккати. Таким образом, в этом случае уравнения для возмущений похожи на урав нения для задачи о замкнутой системе регулирования. Эти уравнения здесь не приводятся из-за чрезмерной сложности получающихся алгоритмов. Построение таких алгоритмов для конкретной задачи идентификации ока зывается не трудной, но часто утомительной работой. Процедура последовательного метода вторых вариаций, авторство которой в непрерывной форме принадлежит Мак-Рейнольдсу и Брайсону [97], по существу повторяет описанную выше процедуру градиентного метода второго порядка. Чисто техническое отличие состоит в том, что производится последовательное интегрирование в обрат
ном времени неоднородных |
уравнений |
Риккати. |
Затем |
в прямом времени строятся |
уравнения |
(4.3.53), |
(4.3.54) |
с начальными условиями, которые определяются комби
нацией выражений (4.3.58), (4.3.60), |
(4.3.62) и |
(4.3.63): |
|||
Ах ( к 0) = |з,.р(/с0) |
Э?.х ( к 0) |
ф- |
дЮо [х (ко)] |
|
|
Эх (fc0)a |
|
|
|||
|
|
|
|
|
|
+ 2Гр ( к0) Згх ( Ц X {3Гр(/с0)юг (&0) — Е,р ( к 0) |
(&0)}> |
||||
|
|
|
|
|
(4.3.64) |
Ар (к0) = { [ з , х (ко) + ^ |
)]]-Ч ,р(ко) |
- Згх (А0) Згр( Ц х |
|||
X {Згх ( к в) сог ( К ) - |
[3,х (ко) + |
|
сах ( Ц • |
||
|
|
|
|
|
(4.3.65) |
Иногда желательно рассматривать уравнения (4.3.53), |
|||||
(4.3.54) вместе с |
уравнениями (4.3.14), (4.3.15). Воз |
||||
можность итеративного выбора А(дН1да) может оказаться существенным преимуществом последовательного ме тода по сравнению с обычным градиентным методом вто рого порядка.
Алгоритмы метода сопряженного градиента для реше ния динамических задач идентификации в идейном плане являются прямым обобщением статического варианта метода сопряженного градиента. Сначала необходимо
определить начальные Хр, ро и и1. Затем в прямом време ни решаются уравнения для траекторий, а в обратном
128 |
ГРАДИ ЕНТНЫ Е МЕТОДЫ ИДЕНТИФИКАЦИИ |
[ГЛ. 4 |
времени — сопряженные уравнения. Это позволяет опре делить различные градиенты из уравнений (4.3.21) — (4.3.23) в дискретном случае и из уравнений (4.3.36) — (4.3.38) в непрерывном случае. Схема, намеченная на стр. 110 для статического варианта метода сопряженного градиента, используется в динамической задаче для каждого из трех векторов-градиентов. Независимо от того, какая задача — дискретная или непрерывная, для каждого из градиентов удобно определить
Затем вводится внутреннее произведение. В непрерывном случае по формуле
[,
<f (0. g(0> = J f (t)gT (t)dt, to
а в дискретном варианте по формуле
* Г г
< f(/c), g ( / c ) > = 2 f ( * ) g T (*)-
Блок-схема вычислений для метода сопряженного гра диента такова:
1)выбрать Xq, р!, и*;
2)решить в прямом времени основную систему урав нений и в обратном— сопряженную ей систему;
3)определить градиенты Сд„, сДХо и сгДр;
4)определить К Аи, К\Хо и Хдр так, чтобы минимизиро вать сходную функцию штрафа
J [Ч |
^ Д и С Д ш х 0 |
^ДХо^Дхо! Р* |
^ Д р С д р ]. |
На этом шаге используется оптимальный метод градиента, который обычно трудно реализуем. К приемлемому резуль тату приводит, как правило, интерполяция нескольких значений каждого из коэффициентов К&1„ КАХо и K Av\
4.3] МЕТОДЫ ИДЕНТИФИКАЦИИ ДИ НАМ ИЧЕСКИ Х СИСТЕМ 129
5)используя К , определенные в предыдущем пункте, выбрать
6)используя эти значения решить в прямом времени уравнение для траектории и в обратном времени — сопря женное уравнение;
7)определить направления сопряженных градиентов
дН . {дН /ди’
8) вернуться к пункту 4). Таким образом мы видим, что после начальной процедуры сопряженные направле ния используются как направления поиска. Для того чтобы проиллюстрировать специфические особенности вы числительной процедуры, рассмотрим пример системы первого порядка.
Пример 4.3.2. Интересно рассмотреть применение ме тода сопряженного градиента для идентификации пара метра Ъ линейной системы
х = — Ьх (2), и (2) = 1, х (0) = 0.
Минимизируется функция штрафа
о
Основная градиентная процедура чрезвычайно проста и представляет собой частный случай общей схемы, по строенной в примере 4.3.1:
1)задаемся начальным значением Ък\
2)решаем уравнение
^== _ &V (2) + 1, х1(0) = 0;
5 Э. Л. Сейдж, Дж. Л. Мелса
130 |
ГРАДИ ЕНТНЫ Е |
МЕТОДЫ |
ИДЕНТИФИКАЦИИ |
[ГЛ. 4 |
|
3) |
решаем сопряженные уравнения |
|
|||
|
v = z(0 |
- |
&(t)- |
(г), v (tf) = о, |
|
|
f j |
==**(*) **(*), |
П(*,) = 0; |
|
|
4) |
определяем |
новую итерацию неизвестного пара |
|||
метра |
|
Ьил = |
K'T'i (0); |
|
|
|
|
|
|||
5) возвращаемся к пункту 2) и повторяем вычисления. Для того чтобы применить метод сопряженного гради.
ента, необходимо изменить процедуру, начиная с пункта 5); 5') определить К г, минимизирующее функцию штрафа
1 |
[' |
J — — |
\ lz (0 — x(t)]2dt и вычислить 6т ; |
|
о |
6)используя bi+1, решить прямое и сопряженное уравнения;
7)определить направление сопряженного градиента
сдь = — Ti+1 (0) +
|
|
|
сдь |
с начальным приближением едь = |
Г° (0); |
||
8) на следующей итерации использовать оценку па |
|||
раметра |
тЛ |
j?-i |
|
ri+1 |
i . |
||
О — о — |
К Сдь, |
||
9) вернуться к пункту |
2) |
и |
повторять вычисления. |
\ А . ВЫВОДЫ
Было построено несколько наборов алгоритмов для решения задач идентификации. В приведенных примерах рассматривалась идентификация систем путем минимиза ции функций штрафа, предложенных в главе 3. Теперь будут изучаться особенности метода стохастической ап проксимации, которую можно рассматривать как стати стический градиентный метод.
