Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Сейдж Э.П. Идентификация систем управления

.pdf
Скачиваний:
75
Добавлен:
23.10.2023
Размер:
7.91 Mб
Скачать

4.3] МЕТОДЫ ИДЕНТИФИКАЦИИ ДИ НАМ ИЧЕСКИ Х СИСТЕМ 121

для итеративного вычисления вектора начальных усло­ вий, который требуется для решения дифференциального Уравнения из пункта 2). Неудобство этой процедуры со­ стоит в том, что обычно получаются начальные условия, отличные от нулевых.

Используя дискретную модификацию градиентного метода, можно решить задачу идентификации дискретной передаточной функции

3(«)

ao + ctiz + . . . + а п_г г п 1

= Ж(г) =

U ( z )

Ро + ры + . . . + P ^ z " - 1 '

Конечно, и здесь вычисления можно упростить, заменив их приближенными вычислениями. Так, читатель отме­ тит тесную связь между рассматриваемым примером и алгоритмом идентификации эталонной модели из главы 2.

Один из наиболее удобных путей упрощения сводится к использованию предположения о том, что постоянные параметры а и b могут быть идентифицированы приме­ нением статического варианта градиентного метода. Строго говоря, это неверно, хотя и может быть оправдано про­ стотой процедуры приближенных вычислений. Для общей задачи минимизации функционала

Ч

/ = jj<p[x(£), p(f), t]dt

to

при ограничениях

X = f [X (t), р (0, t],

X (to) = х0,

Р = о

будем задаваться начальным значением р! и, решив си­ стему дифференциальных уравнений, оценим величину функции штрафа /*. Слегка изменяя р{, для нового зна­ чения р* + Bj найдем штраф + т]/, /-ю компоненту вектора-градиента функции штрафа можно приближенно оценить как

dJ

(j i +

у - j i

=

dpj ~

(Р* +

ер — р1

ej

122

ГРАДИЕНТНЫ Е М ЕТОДЫ ИДЕНТИФИКАЦИИ

[ГЛ . 4

Повторяя эту процедуру для возмущений различных компонент вектора параметров, определим приближенное значение вектора-градиента dJIdpк Первое приращение вектора параметров в направлении наискорейшего спус­ ка к минимуму функции штрафа составит

dpi1

а новое приближение для вектора параметров определится как

pi+1 = р*+ Ар1.

Простота приближенного метода позволила положить его в основу нескольких итерационных схем главы 2, од­ нако трудно оценить ошибку, связанную с приближен­ ным вычислением djldp1 (процедура точного вычисления свелась бы к уже известным алгоритмам решения динами­ ческих задач). Приближенная процедура приводит к су­ щественным ошибкам, особенно тогда, когда функция штрафа не очень чувствительна к изменению вектора па­ раметров. Последнее, к сожалению, довольно часто имеет место, если измерения или наблюдения искажены поме­ хой и имеются неизвестные входные сигналы.

Так же как и в статическом случае, можно рассмотреть разложение в ряд функции штрафа динамической задачи до членов второго порядка малости. Для функции штрафа (4.3.17) такое разложение имеет вид

» г

Г 900

, д

ПТ А .

1

А

Т

920о д .

 

 

А / =

Ы г +

J

Ах° +

Т

Лх°

Ахо +

 

 

+

9 0 ,

 

Аху + -4~ Ax j

Ах/ -f Г^Аро — ГJ Ар/ +

9х^

 

 

 

 

 

 

 

dxf

 

 

 

 

fc,-l

 

 

 

 

 

 

 

 

 

 

 

+ 2 В 1 - ^ Т ах + Ш Т а « + [ ^ - г а р +

 

К=ки

 

 

92Я

 

 

д дП

д

дН

 

 

 

 

 

 

 

 

Ах'

 

 

+ 4"

Дх

 

9х2

 

9и 9х

дх

 

 

Аи

 

Г 9

дН

 

92Я

9

дН

Ди

 

 

 

9и 9х •]

 

9и2

 

 

. АР .

 

Ар

 

 

9 'дН 1Т Г д дН 92Я

дх J L9и 9р J 9р2

(4.3.42)

4.3] МЕТОДЫ ИДЕНТИФИКАЦИИ ДИНАМ ИЧЕСКИХ СИСТЕМ 123

Для упрощения обозначений индекс к (номер шага) опу­ щен. Чтобы упростить выражение (4.3.42), потребуем выполнения условий (4.3.18) и (4.3.19), в результате для А / получим

AJ =

ЭОо

 

-|Т

 

 

 

 

 

 

 

 

Л х 0 +

 

- т т г А х о +

 

 

Эхо

 

 

 

 

 

 

 

 

 

 

1

т

Э20,

 

 

 

*Г г

[ ^ - ] Т Ли

 

т у

4х'

4 Х, + Г ]4 р 1 + 2

 

дх?

 

 

 

'к~ко

 

 

 

 

 

 

 

э*я

 

 

 

 

 

 

 

 

д

дН

д

дН

 

 

 

Дх

т

Эх2

Эи

дх

Эр

дх

Дх

+

Ди

 

д

дП Т

Э2Я

д

дН

Ди

 

Эи

Эх

Эи2

Эи

Зр

 

 

ДР _

■V

 

дН'Т Г

9

ГЭЯ

т| дЧ1

Др

 

 

Т — -

 

 

 

_ L

Эр

дх

ди

Эр

“Зр2-

_

(4.3.43)

Отметим теперь, что можно осуществить дополнительную минимизацию (4.3.43) по Ах, Др и Ди. Эту минимизацию следует проводить при учете соотношений (4.3.14) и (4.3.15), используя которые, получим

Ах -j- 1) =

Эф

 

Ах (к)

 

дх (к)

 

 

д

 

дН

■JАх

„ Эх (к) дХ (к)

 

Эф

Аи (к)

Эф

 

Эи (к)

э

ЭЯ

др (А) АР (*) =

(к)

 

] Аи (к) +

 

_ Эи (к)

дХ (к)

 

ддН

Эр (к) Э ?Д ч ]ЛР^ ; (4 -3 -44^

А р(& + 1) = Ар (к).

(4.3.45)

Обычное применение дискретного принципа максимума приводит к двухточечной задаче для уравнений (4.3.44), (4.3.45), а

4и>=*<-[етщГ{['

Эи (к)

Эх (к) J

 

 

э;

ЭЯ -I1 Ах (к)

 

_ Эи (к)

дН

тт

ДА, -|- 1)

 

дХ (к) _

 

 

Э

ЭЯ

дП

} , (4.3.46)

_ Эи (к) Эр (к)

Ар (к) Эи (к)

124 ГРАДИЕНТНЫ Е МЕТОДЫ ИДЕНТИФИКАЦИИ [ГЛ . 4

4МЧ-= Ь ^ Н * > + [ ^

г Ш

 

J

4и<*> +

 

+

Г д

дП 1

,т.ч , г д

дН

 

АХ(к

1), (4.3.47)

L йр (к)

дх (к) ■] АР (к) + [ дХ(к) дх (к)

 

 

 

[WW^w]

А 1 (к + !)+

 

 

 

Э

дП

 

 

 

 

4 Г Й = 4 Г № + 1) , L

W

 

 

 

 

“t

[ j p ®

] 4 Р <4 +

\.,Цщ Щ ц ] Ли (Ч + дх (к)

Йр (к) ]A x№)-

 

 

 

 

 

 

 

 

(4.3.48)

Здесь А Х и ДГ — множители Лагранжа, которые удовлет­ воряют условиям на концах:

41 <*•> -

- t w

~ х <*•> - т Ш 4х (« • <4-зд9>

ДГ(А0) =

- Г ( А 0),

(4.3.50)

=

 

(4-3-51)

ДГ (kf) — 0.

(4.3.52)

Так же, как и в статическом случае, использование вторых приращений определяет изменение управления от итера­ ции к итерации. Сложность вычислительных алгоритмов существенно возрастает по сравнению с градиентным ме­ тодом первого порядка. В то же время сходимость ока­ зывается квадратичной и гораздо более быстрой. Однако область начальных условий и начальных приближений к управлению, гарантирующая сходимость, существенно сужается.

Схема вычислений такова:

1)задаться начальным значениемиг(к), х1 (к0) и р»(&0);

2)решив уравнения (4.3.14) и (4.3.15), определить траекторию х; (к) и параметры р* (к); ясно, что для реше­ ния уравнения (4.3.15) вычислительная машина не по­

требуется, так как р{(к) = рг(&0); 3) решить сопряженные системы уравнений (4.3.18)

и(4.3.19) в «обратном» времени от kf и /с0;

4)решить линейную двухточечную задачу (4.3.44) —

(4.3.52).

Благодаря линейности задачи для ее решения можно воспользоваться мпожеством различных методов (см.

4.3] МЕТОДЫ ИДЕНТИФИКАЦИИ ДИ НАМ ИЧЕСКИ Х СИСТЕМ 125

Сейдж, [116]). Удобнее всего воспользоваться преобразо­ ванием Риккати. С линейными двухточечными задачами еще не раз придется встретиться в главе 6. Решение линей­ ных ДКЗ дает искомые значения Дх* (к0) и Др{ (к0);

5)определить из уравнения (4.3.46) Ди* (к);

6)используя (4.3.27) — (4.3.29), построить новое

приближение x i+1 (к0),

pi+1 (&0) и ui+1(/c);

7) вернуться к пункту 2) и повторять вычисления до

тех пор,

пока хг (к0), р1 (к0) и и1 (к) при переходе от ите­

рации и

итерации практически не перестанут меняться.

Как уже отмечалось, процедуру вычислений Ах (к),

Ли (к) и Лр (к) можно

упростить, используя преобразо­

вание Риккати. Но вместо того чтобы сразу же применить это преобразование для упрощения формул градиентного метода второго порядка, поступим несколько иначе.

Допустим снова, что уже выбраны начальные прибли­

жения

для управления ш (к), начального состояния

х* (к0) и

вектора параметров р1 (к0). Уравнения для со­

стояний и параметров (4.3.14), (4.3.15) решаются в пря­ мом времени, сопряженные уравнения (4.3.18) и (4.3.19) — в «обратном» времени. Затем предполагается, что вариации первого порядка, связаны условиями, вытекающими из уравнений (4.3.14), (4.3.15), (4.3.18) и (4.3.19), а именно:

Ax^ +1) =

 

AxW +

 

J'~ [ да (к) ЭХ (к + 1)]

Au W

+

[ ар (к) ЭХ (к + 1)] Ар ^

==

=

а д - Ах (*) +

a lw

Аи (*) + а д - Ар (*>.

(4-3-53)

 

Лр И )

= Ар (к),

(4.3.54)

АХ (к) =

ЭЧ1

 

Э

дН

 

_дх (А)2] Ах (к)

ди (к) дх (кd) Au +

 

 

ЭН

 

д

дН

 

Эр (к)

Эх (к) ] Ар (к) - [ щ

а д а д ] АМ * + 1 ), (4.3.55)

АГ(А)

[ дх (к) Эр (к) ] АХ ^ + [ Эи (к) Эр (к) ] Аи +

 

+ [а д г2] Ар + [ э а д if а д -] А^ + ^ + АГ (* + 1)>

(4.3.56)

126

ГРАДИ ЕНТНЫ Е М ЕТОДЫ ИДЕНТИФИКАЦИИ

[ГЛ . 4

где II определяется выражением (4.3.16). Изменение уп­ равления Ли определяется применением к дН/ди известно­ го линейного преобразования, а именно:

Г дЛ

"

Г

д

ЭН

Лх (к) +

' (Ml

 

 

 

 

 

_ д и (к) _

 

_ 9 и (к)

 

ди (/с)2;] AU (к )

 

л

 

д _

дН

 

д

дН

Лр(к).

 

 

 

 

 

 

ди (к)

др (к) J

(4.3.57)

 

 

 

 

 

 

 

 

Условия на концах для линейной двухточечной задачи имеют вид

Ы

(*о) = -

дв11Х{щ

]' ~ к (Ао) -

ЛХ (* о)> (4-3'58)

^

(*/) =

 

Лх (*/)’

(4-3-59)

лг (А0)= -

Г (к0),

ЛГ (к,) = 0.

(4.3.60)

Полученные соотношения можно записать в более простом виде:

Дх + 1)

ДХ (к)

Др + 1)

ДГ (к)

~Си {к) Сп (к) С13 (к) 0 -

Дх (к)

 

С21 (к) С22(к) С23 {к) 0

ДХ, (к + 1)

 

0

0

I

0

Др (к)

 

_<& <*)

< £ (* )

Сзз (к)

0

_Д Г + 1) _

 

 

 

 

 

Дон (к)

 

 

 

 

+

До>2 (к)

(4.3.61)

 

 

 

0

 

 

 

 

 

Дшз (к)

с условиями на концах (4.3.58) — (4.3.60).

Отправляясь от особенностей двухточечной задачи,

представляется

разумным искать ее решение в виде

М (к) = 3 Хх(£) Лх (к) + EipAp (к) + ах (А),

(4.3.62)

ЛГ (к) =

3 Гх(к) Лх (к) -f- 3 ГрЛр (к) -]- юг (к).

(4.3.63)

Подставляя эти выражения в (4.3.61) после несложных преобразований при отличных от нуля Дх и Ар получим

4.3] М ЕТОДЫ ИДЕНТИФИКАЦИИ ДИ НАМ ИЧЕСКИ Х СИСТЕМ 127

набор матричных уравнений Риккати. Таким образом, в этом случае уравнения для возмущений похожи на урав­ нения для задачи о замкнутой системе регулирования. Эти уравнения здесь не приводятся из-за чрезмерной сложности получающихся алгоритмов. Построение таких алгоритмов для конкретной задачи идентификации ока­ зывается не трудной, но часто утомительной работой. Процедура последовательного метода вторых вариаций, авторство которой в непрерывной форме принадлежит Мак-Рейнольдсу и Брайсону [97], по существу повторяет описанную выше процедуру градиентного метода второго порядка. Чисто техническое отличие состоит в том, что производится последовательное интегрирование в обрат­

ном времени неоднородных

уравнений

Риккати.

Затем

в прямом времени строятся

уравнения

(4.3.53),

(4.3.54)

с начальными условиями, которые определяются комби­

нацией выражений (4.3.58), (4.3.60),

(4.3.62) и

(4.3.63):

Ах ( к 0) = |з,.р(/с0)

Э?.х ( к 0)

ф-

дЮо [х (ко)]

 

 

Эх (fc0)a

 

 

 

 

 

 

 

+ 2Гр ( к0) Згх ( Ц X {3Гр(/с0)юг (&0) — Е,р ( к 0)

(&0)}>

 

 

 

 

 

(4.3.64)

Ар (к0) = { [ з , х (ко) + ^

)]]-Ч ,р(ко)

- Згх (А0) Згр( Ц х

X {Згх ( к в) сог ( К ) -

[3,х (ко) +

 

сах ( Ц •

 

 

 

 

 

(4.3.65)

Иногда желательно рассматривать уравнения (4.3.53),

(4.3.54) вместе с

уравнениями (4.3.14), (4.3.15). Воз­

можность итеративного выбора А(дН1да) может оказаться существенным преимуществом последовательного ме­ тода по сравнению с обычным градиентным методом вто­ рого порядка.

Алгоритмы метода сопряженного градиента для реше­ ния динамических задач идентификации в идейном плане являются прямым обобщением статического варианта метода сопряженного градиента. Сначала необходимо

определить начальные Хр, ро и и1. Затем в прямом време­ ни решаются уравнения для траекторий, а в обратном

128

ГРАДИ ЕНТНЫ Е МЕТОДЫ ИДЕНТИФИКАЦИИ

[ГЛ. 4

времени — сопряженные уравнения. Это позволяет опре­ делить различные градиенты из уравнений (4.3.21) — (4.3.23) в дискретном случае и из уравнений (4.3.36) — (4.3.38) в непрерывном случае. Схема, намеченная на стр. 110 для статического варианта метода сопряженного градиента, используется в динамической задаче для каждого из трех векторов-градиентов. Независимо от того, какая задача — дискретная или непрерывная, для каждого из градиентов удобно определить

Затем вводится внутреннее произведение. В непрерывном случае по формуле

[,

<f (0. g(0> = J f (t)gT (t)dt, to

а в дискретном варианте по формуле

* Г г

< f(/c), g ( / c ) > = 2 f ( * ) g T (*)-

Блок-схема вычислений для метода сопряженного гра­ диента такова:

1)выбрать Xq, р!, и*;

2)решить в прямом времени основную систему урав­ нений и в обратном— сопряженную ей систему;

3)определить градиенты Сд„, сДХо и сгДр;

4)определить К Аи, К\Хо и Хдр так, чтобы минимизиро­ вать сходную функцию штрафа

J

^ Д и С Д ш х 0

^ДХо^Дхо! Р*

^ Д р С д р ].

На этом шаге используется оптимальный метод градиента, который обычно трудно реализуем. К приемлемому резуль­ тату приводит, как правило, интерполяция нескольких значений каждого из коэффициентов К&1„ КАХо и K Av\

4.3] МЕТОДЫ ИДЕНТИФИКАЦИИ ДИ НАМ ИЧЕСКИ Х СИСТЕМ 129

5)используя К , определенные в предыдущем пункте, выбрать

6)используя эти значения решить в прямом времени уравнение для траектории и в обратном времени — сопря­ женное уравнение;

7)определить направления сопряженных градиентов

дН . {дН /ди’

8) вернуться к пункту 4). Таким образом мы видим, что после начальной процедуры сопряженные направле­ ния используются как направления поиска. Для того чтобы проиллюстрировать специфические особенности вы­ числительной процедуры, рассмотрим пример системы первого порядка.

Пример 4.3.2. Интересно рассмотреть применение ме­ тода сопряженного градиента для идентификации пара­ метра Ъ линейной системы

х = Ьх (2), и (2) = 1, х (0) = 0.

Минимизируется функция штрафа

о

Основная градиентная процедура чрезвычайно проста и представляет собой частный случай общей схемы, по­ строенной в примере 4.3.1:

1)задаемся начальным значением Ък\

2)решаем уравнение

^== _ &V (2) + 1, х1(0) = 0;

5 Э. Л. Сейдж, Дж. Л. Мелса

130

ГРАДИ ЕНТНЫ Е

МЕТОДЫ

ИДЕНТИФИКАЦИИ

[ГЛ. 4

3)

решаем сопряженные уравнения

 

 

v = z(0

-

&(t)-

(г), v (tf) = о,

 

 

f j

==**(*) **(*),

П(*,) = 0;

 

4)

определяем

новую итерацию неизвестного пара­

метра

 

Ьил =

K'T'i (0);

 

 

 

 

5) возвращаемся к пункту 2) и повторяем вычисления. Для того чтобы применить метод сопряженного гради.

ента, необходимо изменить процедуру, начиная с пункта 5); 5') определить К г, минимизирующее функцию штрафа

1

['

J — —

\ lz (0 — x(t)]2dt и вычислить 6т ;

 

о

6)используя bi+1, решить прямое и сопряженное уравнения;

7)определить направление сопряженного градиента

сдь = — Ti+1 (0) +

 

 

 

сдь

с начальным приближением едь =

Г° (0);

8) на следующей итерации использовать оценку па­

раметра

тЛ

j?-i

 

ri+1

i .

О — о

К Сдь,

9) вернуться к пункту

2)

и

повторять вычисления.

\ А . ВЫВОДЫ

Было построено несколько наборов алгоритмов для решения задач идентификации. В приведенных примерах рассматривалась идентификация систем путем минимиза­ ции функций штрафа, предложенных в главе 3. Теперь будут изучаться особенности метода стохастической ап­ проксимации, которую можно рассматривать как стати­ стический градиентный метод.

Соседние файлы в папке книги из ГПНТБ