Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Сейдж Э.П. Идентификация систем управления

.pdf
Скачиваний:
75
Добавлен:
23.10.2023
Размер:
7.91 Mб
Скачать

5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 161

Удобно ввести матрицу

 

 

 

Т =

^ Ф ^ -!

(5.3.11)

так,

что уравнение (5.3.10) преобразуется к

виду

 

У (2N) =

T f {2N — 1).

(5.3.12)

Из уравнений (5.3.3), (5.3.5) и (5.3.9) имеем

 

 

у(ЛГ +

1)= Т у (Л 0 .

(5.3.13)

Так

как у (N) = хг (N) и,

кроме того,

 

 

У(1) = hTy (N),

(5.3.14)

то последнее соотношение, используя формулу (5.3.3), можно переписать в виде

гК1) = ьту(ЛГ)==ьтЛх(1).

Формула hT = hT Л подтверждается.

Линейные уравнения (5.3.13) и (5.3.14) эквивалентны уравнениям (5.3.1) и (5.3.2). Т связана с Ф преобразова­

нием (5.3.11). Таким образом, если определить

Т из

(5.3.12), то Ф можно получить из (5.3.11)

 

Т = у (2N) у - 1(22V - 1); Ф = Л~^Л.

(5.3.15)

Важно отметить, что независимо от Ф матрица Т имеет вид

0

 

0

(5.3.16)

0

 

0.1

—#2 • • • —

Это сразу же следует из определения Т. Для того чтобы показать это, достаточно определить обратную матрицу

„т 1 — [а_! i B_i],

(5.3.17)

6 Э. П. Сейдж, Дж. Л. Мелса

162

СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ

[ГЛ . 5

где а — вектор-столбец. В самом деле,

[a- i : В_г] = I,

или

аТа.! = 1, ВВ_! = I, атв_! = О, Ba_! = О,

и из формулы (5.3.4) видно, что

 

- hT -

Ьт ф-1

 

 

 

ЬТ Ф

hT

ЛФЛ -1

hT ф2

hTФ

 

 

hT ф ^-2

*

 

 

 

_ h T® JV1_

_ hT ®N_2 _

 

в

в -1

 

 

' В '

—1

 

 

 

- сТ

_

в .

0

I

'

ст а-1: «т в -!. , (5.3.18)

т. е. как раз формула (5.3.16). Так как в вычислительном отношении оценить Т легче, чем Ф, то в дальнейшем будем рассматривать задачу идентификации матрицы Т. Дейст­ вительно, в то время как матрица Т определяется единст­ венным образом, не существует единственного представле­ ния для матрицы Ф. По выходу свободной линейной систе­ мы можно определить только N неизвестных параметров, в то время как для идентификации всей матрицы Ф необ­ ходимо выяснить значения N2 коэффициентов.

Для построения полученных алгоритмов идентифика­ ции необходимо было предположение о порядке системы N. Если порядок системы неизвестен, то требования наблю­ даемости дают простой способ его оценки. Если предпола­ гаемый порядок меньше или равен истинному порядку системы, то матрица наблюдаемости Л всегда будет иметь обратную. Однако если предполагаемый порядок выше истинного порядка системы, то матрица наблюдаемости будет вырожденной (ненаблюдаемая система всегда реду­ цируема по порядку (Сейдж, [116])). Таким образом, поль­ зуясь требованием наблюдаемости, легко можно выяснить порядок системы (в простейшем случае свободной системы с незашумленными наблюдениями).

5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 163

Вынуждаемые системы отсутствие ошибок измере­ ний отсутствие динамики в числителе передаточной функции. Рассмотрим систему

х (k + 1) = Тх (к) + Tw (А:),

у (к) = hTx (к),

• O i l '

 

г

С 1

1

 

с

 

 

,

1

 

> 11—

ат

-- ...

L i * ]

 

(5.3.19)

 

(5.3.20)

~ 1

0

(5.3.21)

...

L о

J

Будем считать w (к) дискретным белым шумом с нулевым средним

$ {w (&)} = 0, cov {w (к), w (/)} = VW8K (к — /).

Уравнение движения системы можно записать как од­

номерное разностное

уравнение

 

 

у к) + агу (к — 1) +

а2у (к — 2)

+

... == bpv (к — 1) +

+ b2w (к — 2) + ...

+

bNw (к N), (5.3.22)

где

 

а\

 

 

 

 

1

О

 

 

Г bl п

 

«1

1

 

аъ

 

 

 

а =

ь =

h

b =

а,2

fli

1

,

,

 

- aN -

 

- bN -

 

- aN - l

aN - 2

 

 

 

 

 

____1

1_ (5.3.23)

Это разностное уравнение можно

переписать

в виде

у (к) = — уТ(к — 1) а +

\vT(/c — 1) b,

(5.3.24)

где

w (k— 7V)j

"У (b N)

1

II

У (к -

2)

_ у (к

i)

£

1

II

w (k 2) w (k — 1) _

(5.3.25)

Для удобства предположим, что все Ъь кроме Ьх, равны О, a bx = 1. В этом случае

у (ft) = — ут — 1) a -f- w (к — 1).

(5.3.20)

6*

164

СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ

[ГЛ . 5

Таким образом, мы хотим определить оценку а, являющую­ ся корнем уравнения регрессии для уравнения (5.3.24). Это приводит к алгоритму стохастической аппроксимации

а + 1) = а (к) — К (к) у (к) [у (к + 1) + уТ (к) а (к)],

(5.3.27)

который минимизирует функционал

•^ = $ {[*/(*) + Ут ( й - 1) а]2}.

(5.3.28)

Здесь К(к) удовлетворяет ранее сформулированным тре­ бованиям, обеспечивающим сходимость. К сожалению, в рамках теории стохастической аппроксимации не сущест­ вует способа выяснить оптимальный вид К(к). Для того чтобы оценить полученный алгоритм, рассмотрим как аль­ тернативу идентификацию по методу наименьших квадра­ тов. Отправляясь от уравнения (5.3.26), ищем оценку а, минимизирующую функцию штрафа

 

к

к

/ =

2

||ш(1-1)||2 = 2 И 0 + Ут (* - 1 ) а Г . (5.3.29)

 

i=JV+l

i=JV+l

Здесь суммирование начинается с i = N -f- 1, так как впер­ вые полная система для идентификации может быть полу­ чена только после (N 1)-го измерения. Если взять N дополнительных измерений, то

2JV

J = 2 1у (0 + ут (‘ — l ) a f =

*=N+1

?/(/V-f 1)

 

УТ (АО

Ц2

1, (N + 2)

ут (.V hi)

а

=

+

 

У (2/V)

_ут (2ЛГ-1)_

 

=

ИУ (2/V) +

У {2N 1) а |2. (5.3.30)

Этого достаточно для того, чтобы получить оценку иден­ тифицируемого вектора параметров. Получаем

a (2/V) = — [Ут(2JV— 1) у (2N i)]~x У (2N — 1) у (2N).

(5.3.31)

5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 165

Так как ^ — симметрическая матрица (см. (5.3.6)), то вид­ но, что (5.3.11) можно упростить, а именно:

а (27V) = - W (27V - 1 )Г у (27V),

(5.3.32)

где обозначение а (2 7V) используется для того, чтобы под­ черкнуть, что для оценки а использовано 27V измерений. При выводе схемы последовательной идентификации форма записи (5.3.32) не используется *). Определим

S5 (27V) = [^ Т(2N — 1)У- (2N - l)]-i. (5.3.33)

Добавим еще одно измерение у (2 N + 1) и минимизируем новое выражение функции штрафа. Легко получить, что

a (2N +

1) =

$ (27V +

1) [у (21V) j

(2N + 1)] [у ^

J ,

 

 

 

 

 

y(27V + l)J

где

 

 

 

 

 

(5.3.34)

 

j [ ^ T (27V -l)iy(27V )] -i 'У (2N -

1 П р _

£P(2N +

1) =

 

 

 

 

ут (2/V)

J)

 

 

 

=

[3s (27V) +

у (27V) yT(27V)]-1.

(5.3.35)

Для того чтобы преобразовать это выражение к виду, более удобному для вычислений, воспользуемся леммой обраще­ ния матриц. В результате получим

3b(2N + l) =

= (27V) — & (2N) у (27V) [ут (2N) (27V) у (27V) + 1 Г 1 х

X yT(27V)5a(27V), (5.3.36)

где требуется вычисление обратной скалярной величины. Теперь нетрудно получить, что

a (27V + 1) = a (27V) —

— .3* (27V) у (27V) [ут (27V) .З5 (27V) у (27V) + 1 Г 1 х

X [y(27V + l) + yT(27V)a(27V)]. (5.3.37)

*) Болое систематическое изложение последовательной иден­ тификации с использованием инвариантного погружения приво­ дится в главе 7.

166

СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ

[ГЛ . .5

Можно

повторить эту

процедуру для 2N + 2,

2N +

4- 3, ...

, откуда видно,

что (5.3.37) можно переписать,

заменив

2N на к. Мы видим, что алгоритм стохастической

аппроксимации (5.3.27) эквивалентен алгоритму метода

наименьших

квадратов

(5.3.37),

если

 

К{к) =

& (2к)

 

 

(5.3.38)

 

 

1 + УТ(к) & (к) у (к)

В разделе 5.1

показано,

что 5s (к)

ведет себя как 1 /к, и,

таким образом, мы заключаем, что метод наименьших квадратов и метод стохастической аппроксимации ведут к сходным результатам.

Выше предполагалось, что уравнения (5.3.36) и (5.3.37) выписываются, когда уже выполнено 2N наблюдений. Это необходимо для того, чтобы записать начальные условия

а (2N) = -

(2N - 1)]~1у (2N), 3* (2N) = [^ (2N - I)]'2.

 

(5.3.39)

Во многих практических ситуациях выбор начальных а и SP в вычислительной процедуре может быть достаточно произволен.

Вынуждаемые системы отсутствие динамики в чис­ лителе ошибки измерений. Алгоритмы идентификации по методу стохастической аппроксимации при наличии ошибок измерений существенно усложняются. Рассмотрим систему вида

Г 0 ! I

х (к) +

w (к),

x(fc + l)

У(к) = 11 0. . . 0] х (к),

(5.3.40)

 

z{k) = у (к) 4

v (к),

 

где v (к) — дискретный белый шум с нулевым средним, а z (к) — наблюдения. Можно записать одномерное разност­ ное уравнение:

z (к) -j- axz (к

1)

4- a2z (к — 2)

4-

••• +

&nz (к — N) =

= b±w (к — 1) 4-

Ь2и> (к — 2) 4- ••• +

bNw (к — N) 4-

4- v (к) 4-

apv (ft - 1) 4- ...

4-

aNv (к - N), (5.3.41)

5.3] ИСПОЛЬЗОВАНИЙ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 167

которое можно

переписать в виде

z (к) = - zT- 1) а +

w\k - 1) +

где

£

 

 

1

 

 

z (fc 1) =

 

,

v (A 1) =

z 2)

 

 

ут - 1) а, (5.3.42)

~v {к — N) '

v (к 2)

_ v — 1) _

К несчастью, уравнение (5.3.42) гораздо сложнее уравне­ ния (5.3.26) в силу коррелированности последовательности помех vT — 1) а. Таким образом,

'{(к— 1) = w(k — 1) + vT(A:— 1)а

(5.3.44)

уже не является белым шумом, так как

cov{у— 1), у(/ — 1)} Ф 0,

если

\k — j\ ^ N

и

 

 

cov{у(к— 1), у(/ — 1)} = 0,

если

|&— /|>7V.

Следовательно, нужно быть осторожным, минимизируя

/= : Ш{у2(&-1)},

(5.3.45)

у (к— 1) = z(к) -f zT — 1)а.

(5.3.46)

Можно попробовать использовать алгоритмы стохастичес­ кой аппроксимации, так ограничив выбор к, что к = О,

2 N -\- 2 и т. д., и тогда

cov {у — 1), у (/ — 1)} = о, Iк j I = (N + 1) t,

* = 1,2, ...

Минимизация (5.3.45) приводит, конечно, к тем же ре­ зультатам, что и минимизация (5.3.28). Ошибки измерений по существу игнорируются. Мы получаем

а*= — [ff{z(fc — l)z*(A — i)}\~4 {z(k — 1) z (A)}. (5.3.47)

Подстановка

(5.3.42) дает

a*

= a — IS {z — 1) zT(£ - 1)}Г1Т^„а, (5.3.48)

и мы видим, что минимизация (5.3.45) с необходимостью приводит к смещенным результатам. Если в алгоритме

168

СТ0ХАСТИЧЕСКАЯ 1АШ 1 РОКСИМАЦИЯ

£ГЛ . 5

стохастической аппроксимации вычесть смещение, обус­ ловленное использованием (5.3.45),'i то будут получены несмещенные оценки. Для получения осмысленных алго­ ритмов стохастической аппроксимации по-прежнему не­ обходимо при итерировании оценок а пользоваться реа­ лизациями помехи, разнесенными на N + 1 временной такт. Таким образом, алгоритм стохастической аппрокси­ мации имеет вид

а (Л + N + 1) - а (А) — К (k/N + 1) X

X {z + TV) [z (к + N + 1) + zT(£ + TV) a (A)] - F„a (A)},

(5.3.49)

где к = О, N -|- 1, 2N -j- 2, ... Можно легко проверить, что этот алгоритм дает несмещенную оценку.

Коэффициент К (k/N -ф- 1) выбирается, чтобы удовлет­ ворить обычным для метода стохастической аппроксима­ ции ограничениям. Отметим, что по постановке задачи не­ обходимо знание дисперсии ошибок измерений, но не дис­ персии входного шума системы. По аналогии с (5.3.38) можно получить, что подходящее, близкое к оптимально­ му, значение К определится как

К

_________ &> (к +

N + 1)__________

(5.3.50)

1 + zT + N)

(к) ъ (к + /V) ’

 

 

где

SP -f- N + 1) = SP (к) — 5s (к) г (к -f N) х

X [zT(A -ф- N) (к) z(k -ф- ./V) -ф- l]-1zT(A -f N) 3й (к). (5.3.51)

Начальные условия для а и SP не критичны и могут быть выбраны, как и в предыдущем разделе.

Пример 5.3.1. Рассматривается простейший пример идентификации Ф в случае одномерной системы

х (к -ф- 1) = Фа: (к) -ф- w (к),

у (к) = х (к),

z (к) х (к) -ф- v (к),

где w (к) и v (к) — дискретные белые шумы с нулевым средним. Система первого порядка, поэтому N = 1. В этом случае алгоритм стохастической аппроксимации (5.3.49) —

5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 169

5.3.51) имеет вид

Ф + 2) = Ф (к) + К {к!2) {г + 1) [z (к + 2 ) -

где

-

z ( k + i

) 0 ( k ) V] v<S>(k)),+

& (А + 2)

 

0>(к)1

К (к/2) =

з5 (/С + 2) =

1 + z2 (А + 1) (А) ’

1 + z* (А + 1) £ Р ( к )

для А = 0, 2, 4, 6, ... На рис. 5.3.1 и 5.3.2 показано, как сходятся алгоритмы в случае, когда входной сигнал и ошибки измерений гауссовские. Во всех случаях истинное

 

 

Итерации

Рис. 5.3.1. Последовательная

Рис.

5.3.2. Последователь­

идентификация Ф,; пример

ная

идентификация Ф2;

5.3.1.

 

пример 5.3.1.

значение Ф = 0,8. Начальное приближение Ф = 0, дис­ персия помехи 0,25 и 1,0. Начальное поведение кривых су­ щественно зависит от выбора & (0). После нескольких итераций (обычно 3—5) результаты перестают зависеть от начального выбора & (0). Интересно отметить, что да­ же после 1000 итераций уменьшение функции штрафа весь­ ма незначительно. Однако в близкой окрестности истин­ ного значения Ф сходится довольно быстро.

Вынуждаемые системы динамика числителя и ошиб­ ки измерений. Наше рассмотрение завершается синте­ зом алгоритмов для идентификации векторов а 'и Ь,

170

СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ

[ГЛ . 5

характеризующих

уравнения движения системы

вида

 

х +

1) =

Тх (к) 4- Ги> (к) + dw. (к),

(5.3.52)

 

z (к) =

hTх (к) 4- v (к),

(5.3.53)

где d — произвольный, по известный iV-мерный вектор. Предполагается, что и (к) — это ненаблюдаемая последо­ вательность независимых случайных величин с нулевым средним, w (к) п v (к) — дискретные белые шумы с нуле­ вым средним и (к), w (к) и v (к) предполагаются взаимно независимыми. Отклик системы (5.3.52) имеет вид

х {к) = 2 Ф [Ги>i 1) 4- du (к — i 1)]. (5.3.54)

i=o

Определим 2Л^-мерные векторы

ЬТ Т 2ЛГ-1Г

 

hT Т3Г

,

S =

 

hT ТГ

 

 

 

_

ьт г

 

 

~u (k— 2N + 1)“

,

“ ( A=)

u — 1)

 

 

и (к)

 

 

~hT T

 

hTT2d

 

hTTd

(5.3.55)

hTd

~w(k — 2N+l)~

w(к) =

w (k — 1) w (k)

Очевидно, что 0 характеризует весовую функцию системы, и мы приходим к задаче, рассмотренной в разделе 2.2. Теперь можно записать наблюдение в виде

z (к) =

wT (к) 0 4- wT — 1) s 4- т (к),

(5.3.56)

где

 

 

 

оо

 

y(k) = v (к) -f- Ь1

2 Т1 i — 1) 4- du (к — i — 1)].

 

i=2JV

(5.3.57)

 

 

Определим оценку вектора параметров как вектор, мини­ мизирующий функционал

J = <$ {[z (к) — w1 (к) 0]2}.

(5.3.58)

Соседние файлы в папке книги из ГПНТБ