книги из ГПНТБ / Сейдж Э.П. Идентификация систем управления
.pdf5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 161
Удобно ввести матрицу |
|
|
|
|
Т = |
^ Ф ^ -! |
(5.3.11) |
так, |
что уравнение (5.3.10) преобразуется к |
виду |
|
|
У (2N) = |
T f {2N — 1). |
(5.3.12) |
Из уравнений (5.3.3), (5.3.5) и (5.3.9) имеем |
|
||
|
у(ЛГ + |
1)= Т у (Л 0 . |
(5.3.13) |
Так |
как у (N) = хг (N) и, |
кроме того, |
|
|
У(1) = hTy (N), |
(5.3.14) |
|
то последнее соотношение, используя формулу (5.3.3), можно переписать в виде
гК1) = ьту(ЛГ)==ьтЛх(1).
Формула hT = hT Л подтверждается.
Линейные уравнения (5.3.13) и (5.3.14) эквивалентны уравнениям (5.3.1) и (5.3.2). Т связана с Ф преобразова
нием (5.3.11). Таким образом, если определить |
Т из |
(5.3.12), то Ф можно получить из (5.3.11) |
|
Т = у (2N) у - 1(22V - 1); Ф = Л~^Л. |
(5.3.15) |
Важно отметить, что независимо от Ф матрица Т имеет вид
0 |
|
0 |
(5.3.16) |
0 |
|
—0.1 |
—#2 • • • — |
Это сразу же следует из определения Т. Для того чтобы показать это, достаточно определить обратную матрицу
„т 1 — [а_! i B_i], |
(5.3.17) |
6 Э. П. Сейдж, Дж. Л. Мелса
162 |
СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ |
[ГЛ . 5 |
где а — вектор-столбец. В самом деле,
[a- i : В_г] = I,
или
аТа.! = 1, ВВ_! = I, атв_! = О, Ba_! = О,
и из формулы (5.3.4) видно, что
|
- hT - |
Ьт ф-1 |
|
|
|
||
|
ЬТ Ф |
hT |
|
ЛФЛ -1 |
hT ф2 |
||
hTФ |
|||
|
|||
|
hT ф ^-2 |
* |
|
|
|
||
|
_ h T® JV1_ |
_ hT ®N_2 _ |
|
|
в |
в -1 |
|
|
|
' В ' |
—1 |
|
|
|
|
- сТ |
_ |
в . |
0 |
I |
' |
ст а-1: «т в -!. , (5.3.18)
т. е. как раз формула (5.3.16). Так как в вычислительном отношении оценить Т легче, чем Ф, то в дальнейшем будем рассматривать задачу идентификации матрицы Т. Дейст вительно, в то время как матрица Т определяется единст венным образом, не существует единственного представле ния для матрицы Ф. По выходу свободной линейной систе мы можно определить только N неизвестных параметров, в то время как для идентификации всей матрицы Ф необ ходимо выяснить значения N2 коэффициентов.
Для построения полученных алгоритмов идентифика ции необходимо было предположение о порядке системы N. Если порядок системы неизвестен, то требования наблю даемости дают простой способ его оценки. Если предпола гаемый порядок меньше или равен истинному порядку системы, то матрица наблюдаемости Л всегда будет иметь обратную. Однако если предполагаемый порядок выше истинного порядка системы, то матрица наблюдаемости будет вырожденной (ненаблюдаемая система всегда реду цируема по порядку (Сейдж, [116])). Таким образом, поль зуясь требованием наблюдаемости, легко можно выяснить порядок системы (в простейшем случае свободной системы с незашумленными наблюдениями).
5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 163
Вынуждаемые системы — отсутствие ошибок измере ний — отсутствие динамики в числителе передаточной функции. Рассмотрим систему
х (k + 1) = Тх (к) + Tw (А:),
у (к) = hTx (к),
• O i l ' |
|
г |
— |
С 1 |
1 |
|
с |
|
|||
|
, |
1 |
|
> 11— |
|
ат |
-- ... |
||||
L i * ]
|
(5.3.19) |
|
(5.3.20) |
~ 1 |
■ |
0 |
(5.3.21) |
... |
|
L о |
J |
Будем считать w (к) дискретным белым шумом с нулевым средним
$ {w (&)} = 0, cov {w (к), w (/)} = VW8K (к — /).
Уравнение движения системы можно записать как од
номерное разностное |
уравнение |
|
|
у к) + агу (к — 1) + |
а2у (к — 2) |
+ |
... == bpv (к — 1) + |
+ b2w (к — 2) + ... |
+ |
bNw (к — N), (5.3.22) |
|
где
|
а\ |
|
|
|
|
1 |
О |
|
|
Г bl п |
|
«1 |
1 |
||
|
аъ |
|
|
|
|||
а = |
ь = |
h |
b = |
а,2 |
fli |
1 |
|
, |
, |
||||||
|
- aN - |
|
- bN - |
|
- aN - l |
aN - 2 |
• • • |
|
|
|
|
|
____1
1_ (5.3.23)
Это разностное уравнение можно |
переписать |
в виде |
у (к) = — уТ(к — 1) а + |
\vT(/c — 1) b, |
(5.3.24) |
где |
w (k— 7V)j |
|
"У (b — N) |
||
1 |
II |
У (к - |
2) |
_ у (к — |
i) |
£ |
1 |
II |
w (k — 2) w (k — 1) _
(5.3.25)
Для удобства предположим, что все Ъь кроме Ьх, равны О, a bx = 1. В этом случае
у (ft) = — ут (к — 1) a -f- w (к — 1). |
(5.3.20) |
6*
164 |
СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ |
[ГЛ . 5 |
Таким образом, мы хотим определить оценку а, являющую ся корнем уравнения регрессии для уравнения (5.3.24). Это приводит к алгоритму стохастической аппроксимации
а {к + 1) = а (к) — К (к) у (к) [у (к + 1) + уТ (к) а (к)],
(5.3.27)
который минимизирует функционал
•^ = $ {[*/(*) + Ут ( й - 1) а]2}. |
(5.3.28) |
Здесь К(к) удовлетворяет ранее сформулированным тре бованиям, обеспечивающим сходимость. К сожалению, в рамках теории стохастической аппроксимации не сущест вует способа выяснить оптимальный вид К(к). Для того чтобы оценить полученный алгоритм, рассмотрим как аль тернативу идентификацию по методу наименьших квадра тов. Отправляясь от уравнения (5.3.26), ищем оценку а, минимизирующую функцию штрафа
|
к |
к |
/ = |
2 |
||ш(1-1)||2 = 2 И 0 + Ут (* - 1 ) а Г . (5.3.29) |
|
i=JV+l |
i=JV+l |
Здесь суммирование начинается с i = N -f- 1, так как впер вые полная система для идентификации может быть полу чена только после (N 1)-го измерения. Если взять N дополнительных измерений, то
2JV
J = 2 1у (0 + ут (‘ — l ) a f =
*=N+1
?/(/V-f 1) |
|
УТ (АО |
Ц2 |
1, (N + 2) |
ут (.V hi) |
а |
|
= |
+ |
|
|
У (2/V) |
_ут (2ЛГ-1)_ |
|
|
= |
ИУ (2/V) + |
У {2N — 1) а |2. (5.3.30) |
|
Этого достаточно для того, чтобы получить оценку иден тифицируемого вектора параметров. Получаем
a (2/V) = — [Ут(2JV— 1) у (2N — i)]~x У (2N — 1) у (2N).
(5.3.31)
5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 165
Так как ^ — симметрическая матрица (см. (5.3.6)), то вид но, что (5.3.11) можно упростить, а именно:
а (27V) = - W (27V - 1 )Г у (27V), |
(5.3.32) |
где обозначение а (2 7V) используется для того, чтобы под черкнуть, что для оценки а использовано 27V измерений. При выводе схемы последовательной идентификации форма записи (5.3.32) не используется *). Определим
S5 (27V) = [^ Т(2N — 1)У- (2N - l)]-i. (5.3.33)
Добавим еще одно измерение у (2 N + 1) и минимизируем новое выражение функции штрафа. Легко получить, что
a (2N + |
1) = |
$ (27V + |
1) [у (21V) j |
(2N + 1)] [у ^ |
J , |
|
|
|
|
|
|
y(27V + l)J |
|
где |
|
|
|
|
|
(5.3.34) |
|
j [ ^ T (27V -l)iy(27V )] -i 'У (2N - |
1 П р _ |
||||
£P(2N + |
1) = |
|||||
|
|
|
|
ут (2/V) |
J) |
|
|
|
= |
[3s (27V) + |
у (27V) yT(27V)]-1. |
(5.3.35) |
|
Для того чтобы преобразовать это выражение к виду, более удобному для вычислений, воспользуемся леммой обраще ния матриц. В результате получим
3b(2N + l) =
= (27V) — & (2N) у (27V) [ут (2N) (27V) у (27V) + 1 Г 1 х
X yT(27V)5a(27V), (5.3.36)
где требуется вычисление обратной скалярной величины. Теперь нетрудно получить, что
a (27V + 1) = a (27V) —
— .3* (27V) у (27V) [ут (27V) .З5 (27V) у (27V) + 1 Г 1 х
X [y(27V + l) + yT(27V)a(27V)]. (5.3.37)
*) Болое систематическое изложение последовательной иден тификации с использованием инвариантного погружения приво дится в главе 7.
166 |
СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ |
[ГЛ . .5 |
|
Можно |
повторить эту |
процедуру для 2N + 2, |
2N + |
4- 3, ... |
, откуда видно, |
что (5.3.37) можно переписать, |
|
заменив |
2N на к. Мы видим, что алгоритм стохастической |
||
аппроксимации (5.3.27) эквивалентен алгоритму метода
наименьших |
квадратов |
(5.3.37), |
если |
|
К{к) = |
& (2к) |
|
|
|
(5.3.38) |
|
|
|
1 + УТ(к) & (к) у (к) |
|
В разделе 5.1 |
показано, |
что 5s (к) |
ведет себя как 1 /к, и, |
таким образом, мы заключаем, что метод наименьших квадратов и метод стохастической аппроксимации ведут к сходным результатам.
Выше предполагалось, что уравнения (5.3.36) и (5.3.37) выписываются, когда уже выполнено 2N наблюдений. Это необходимо для того, чтобы записать начальные условия
а (2N) = - |
(2N - 1)]~1у (2N), 3* (2N) = [^ (2N - I)]'2. |
|
(5.3.39) |
Во многих практических ситуациях выбор начальных а и SP в вычислительной процедуре может быть достаточно произволен.
Вынуждаемые системы — отсутствие динамики в чис лителе — ошибки измерений. Алгоритмы идентификации по методу стохастической аппроксимации при наличии ошибок измерений существенно усложняются. Рассмотрим систему вида
Г 0 ! I |
х (к) + |
w (к), |
x(fc + l) |
||
У(к) = 11 0. . . 0] х (к), |
(5.3.40) |
|
|
||
z{k) = у (к) 4 |
v (к), |
|
где v (к) — дискретный белый шум с нулевым средним, а z (к) — наблюдения. Можно записать одномерное разност ное уравнение:
z (к) -j- axz (к — |
1) |
4- a2z (к — 2) |
4- |
••• + |
&nz (к — N) = |
= b±w (к — 1) 4- |
Ь2и> (к — 2) 4- ••• + |
bNw (к — N) 4- |
|||
4- v (к) 4- |
apv (ft - 1) 4- ... |
4- |
aNv (к - N), (5.3.41) |
||
5.3] ИСПОЛЬЗОВАНИЙ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 167
которое можно |
переписать в виде |
||
z (к) = - zT(к - 1) а + |
w\k - 1) + |
||
где |
£ |
|
|
1 |
|
|
|
z (fc — 1) = |
|
, |
v (A — 1) = |
z (к — 2) |
|
|
|
ут (к - 1) а, (5.3.42)
~v {к — N) '
v (к —2)
_ v (к— 1) _
К несчастью, уравнение (5.3.42) гораздо сложнее уравне ния (5.3.26) в силу коррелированности последовательности помех vT (к — 1) а. Таким образом,
'{(к— 1) = w(k — 1) + vT(A:— 1)а |
(5.3.44) |
уже не является белым шумом, так как
cov{у(к— 1), у(/ — 1)} Ф 0, |
если |
\k — j\ ^ N |
и |
|
|
cov{у(к— 1), у(/ — 1)} = 0, |
если |
|&— /|>7V. |
Следовательно, нужно быть осторожным, минимизируя
/= : Ш{у2(&-1)}, |
(5.3.45) |
у (к— 1) = z(к) -f zT (к— 1)а. |
(5.3.46) |
Можно попробовать использовать алгоритмы стохастичес кой аппроксимации, так ограничив выбор к, что к = О,
2 N -\- 2 и т. д., и тогда
cov {у {к — 1), у (/ — 1)} = о, Iк — j I = (N + 1) t,
* = 1,2, ...
Минимизация (5.3.45) приводит, конечно, к тем же ре зультатам, что и минимизация (5.3.28). Ошибки измерений по существу игнорируются. Мы получаем
а*= — [ff{z(fc — l)z*(A — i)}\~4 {z(k — 1) z (A)}. (5.3.47)
Подстановка |
(5.3.42) дает |
a* |
= a — IS {z (к— 1) zT(£ - 1)}Г1Т^„а, (5.3.48) |
и мы видим, что минимизация (5.3.45) с необходимостью приводит к смещенным результатам. Если в алгоритме
168 |
СТ0ХАСТИЧЕСКАЯ 1АШ 1 РОКСИМАЦИЯ |
£ГЛ . 5 |
стохастической аппроксимации вычесть смещение, обус ловленное использованием (5.3.45),'i то будут получены несмещенные оценки. Для получения осмысленных алго ритмов стохастической аппроксимации по-прежнему не обходимо при итерировании оценок а пользоваться реа лизациями помехи, разнесенными на N + 1 временной такт. Таким образом, алгоритм стохастической аппрокси мации имеет вид
а (Л + N + 1) - а (А) — К (k/N + 1) X
X {z (к + TV) [z (к + N + 1) + zT(£ + TV) a (A)] - F„a (A)},
(5.3.49)
где к = О, N -|- 1, 2N -j- 2, ... Можно легко проверить, что этот алгоритм дает несмещенную оценку.
Коэффициент К (k/N -ф- 1) выбирается, чтобы удовлет ворить обычным для метода стохастической аппроксима ции ограничениям. Отметим, что по постановке задачи не обходимо знание дисперсии ошибок измерений, но не дис персии входного шума системы. По аналогии с (5.3.38) можно получить, что подходящее, близкое к оптимально му, значение К определится как
К |
_________ &> (к + |
N + 1)__________ |
(5.3.50) |
|
1 + zT (к + N) |
(к) ъ (к + /V) ’ |
|||
|
|
где
SP (к -f- N + 1) = SP (к) — 5s (к) г (к -f N) х
X [zT(A -ф- N) (к) z(k -ф- ./V) -ф- l]-1zT(A -f N) 3й (к). (5.3.51)
Начальные условия для а и SP не критичны и могут быть выбраны, как и в предыдущем разделе.
Пример 5.3.1. Рассматривается простейший пример идентификации Ф в случае одномерной системы
х (к -ф- 1) = Фа: (к) -ф- w (к),
у (к) = х (к),
z (к) — х (к) -ф- v (к),
где w (к) и v (к) — дискретные белые шумы с нулевым средним. Система первого порядка, поэтому N = 1. В этом случае алгоритм стохастической аппроксимации (5.3.49) —
5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 169
5.3.51) имеет вид
Ф (к + 2) = Ф (к) + К {к!2) {г (к + 1) [z (к + 2 ) -
где |
- |
z ( k + i |
) 0 ( k ) V] v<S>(k)),+ |
|
& (А + 2) |
|
0>(к)1 |
||
К (к/2) = |
з5 (/С + 2) = |
|||
1 + z2 (А + 1) (А) ’ |
1 + z* (А + 1) £ Р ( к ) |
для А = 0, 2, 4, 6, ... На рис. 5.3.1 и 5.3.2 показано, как сходятся алгоритмы в случае, когда входной сигнал и ошибки измерений гауссовские. Во всех случаях истинное
|
|
Итерации |
Рис. 5.3.1. Последовательная |
Рис. |
5.3.2. Последователь |
идентификация Ф,; пример |
ная |
идентификация Ф2; |
5.3.1. |
|
пример 5.3.1. |
значение Ф = 0,8. Начальное приближение Ф = 0, дис персия помехи 0,25 и 1,0. Начальное поведение кривых су щественно зависит от выбора & (0). После нескольких итераций (обычно 3—5) результаты перестают зависеть от начального выбора & (0). Интересно отметить, что да же после 1000 итераций уменьшение функции штрафа весь ма незначительно. Однако в близкой окрестности истин ного значения Ф сходится довольно быстро.
Вынуждаемые системы — динамика числителя и ошиб ки измерений. Наше рассмотрение завершается синте зом алгоритмов для идентификации векторов а 'и Ь,
170 |
СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ |
[ГЛ . 5 |
||
характеризующих |
уравнения движения системы |
вида |
||
|
х (к + |
1) = |
Тх (к) 4- Ги> (к) + dw. (к), |
(5.3.52) |
|
z (к) = |
hTх (к) 4- v (к), |
(5.3.53) |
|
где d — произвольный, по известный iV-мерный вектор. Предполагается, что и (к) — это ненаблюдаемая последо вательность независимых случайных величин с нулевым средним, w (к) п v (к) — дискретные белые шумы с нуле вым средним и (к), w (к) и v (к) предполагаются взаимно независимыми. Отклик системы (5.3.52) имеет вид
х {к) = 2 Ф [Ги>(к — i — 1) 4- du (к — i — 1)]. (5.3.54)
i=o
Определим 2Л^-мерные векторы
ЬТ Т 2ЛГ-1Г
|
hT Т3Г |
, |
S = |
|
hT ТГ |
||
|
|
|
|
_ |
ьт г |
|
|
~u (k— 2N + 1)“ |
, |
||
“ ( A=) |
u (к — 1) |
|
|
|
и (к) |
|
|
~hT T |
|
hTT2d |
|
hTTd |
(5.3.55) |
hTd |
~w(k — 2N+l)~
w(к) =
w (k — 1) w (k)
Очевидно, что 0 характеризует весовую функцию системы, и мы приходим к задаче, рассмотренной в разделе 2.2. Теперь можно записать наблюдение в виде
z (к) = |
wT (к) 0 4- wT (к — 1) s 4- т (к), |
(5.3.56) |
где |
|
|
|
оо |
|
y(k) = v (к) -f- Ь1 |
2 Т1 (к — i — 1) 4- du (к — i — 1)]. |
|
|
i=2JV |
(5.3.57) |
|
|
|
Определим оценку вектора параметров как вектор, мини мизирующий функционал
J = <$ {[z (к) — w1 (к) 0]2}. |
(5.3.58) |
