Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Медич Д. Статистически оптимальные линейные оценки и управление

.pdf
Скачиваний:
70
Добавлен:
25.10.2023
Размер:
13.81 Mб
Скачать

Отсюда следует, что уравнение (7-34) можно пред­

ставить в виде

 

 

Л - 1 (t) =I+[F(t)

+G(t)Q(t)G'(t)P-i(t\

t)]Ai + О {At2).

(7-36)

Из (7-25) при ti = t имеем:

x (t + àt\t) = [I + F{t)b (t) + О (Af)} x (t\t). (7-37)

Подставляя (7-36) и (7-37) в уравнение (7-33), по­ лучаем соотношение

x {t + At\t,) - [/ + F (t) At + О {At2)} x (t\t) =

=

[x m - x (t\t)} + F (t) [x m

- x (t\t)} At

+

+ G

(t) Q (t) G' (l) P -1 (t\t) [x(t\t,) -

x (t\t)} At-}-О

{At2),

которое сводится к

x~(t + At\t,) = x m + F (t) x(t\tt) At +

+ G (t) Q {t) G' (t)P~* (t\t) [x (tltj - x (t\t)} At+O (At2).

После переноса x^tj в левую часть уравнения, де­ ления обеих частей на At и перехода к пределу при Дг—•

— О получаем:

хт=р(і)хт+

 

+ G (t) Q (t) G' (OP -

(t\t) \x\t\tj

- x(t\t)}.

(7-38)

Обозначая

 

 

 

 

 

A (t) = G{t)Q(t)

G'(t)P-l(t\t),

 

(7-39)

получаем уравнения (7-29) и (7-30).

 

 

Из

теоремы 6-1 следует,

что на

уравнение

(7-38)

наложено граничное условие

 

x(ti\ti).

 

 

Из теоремы 6-1 также известно, что случайный про­

цесс ошибок сглаживания

на

закрепленном интервале

{x(t\ti),

t = to + jAt, j=N, N—l,

0} гауссовская мар­

ковская последовательность второго порядка с нулевым средним, описываемая соотношением

x(t\ti) =x(t\t) +A(t)

[х(Е+М\Ь)—гу+АЩ)].

 

(7-40)

300

Граничным условием для уравнения (7-40) является

равенство x(U\ti)

=x(ti)—x(ti\ti).

 

 

 

Согласно уравнению (6-59) корреляционная матрица

этой случайной

последовательности

описывается

урав­

нением

 

 

 

 

 

 

 

 

 

P(t\ti)

= P(t\t)

+А (t)[P (t + At IU) -P

(t + At 11) ]A'

(t)

с граничным

условием

 

 

 

 

 

(7-41)

 

 

 

 

 

 

 

 

Р(к\и)=Е[х{и\41)х'{и\к)].

 

 

 

Теперь рассмотрим

предельное поведение уравнения

(7-40). Вначале

имеем:

 

 

 

 

 

 

 

 

x(t+At\h)—x(t+At\t)

 

 

=

 

 

 

 

=A-4t)[x(t\h)—x(t\t)].

 

(7-42)

Для

U = t

уравнение

(7-28)

можно

записать в

виде

 

x(t

+ At\t)=x(t]t)+F{t)x{t\t)At

 

+

 

 

 

 

+ G(t)w(t)At

+ 0(A42).

(7-43)

Подставляя в (7-42) уравнения (7-36) и (7-43), по­

лучаем

уравнение

 

 

 

 

 

 

 

x(t+At\ti)—

x(t\t)—F(t)x{t\t)

 

At—

 

—G(t)w(t)At+0(Atz)=[x(t\ti)—x(t\t)]

 

+

 

+ F{t){x{t\U)-x{t\t)]At

+

 

 

G{t)Q{t)G'{t)P-t{t\t)X

 

 

X[x(t)U)-x(t\t)]At

 

+

0(At*),

 

которое можно привести к виду

 

 

 

 

 

 

x(t+At\ti)—

* ( ф 1 ) = [ ^ ( 0

+

 

 

+ G (t) Q (t) G' (f) P-* ( t\ t) ] x (* | U) At—

 

 

—G(t)Q(t)G'(t)P-l{t\t)x{t\t)At

 

+

 

 

 

 

+ G(4)w(t)At

+

0(AP).

 

Разделив обе части последнего уравнения на At и переходя к пределу при At—Ю, получим уравнение

x (%)=[F (/) + A { ф і т -A(t)~x (t\t) + G (0 w {t),

соответствующее гауссовскому марковскому процессу второго порядка с нулевым средним вида

k>t^t0).

301

В заключение рассмотрим предельное поведение уравнения (7-41) при At—>-0 с тем, чтобы получить мат­ ричное дифференциальное уравнение для корреляцион­ ной матрицы ошибки сглаживания на закрепленном ин­ тервале. Перепишем уравнение в виде

 

 

P(t + At\ti)=P{t+At\t)

+

 

 

 

 

+ A-4t)[P(t{tl)-P(t\t)][A'(t)lri.

 

 

(7-44)

Из уравнений (7-32), (7-14)

и (7-5) следует,

что

 

A'(t)

=P-4f+At\t)G>(t

 

+ At, t)P(t\t)

=

 

 

=[P-l(t\t)<b-l(t

+ M,

t)P(t+At\t)]-i

 

=

 

 

= {P-l(t\t)<D(t,

t + At)[0(t+At,

t)

X

 

 

xP(t\t)0'(t+At,

 

t)+G(t)Q(t)G'(t)At

 

+

 

+ О ( Д / г ) ] } - і = [ Ф ' ( / + М /) +P-1

(t 11) X

 

 

X Ф (t, t+At)

G {t) Q {t) G' (t) At + O (At2) ] - Ч

Из уравнения

(7-4)

и равенства

 

 

 

 

 

 

Ф ( / ,

t + At) =/—F

(t) At + O (At2)

 

 

получаем:

 

 

 

 

 

 

 

 

 

 

A'(t)=[I

+ F'(t)At

+ P-i(t\t)G(t)Q(t)G'(t)At

 

+

0(At2)]-\

откуда

сразу

следует:

 

 

 

 

 

 

 

 

[A'(t)]-i

= I+{F'(t)

+P-i(t\t)G(t)

X

 

 

 

 

XQ(t)G'(t)]At

 

+ 0(At2).

 

 

(7-45)

Используя уравнения (7-36) и

(7-45),

получаем:

 

A-4f)P{%)[A'(f)]-1

 

=

{P{t\t1)

+

 

 

I- [F(t) - f

G(t)Q(t)G'

(t)P-•

(t\t)} P(t\t,)At

+

+

О (ДО}

{/ + [F' (t) -t-P'1

(t\t) G (t) Q(t)G'

(t)} At +

 

+

О (At*)} = P (t\tt)

-f

{[F (t) + G (t)

X

 

 

X Q (t) G' (t)P'1

(t\t)} P

+ P (ttt)

[F' (t)

+

 

+

P-1

(t\t) G (t) Q (t) G' (f)]} At-\-0

{At*).

(7-46)

Точно таким же

образом

получим уравнение

 

 

A-4t)P(t\t)[A'(t)]-i

 

= P(t\t)

+

 

 

+ {[F(t) + G (О Q (,0 G'(t)

P-1

(t

I t)]P (t 11) + P (t 10 X

 

X [ F ( 0

 

(t 10 G (0 Q(t)G'(t)]}At

+ 0

(At2),

302

которое можно привести к виду

 

 

 

 

 

 

A-4t)P(t\l)[A'(t)]-i

 

= P(t\t)

+[F(t)P(t\t)

+

 

 

 

+ P(t\t)F'(t)+2G(t)Q(t)G'(t)]At

+ 0(At2).

(7-47)

 

Из уравнений

(7-15) и (7-47) следует:

 

 

 

 

 

P (t+At

11) - Л - i (/) Р (t1 t)[A'{t)Y^P{t\t)

 

+

 

 

 

-r-[F(t)P(t\t)+P(t\t)F'(t)

+

G(t)Q(t)G'(t)]At-

 

~P(t\t)-[F(t)P(t\t)+P(t\t)F'(t)+2G(t)Q(t)G'(t)]X

 

 

 

 

 

XAt + O (At2) = —G (0 Q (/) G' (t) At + О (At2).

(7-48)

 

Подставляя уравнения (7-46) и (7-48) в

(7-44),

по­

лучаем:

 

 

 

 

 

 

 

 

 

 

 

P(t

+ At\t1)=

— G(t)Q(t)G,(t)At

+ P{t\ti)

+

 

 

 

+

{[F(t) + G(t)Q(t)

G'(t)P-i(t\t)]P(t\U)

 

+

 

 

+ P(t\ti)[F'(t)+P-i(t\t)G(t)Q(t)G'(t)]}At

 

+

0(At2).

 

Следовательно,

 

 

 

 

 

 

 

 

 

P W.) =

^ (0 + G(t)Q (t) G' (t)P

1 (f ft] P W,) +

 

 

+

^.(¥.) t7 7 ' (0 +

P - 1

(*|0 G (0 Q (0 G' (О) -

G (0 Q (0 G' (t)

 

 

 

 

 

 

 

 

 

 

(7-49)

для

^ о ^ ^ О -

Используя

определение

матрицы

 

A(t)

(7-39), получаем уравнение (7-31) теоремы.

 

 

 

 

Из теоремы 6-1 с очевидностью следует, что на урав­

нение (7-49) наложено

граничное условие вида

P(ti\ti)

=

= £{x(/i|*i)af'(/i|/i)].

 

 

 

 

 

 

 

 

Алгоритм

теоремы

7-3

получен

Раухом

и др. [Л. 7-2]

с использованием процедуры предельного перехода Калмана і[Л. 7-1]. Несколько отличный вариант этого алго­ ритма был ранее получен Брайсоном и Фрезером [Л. 7-5], которые использовали при доказательстве методы ва­ риационного исчисления и максимального правдо­ подобия. Раух и другие показали, что эти два алго­ ритма эквивалентны.

Структурная схема оптимального фильтра, сглажи­

вающего

на закрепленном

интервале, показана

на

рис. 7-3. Как и в случае оптимального фильтра,

сглажи­

вающий

фильтр состоит

из

модели

динамики

системы

x = F(t)x,

возбуждаемой

сигналом

коррекции

от

цепи

обратной связи. Однако здесь сигнал коррекции не включает в себя явно данные измерения. Вместо этого

303

роль входного «измерения» и г р а е т

текущая о п т и м а л ь ­

ная

оценка x(t\t), а «невязкой» является

разность меж­

ду

д в у м я оптимальными оценками

вида

x(t\ti)—x(t\t).

Кроме того, на сглаживающий фильтр накладывают­ ся не начальные, а граничные условия. Здесь подразу­ мевается, конечно, что для получения оптимального сгла-

Рис. 7-3. Структурная схема оптимального фильтра, сглаживающего на закрепленном интервале.

живания на закрепленном интервале проводится инте­ грирование в обратном времени от t\ до t0. Поэтому

вначале необходимо

получить оценку x(t\t)

для всех t

на интервале to^t^ti.

Иными словами,

до того как

можно будет начать сглаживание на закрепленном ин­ тервале, должна быть решена задача фильтрации. Как следствие этого, сглаживание на закрепленном интер­ вале можно считать полезным только для анализа дан­ ных после окончания эксперимента. В отличие от опти­ мальной фильтрации, его нельзя использовать в реальном масштабе времени для обработки текущей информации. Все эти свойства алгоритма, разумеется, следуют из свойств алгоритма сглаживания в дискретном времени.

Рассматривая выражение (7-30) для матрицы пере­ дачи фильтра

A(t)=G(t)Q(t)G'(t)P-i(t\t),

заметим, что для реализации сглаживающего фильтра корреляционная матрица ошибки фильтрации P(t\t) должна быть известной при ^ о ^ ^ ^ і . Это не является дополнительным усложнением по сравнению с требова­

нием знать x(t\t)

для всех h^t^ti,

поскольку при

304

определении x(t\t)

 

придется

вычислять

P(t\t).

Однако

здесь возникает одна довольно очевидная

трудность.

Если

матрица

P{t\i)

сингулярна в некоторой точке или

на некоторой

части интервала

[to, ^і], то в

этих

точках

матрица

A (t)

не

существует.

Аналогичная

трудность

возникает

даже

в

том случае,

 

когда

матрица

P{t\t)

несингулярна.

Если

определитель

матрицы

P(t\t)

мал,

матрица

может

оказаться

«почти

сингулярной», или

«плохо обусловленной», а в этом

случае

незначительные

вычислительные ошибки, такие как ошибки

округления,

могут

привести

к

существенно

неточным

значениям

Одним из возможных приемов, позволяющих не вы­ числять P-^tlt) в каждый момент t, t 0 ^ t ^ t i , заклю­ чается в выводе дифференциального уравнения, которое следует непосредственно решать для получения Я^1 ( / ] / ) . Такое уравнение можно получить, дифференцируя по времени тождество

P(t\t)P-*(t\t)=I

и получая

 

dP р - і t

p dP~1

 

 

 

 

 

 

 

 

п

 

 

 

 

 

 

 

dt

^

dt

~~

 

 

 

 

или

 

 

dP-l_

D - i dP p . ,

 

 

 

 

 

 

 

 

 

 

 

Подставляя в (7-50) уравнение (7-9), получаем:

 

 

=—P-l[F{t)P

 

+]РР' (t) -

PH' (t)R-1

{t) H{t)P

+

+

G{f)Q(t)G'{t)\P-l

=

-P-'F{t)-F'{t)P~l

 

+

 

+

H'{f)R-1

{t) H{t)-P-W

Q (t) G' {t) P -1

(t).

(7-51 )

Полагая M(t) =P~l{t\t),

можно представить

уравне­

ние (7-51) в виде

 

 

 

 

 

 

 

 

_

M =

F'[(t)\M

+ MF (0 - f MG (t) Q {t) G' (t) M

-

 

 

 

' -H'(t)R~40^(0-

 

 

 

 

(7-52)

Полагая,

что матрица

P(tt\ti)

несингулярна,

 

полу­

чаем граничное

условие для уравнения

(7-52)

вида

 

 

 

M(tt)=P-4tl\ti).

 

 

 

 

 

20—85

 

 

 

 

 

 

 

 

 

305

Матрица передачи оптимального фильтра, сглажи­ вающего на закрепленном интервале, имеет вид:

A(t) = G(t)Q(t)G'

(t)M(t).

Заметим, что вычисление матрицы P((\ti) не являет­

ся составной частью алгоритма оптимального сглажи­

вания в том смысле, какой имеет вычисление P(t\t)

для

оптимальной

фильтрации.

Действительно,

матрицу

P(t\ti) нельзя определить, пока

неизвестна матрица A (t),

в то время как в случае оптимальной фильтрации

нель­

зя

определить

матрицу K(t),

пока не

известна

 

матри­

ца

P(t\t).

 

 

{x(t\ti);

 

to^t^ti}

 

В заключение отметим, что ошибка

 

является марковским процессом второго порядка. На­

помним,

что этот процесс

описывается уравнением

 

x(t\tt)

= [F (01+

А (/)] x(t\tt) -

A (t) x(t\t) +

G(t)w

(t)

с граничным

условием

x(ti\ti)

—x(ti)—x(ti\ti),

где

x(ti\ti)—гауссовский

случайный n-вектор

с нулевым

средним и известной корреляционной матрицей

P(ti\ti).

Известно,

что

{x{t\t),

to^t^ti)

— гауссовский

мар­

ковский процесс с нулевым средним, описываемый урав­ нением

x(t\t)

=

[F (t) — K(t)H

(t)\ x {t\l) +G{t)w{t)-K

(/) V (t)

с тем

же

граничным

условием x(t1\tl) = x(t1) —

xit^t,).

Вводя 2«-мерный

вектор

 

 

 

 

УѴ)

=

 

 

 

 

 

x(t\t)

 

объединим приведенные выше два уравнения:

 

 

i|f (0 +

A(t)\

(0

 

у

=

о

 

 

 

 

 

 

о

 

 

 

+

 

 

 

 

Й У ( 0 -

vi!)-

 

 

 

а'(і)

 

 

 

Из § 4-3

известно,

что {y(t),

tos^t^ti}

является ray.

совским марковским процессом с нулевым средним.

306

Строго говоря, описание

случайного

процесса

 

{x(t\ti),

to<^t^t\)

с помощью

математического

ожидания (нуле­

вого) и корреляционной матрицы P{t\t\)

не может

быть

полным, так как этот процесс не является

марковским

процессом

первого порядка. Для корректного

описания

требуется

рассматривать

процесс

{y(t),

t0<^t^ti}.

Одна­

ко для большинства

практических

приложений

при ана­

лизе

ошибок

достаточно

определить

матрицу

 

P(t\ti).

Это

обстоятельство

уже отмечалось

в связи с

задачей

сглаживания

на закрепленном

интервале в

дискретных

линейных

системах.

 

 

 

 

 

 

 

 

 

 

Пример

7-3. В качестве

частного

класса

задач

оптимального

сглаживания на закрепленном

интервале рассмотрим задачи, в кото­

рых

Q(()=0

для / о ^ = ё ^ і ,

т. е. случай

отсутствия

возмущений

(ср. пример

6-2). Предположим,

что обратная

матрица P~i{t\t)

су­

ществует ДЛЯ

to^t^ti.

следует, что A(t)=0

 

 

 

 

Из уравнения (7-30)

для Ь ^ г = ^ і .

Сле­

довательно, оптимальный сглаживающий фильтр описывается урав­ нением

x(t\ U)=>F(t) x(t

(7-53)

решение которого можно представить в виде

 

x(t | t,) = <S>(t,tJx~(tl I

г,),

где to^t^ti, а Ф(г, ^і)переходная матрица состояния

системы

(7-53). Кроме того,

 

 

P{t\ti)=F(t)P(t\ti)+P(l\ti)F'(l),

 

(7-54)

откуда следует, что

 

 

Р ( г | г 4 ) = ф ( г , іі)Р(и\П)Ф'(і,

U).

 

Для рассматриваемого класса задач оптимальное сглаживание па закрепленном интервале состоит, очевидно, в обратной экстрапо­ ляции вектора %(г'і|гі) и матрицы Я ( Г і |гі) .

На

практике

кроме

тривиальных

случаев при определении

л (t j tt)

и P (t

I tx)

обычно

не вычисляют

матрицу Ф(/, /,) для всех

^<^

і- Вместо

этого для получения х (t \ tt) и P (t \ tt) уравнения

(7-53) и

(7-54)

численно

интегрируют в

обратном времени от fi,

начиная с соответствующих граничных условий.

Пример 7-4. Допустим, что для некоторого А > 0 оптимальный фильтр из примера 7-1 находится в установившемся состоянии и требуется получить сглаженную оценку состояния на закрепленном

интервале [to, <і], где г 0 > 0 и

ta<tir

20*

307

Для простоты рассмотрим случай, когда a2<^.aw/av

и дисперсия

установившейся ошибки фильтрации составляет:

 

P(t\t)=pi = Oviav.

 

Напомним, что здесь F (t) = — a; G (t) = 1; Q (t)= я^.

Из уравнения (7-30) имеем:

 

 

 

А (0 = G (t) Q (0 G'_(t) P~l(t

I t) =

1

f - .

< — =

Так как <22 <^a^/a^, то в примере

 

ri

u1>

7-1

а ^ / а , , .

Тогда из урав­

нения (7-29) следует, что оптимальный фильтр, сглаживающий на

закрепленном интервале, описывается

соотношением

x (t

I

-ах

(t

+

^ [x(t I tt)

-

- * ( '

I OJ = (К-

 

I U)-^(t

I /)•

А так как р . « 0 ш / а в > а ,

то это уравнение можно записать в виде

x(t\U)**V.[x{!\tl)-x{t\f)\

 

(7-55)

для Г о ^ ^ г і , с

граничным

условием î " ( É i | / i ) .

Структурная схема

сглаживающего фильтра (7-55)

изображена на рис. 7-4. Следует

?(t\t)

H *

 

z6

 

 

 

Рис. 7-4. Оптимальный фильтр, сглаживающий на закреп­ ленном интервале, из примера 7-4.

обратить внимание на то, что фильтр действует в обратном вре­ мени начиная с Гі.

 

В данном

примере уравнение для дисперсии ошибки

сглажива­

ния

(7-31) имеет вид:

 

 

 

 

 

Pit I г1 ) =

2 ( ! х - а ) - Я ( М

 

при

to^t-^ti,

где Р ( / і | / і ) = р і

сГиСТв.

 

 

Так как р,»а , используем приближение вида

 

 

 

P(t\

f,)^2(x/>(M * , ) - « * .

(7-56)

 

Решение уравнения

(7-56) имеет вид:

 

308

где ß постоянная интегрирования. Из граничного условия следует:

Поэтому

Так как t^.tu

то

^ 0

а , с г в = . Р ( ф ) , причем неравенство

переходит в равенство только

при t

= ti.

t

Рис. 7-5. Сравнение дисперсий оши­ бок оптимальной фильтрации и опти­ мального сглаживания на закреплен­ ном интервале для системы из при­ мера 7-4.

Сравнение

дисперсий

ошибок фильтрации

и

сглаживания на

закрепленном

интервале представлено графически

на

рис. 7-5. В этой

связи заметим, что пои

t^ti

 

 

Р ( М ' > ) ^ ^ г

в предположении,

что для

выбранного значения

t

оптимальный

фильтр

находится

в установившемся

состоянии, т. е.

P(t\t)—OwGv-

7-5. ОПТИМАЛЬНОЕ СГЛАЖИВАНИЕ В ЗАКРЕПЛЕННОЙ

ТОЧКЕ

 

 

 

 

 

В

случае

сглаживания

состояния

системы x(t)

в одной точке интервала

[t0, ti],

U<U, разумеется, можно

использовать алгоритм оптимального сглаживания на закрепленном интервале (теорему 7-3). Работу сглажи­ вающего фильтра тогда следует прекратить в расчетной точке, не доходя до U. Однако как и в случае дискрет­ ного времени, эта процедура имеет два недостатка. Во-первых, она по своей природе является послеэкспериментальной и, следовательно, не может быть исполь­ зована для обработки данных в реальном масштабе вре­ мени. Во-вторых, она неэффективна, поскольку необхо-

димо вычислять сглаженную оценку x(t\ti) на всем ин-

зоѳ

Соседние файлы в папке книги из ГПНТБ