Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Медич Д. Статистически оптимальные линейные оценки и управление

.pdf
Скачиваний:
70
Добавлен:
25.10.2023
Размер:
13.81 Mб
Скачать

Подставляя уравнение (5-15) в уравнение (5-45), по­ лучаем:

î{k

- f 1 I k) =

E [H (k + 1 ) X {k+1

) + o (k+1 ) 12(1 ),..., z(£)]=

 

= H {k + 1) E [X {k + 1 ) I z (1),..., z {k)}

+

+

E [V {k +

1) I 2 (1 ) , . . . , z (k)]=H

(k + 1 ) X (k +

1 I k) +

+ £ [ o ( f c + l ) | z ( l ) , . . . , z ( * ) ] .

 

Из уравнения

(5-28) следует,

что

случайный вектор

v(k

+ l)

некоррелирован со всеми измерениями

2(1), . . .

...,

z(k).

 

Так

как

эти

случайные

векторы

гауссовские,

то

из п.

1 теоремы

3-2

следует,

что

v(k+\)

не

зависит

от

множества

измерений

{ z ( l ) ,

...,

z(k)}.

Следователь­

но,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

z(k-\-l\k)

 

=

H(k

+

l)x(k

+ l\

k)-r-

 

 

 

 

+

E [V {k +

1 )] =

H {k - f 1 ) X (k +

1 j k)

(5-47)

для & = 0,

1

...,

поскольку процесс

{v(k

+ \ ) , k = 0, 1 . . . }

имеет нулевое

математическое

ожидание.

 

 

 

После этих предварительных замечаний можно сфор­

мулировать и доказать основную теорему

оптимальной

фильтрации

в дискретных линейных системах.

 

 

Теорема

5-5.

 

 

 

 

 

 

 

 

 

 

 

 

 

1. Оптимальная

текущая

оценка

x(k+\\k+\)

опи­

сывается

рекуррентным

 

соотношением

 

 

 

 

 

x(k+l

 

|*4-1) =

Ф(£ +

1,

k)x(k\k)

+

 

+

K{k-\-

 

0И&4-\) — H{k+

1)Ф-1.

k)x(k\k)]

(5-48)

для

& =

0,

1,...,где

*(0|0) = 0.

 

 

 

 

 

 

2. /С(* + 1)—матрица

размера

пХпг,

определяемая

с помощью

следующих

 

соотношений:

 

 

 

 

 

 

K(k+l)=P(k+\\k)H'(k+\)[H{k+\)X

 

 

 

 

 

 

 

 

 

ХР

{k+\\k)H'

 

{k + \)

 

 

 

 

 

(5-49)

 

P{k

+ \\ k) =Q>(k+\,

k)P(k\k)Q>'{k+\,

k)

+

 

 

 

 

+ T(k

+ l,

k)Q(k)T'(k

 

+ \,

k);

 

(5-50)

 

P(fe +

l | / e + l )

= [ / —

K{k+])H(k

 

+ \)]P{k+\\k)

(5-51)

200

для

k = 0,

1, ...,

где

1 единичная

матрица

размера

ПХ

Хп,

а

начальное

условие

для уравнения

(5-50)

имеет

вид

Я(0|0)

=/>(<)).

 

 

 

 

 

 

 

3. Случайный

процесс

{x(k-\-\\k-\-\),

ß =

0,

1,...},

где

x(k

-f-11 k-\-

[) =

x(k + 1) -~^x(k

-f-1 | k -f-1). при k—

= 0,

1,

... ошибка

фильтрации,

является

 

гауссовской

марковской

последовательностью

с

нулевым

математи­

ческим

ожиданием

и корреляционной

матрицей

(5-51).

Д о к а з а т е л ь с т в о .

1. Из уравнений (5-43) и (5-44) следует, что

x(k + 1 \k

+ l) = x(k + 1 \k) +

E[x(k+

1)| z(k+ 1 I*)].

 

 

 

 

 

 

 

(5-52)

Но, согласно уравнению (5-41)

следствия

5-2

 

j c ( f c + l

|6) =

Ф ( £ + 1 ,

k)x(k\k).

 

(5-53)

Далее,

так как

x(k+\)

и

z(& + 1 |&)

гауссовские

случайные векторы с нулевыми математическими ожи­ даниями, согласно уравнению (5-9),

E\x[k

+

\)\z{k

+ \\k)\

=

P

JPZlJ.

 

 

 

 

 

 

xz

z z

 

В правой части последнего соотношения для просто­

ты опущены аргументы. Заметим, что

 

 

 

 

P „ = E[x(k

+

l)z'(k+l\k)];

 

 

 

 

хг

 

 

 

 

 

 

 

Я

=

fî[z(At+l |A)z'(ft+l|fe)].

 

 

 

z z

 

 

 

 

 

 

Обозначая

К (k -f- 1 ) =

P ^P~]

,

можно

записать:

E[x(k

+ l) \ z(k+l\k)]=K(k+l)z(k

 

+

l\k).

Однако из

уравнений

(5-46),

(5-47)

и

(5-53) ясно,

что

 

 

 

 

 

 

 

 

z(fe-f-l \k) = z(k+l)—'z(k

+ l\k)

=

= z(k+l)-H{k

+

l)x(k+l\k)=z(k+l)

 

 

— Я ( £ + 1)Ф(£ +

1, k)x(k\k).

 

(5-54)

201

Следовательно,

 

 

 

 

 

 

 

E [x {k - f 1) I z(k

- f 1 I k)] = K{k-r-

1) [z (k +

1) -

 

 

- Я ( £ + 1 ) Ф ( £ + 1 , ^ ) 2 ( £ | & ) ] .

 

Подставляя

этот

результат

и

уравнение

(5-53)

в (5-52), получаем:

 

 

 

 

 

 

J C ( Ä + 1

| А

+

1) = Ф(£ +

1,

/fe)*(/fe|/fe)-f-

 

+

Л ' ( Л +

1) [г (fe +

1) - Я ( Ä -f- 1) Ф {k - f - 1 , Ä)JC {k \ k)]

для

/е = 0,

1,

Это

соотношение совпадает с

уравне­

нием (5-48).

 

 

 

 

 

 

В силу уравнения (5-31) соответствующее начальное

условие имеет вид: х(0|0) =0.

 

 

 

2.

Определим

матрицу K(k+i).

 

Из ©торой

строки

в (5-54) на основании уравнения (5-15) и определения ошибки предсказания получаем:

 

z(k+l\k)

 

=

z(k-{-l)

— H(kArl)x(kArl\k)

=

 

=

H {k + 1) x (k +

1) + и {k +

1) - H {k +

1) x (k - f 1 I k)

=

 

= H(k+\)x{k4rl\k)-\-v(kAr\).

 

(5-55)

Следовательно,

 

 

 

 

 

 

 

 

P^E{{H{k-\-\)x{k+\\k)+v(k4r\)]X

 

 

 

 

г г

 

 

 

 

 

 

 

 

 

XlH(k+l)x(k+l\k)-T-v(k-\-l)}'}

=

 

 

 

s= H {k +

1) E [x (k + 11 k)2 {k - f 1 I k)] H' {k +

1) +

 

 

-f-

tf

-f- 1) E [x (k +

11 k) V (k + 1)] +

 

 

- f

E [V (k - f 1) x'

(k + 11 k)) H' ( A + l ) + £ [y (jfe+1) t / ( 6 + l ) ]

=

 

=

Я ( е +

1 ) Я ( * +

1

(Jfe +

1) +

 

 

 

+ H(k

+

l)E[x'{k

+

l\k)v'{k+l)]

+

 

 

 

- f £ [о (Л + 1) j? (Ä + 11 k)] H' (k -f- 1) - f Л (Ä -f-1). (5-56)

 

Покажем, что математические ожидания в двух сред­

них слагаемых

в

правой

части равны

нулю. Так как

202

одно из них

получено

транспонированием второго, до­

статочно рассмотреть только первое слагаемое

 

E [x (k +

11 k) V' {k - f 1)] =

E [x {k + 1) V (k +

1 ) ] -

 

— E(x{k +

l\

k)v'{k+l)].

 

Согласно

уравнению

(5-27) E[x(k + l)v'(k

+1)] = 0

для любого k = 0, 1 .. .

 

 

 

 

Вспоминая,

что x(k

-f-1 | k)

мо кно представить в виде

 

 

 

 

k

 

 

x(k +

l\k)

=

%A(i)z{i),

 

 

 

 

 

1=1

 

из уравнения (5-28) получаем:

к

E [x{k + 1 1 k) V' (k - f 1)] = S A (i) E [z (t)o' {k + 1)] = 0

(=1

для любого k= 1,2... Для k = 0 имеем:

 

 

 

 

E [x (110) V' (1)] =

E [Ф (1, 0) x (010) V' (1)]

=

 

 

=

Ф(1, 0)£[JC(0|0)O'(1)] =

0,

 

так

как л:(0|0) = 0.

Следовательно,

 

 

 

 

 

E\x{k

+ l\k)ü'{k

+

l)] =

0

(5-57)

для

всех k = 0,

1 .. .

 

 

 

 

 

 

 

Отсюда сразу следует, что

 

 

 

 

 

 

 

E[x(k

+ l\k)v'(k

+ l)]=0

 

(5-58)

для

всех k — 0,

1 .. .

и уравнение

(5-56)

принимает вид:

 

P„^H(k+\)P{k

+ \\k)H'{k+\)+R{k

+ \)

(5-59)

 

 

ZZ

 

 

 

 

 

 

 

для

всех & = 0,

1 . . .

 

 

 

 

 

 

 

Обращаясь к Р

получаем:

 

 

 

 

 

 

хг

 

 

 

 

 

 

 

P„

= E[x(k

+ l)z'(k+l\k)]

=

E{[x{k+l\k)

+

 

XZ

 

 

 

 

 

 

 

 

 

л +

x (k + 11 k)\ [H {k +

1 )x

{k +

1 \k)

+ y (fe +

1 )]'}.

203

Это равенство следует

из уравнения (5-55) и того, что

соотношение

x (k +

1 | k) =

х (k - j -

1) —x

(k-{-l

| k)

можно

также

представить

в виде

x(k

-f-1) — x (k - j -

1 ] k) -f-

+ х(/г+ i

\k).

 

 

 

 

Рполучаем:

Раскрывая

скобки в выражении

для

 

 

 

 

 

 

 

 

XZ

 

 

 

 

Р„ =

Е[х (6 +

1 \k)x'

(k + l\k)]H'

(k +

l)

+

 

 

 

 

+ £ [ * ( £ + 1 1 6 ) ü' ( 6 + 1 ] +

 

 

 

 

- f

E [x {k +

11 k) x' {k +

11 k)] H' {k + 1) - f

 

 

 

 

+ £ [ J C ( A - И І

 

Ol­

 

 

 

l i

силу

уравнений (5-58),

(5-10) и

(5-57)

 

ясно, что

второе — четвертое

слагаемые

в правой

части

получен­

ного соотношения тождественно равны нулю. Следова­

тельно,

Р „ = P(k+\\k)H'(k

+ \ ) .

(5-60)

 

 

xz

 

 

Подставляя уравнения (5-59) и (5-60) в соотношение

для К, получаем искомое уравнение:

 

Г

K{k + l)=P{k+l\k)H'(k+l)X

 

~ Л

^ Х | Я ( А + 1 ) / 5 ( А + 1 | А ) Я / ( А + 1 ) + / ? ( А + 1 ) ] - Л

при k = 0,

1 .. . Если предположить, что матрица R(k + l)

положительно определена, то фигурирующая в соотно­ шении обратная матрица всегда существует.

Согласно уравнению (5-42) следствия 5-2

P{k+\\k)=Q>(k

+ \,

k)P(k\k)(J/-{k

 

+ \, k) +

 

 

+ Г(* + 1, k)Q{k)T'(k

+ l,

k).

Теперь требуется получить выражение для корреля­

ционной матрицы ошибки

фильтрации

 

x(k+\\k

+

l) = x(k+l)-x(k

 

+

l\ k + \ ) .

Замечая,

что

оценку x(k + 1

| k +

1)

можно пред­

ставить

в виде

 

 

 

 

 

 

x{k +

l\(k+l)

=

x(k+l\k)

+

K(k

+

\)z(k+l\k),

204

с помощью уравнения (5-55) получаем следующий ре­ зультат:

 

x{k+l\k+l)

 

 

=

x{k+l)

— (x{k

+

l\

k) +

 

 

+

K{k

+

\)z(k+l\k)]-=x(k

 

 

+

 

l\k)-

 

— K{k

+

l)[H(k

+

l)x{k

+

l \k)

+

o(k

+ l)]

=

= [I -

К {k - f

1) H {k +

1)] x (k +

11 k) -

 

К (k +

1) и (k - f l ) ,

где / — единичная

матрица размера

пХп.

 

 

(5-61)

 

 

 

Заметим,

 

что

в

выражение для

P(k+\\k+l)

=

= E[x(k

+ 1 \k+\)x'(k

 

+ \\k+

1)] войдет

матрица

E[x(k +

+ 1 \k)v'(k + \)]

и

соответствующая

транспонированная

матрица. Обе эти матрицы являются нулевыми в силу уравнения (5-58). Поэтому

 

P(k+\\k+\)=iI—K(k+\)H{k+\)]E[x(k

 

 

+

 

 

+

\\k)x'{k

+ \\k)\I—K{k+\)H{k+\)Y

 

 

+

 

 

+

K{k+\)E[v{k+\)v'{k+\)]K'(k+\)

 

 

=

 

 

 

=[I—K{k+l)H(k+\)]P(k

 

+ l\k)

X

 

 

 

X{I—K(k+ï)H(k

+ l)Y + K(k+\)R(k

 

+

 

 

 

 

 

+

l)K'{k

+ l).

 

 

 

(5-62)

Опуская для удобства индексы в правой

части

(5-62),

раскрывая скобки и группируя члены, получаем:

 

P(k+l\k+l)

 

= {P—KHP)

(І—КНУ+

 

+ KRK'=P—KHP—PH'K'

+

КНРН'К'+

 

 

 

 

+

 

 

 

KRK'={I-KH)P~PH'K'+K{HPH,+R)K'.

Однако,

из уравнения (5-49)

можно

видеть, что

K{HPH'+R)*=PH'.

Следовательно,

 

 

 

— .

Г

P(k

+ \\k+\)

=

 

(l—KH)P—PH,K,+PH'K,=

 

 

 

={I-K(k+\)H(k+\))P(k

 

+

[\k)

 

 

'для

& = 0,

1 . . .

Полученное

соотношение

совпадает

с уравнением (5-51).

 

 

 

 

k

 

k + l и

3. Заменяя в уравнении (5-39) индекс

на

индекс / на

k, получаем:

 

 

 

 

 

 

 

 

 

г(А + 1 | £ ) = Ф ( А + 1 ,

k)x(k\k)

+

 

 

 

 

 

 

+ T(k+l,

k)w(k).

 

 

 

(5-63)

205

Подставив это выражение в уравнение (5-61), полу­ чаем:

S(k+l\k+l)=[I—K(k+l)H(k+l)]0(k+\,

 

 

 

 

k)X

 

Xx(k\k)+{I—K(k+\)H(k+\)]T(k

 

 

+ \,

k)w(k)

 

 

—K(k+\)v(k+\).

 

 

 

 

(5-64)

Вводя обозначения A{k+\)

=[I—K{k+\)H

 

{k+\)}

и

Ф * ( £ + 1 , k)=A(k+-\)Q)(k+\,

 

k),

можно

представить

уравнение (5-64) в виде

 

 

 

 

 

 

 

 

 

x(k+\\k+\)

=

<km(k+\t

k)x(k\k)

+

 

 

+

ЦЛ(Й + 1 ) Г ( * + 1 , k)\-K(k

 

+

l)

W

(k)

 

 

 

 

 

 

 

Далее, полагая

 

 

 

 

 

 

 

 

 

Г * ( А + 1, k):

A(k+l)V(k

+

l,

 

k)\-K(k+\)\\;

 

 

 

 

w [k)

 

 

 

 

 

 

 

 

 

v(k+l)

 

 

 

 

 

 

где Г* матрица

размера

n X ( p + m ) .

а

w * -

(р +

т ) -

мерный вектор, получаем:

 

 

 

 

 

 

 

 

 

ж(Л + 1|/г + 1 ) = Ф * ( / г + 1 , k)x(k\k)

+

 

(5-65)

 

+ Г*(Л+1,

 

 

 

 

 

Из

определения

до*(.&)

ясно,

что {w*(k),

k — 0,

1,

. . .}

является гауссовской белой последовательностью с ну­

левым математическим

ожиданием

и

корреляционной

матрицей

 

Q (k) J

о,

 

 

Е [w* (/) w*'

(k)}

 

 

02

\R(k

+

l)

 

 

 

 

где Oi и Ог нулевые

матрицы

размера

рХт и т Х р

со­

ответственно.

 

 

 

 

 

 

Напомним, что для

k = 0

х (010)—х (0) х (0 j 0)

=

=JC(0), так как jc(0|0) = 0.

Следовательно, #(0|0)—гауссовский случайный «-вектор с нулевым математическим ожиданием и кор­ реляционной матрицей.

(010) Ж' (010 )J =^[jc (0) JC' (0) ] = Я (0) .

206

Кроме того, для любого k~0,

1 . . . из определения

w*(k) и уравнений

(5-23), (5-24)

можно

получить соот­

ношение Е[х (010) да*' (k)]=E[x {0)w*'(k)] = 0.

Следовательно,

случайный

процесс,

описываемый

уравнением (5-65), имеет тот же вид и удовлетворяет тем же условиям, что и процесс, описываемый уравнением

(4-28)

в § 4-2. Поэтому

{x(k+l\k+l),

fe = 0, 1, . .. } —

гауссовская

марковская

последовательность.

Так

как

{x(k+l\k+\),

к = 0, 1

. . . } — гауссовская

марковская последовательность, она полностью опреде­

ляется своими математическим ожиданием E[x(k

+ l\k +

+ 1)] и корреляционной матрицей P(k+ 1 \k+ 1).

Корре­

ляционная матрица определяется с помощью уравнения (5-51), а математическое ожидание равно нулю для всех

к, так

как

ж(0|0)

и {w*(k),

k = 0,

1 . . . } имеют

нулевые

математические ожидания. Теорема доказана.

 

Эта

теорема

впервые

была

доказана

Калманом

[Л. 5-7] в 1960 г. Алгоритм

рекуррентной

фильтрации,

описываемый

уравнениями

(5-48) — (5-51),

называется

фильтром

Калмана.

 

 

 

 

 

Вычислительные

аспекты

 

 

 

Одной

из

наиболее важных

особенностей

фильтра

Калмана является его рекуррентная форма, что делает этот фильтр исключительно полезным для оптимальной фильтрации при обработке результатов измерения с по­ мощью ЭЦВМ. Измерения можно обрабатывать по мере их поступления и не требуется хранить какие-либо изме­ рительные данные в памяти. Из данных об измерении и состоянии системы при переходе от момента k к мо­

менту k + \ нужно помнить

только x(k\k).

Однако алго­

ритм

требует

хранения в

памяти

матриц

Ф(&+1,

k),

Y{k+\,

k), H(k

+ \ ) ,

Q(k)

и R(k + \)

для всех

k = 0,

1 .. .

Информационное

взаимодействие блоков

фильтра

легко понять, рассматривая структурную схему рис. 5-5, соответствующую уравнению (5-48) :

х(А + 1 | А + 1 ) =

Ф(* + 1, k)x{k\k)

+

+ Л' (k + 1) (k + 1) -

H {k - f 1 ) Ф (k + 1, k) X (k I k)].

Предположим, что

оценка x(k\k)

известна

для неко­

торого k и требуется

определить

x(k-\-\\k-{-i)

при из-

207

вестном z(k+l). Общая схема вычислительного цикла имеет следующий вид.

1. Оценка x{k\k) «прогнозируется на шаг вперед» с помощью умножения ее слева на переходную матрицу

состояния

Ф(&-|-1,

k), что

позволяет

получить пред­

сказание

x(k-\-\, k).

Этот

шаг можно

рассматривать

как динамическую экстраполяцию предыдущей оценки.

Н(к+1)

 

х№

Ф(к+1,к)

S3

г(к'+1\к)

х(к+1\к)

 

 

Рис. 5-5. Структурная

схема

фильтра Калмана.

 

2.x(k-\-l,

k)

умножается

слева

на H{k-\-\),

что

дает в результате

предсказание

измерения

z (é-f-1 \ k).

Вычитая

его из истинного

измерения

z(k-\-V),

получаем

невязку

измерения z(k-\-\

\k).

 

 

 

 

3. Невязка

измерения

умножается

слева

на

матрицу

K(k-\-\)

и результат

складывается с х {k -f- Ч Щ для по­

лучения

X (k -f-11 k +

1).

 

 

 

 

 

4. X {k -f-1 \ k -f- 1 ^хранится в памяти до тех пор, пока не будет получено следующее измерение. После этого

цикл

повторяется.

 

 

 

 

 

 

 

 

Описанный здесь фильтр работает по методу

«коррек­

ции

предсказания»,

т.

е. «корректирующий»

член

K{k + \)ï(k+\)f\k)

складывается с предсказанием

x(k +

- f l\k)

для вычисления

оценки

x(k+\

\k +1).

Корректи­

рующий

член состоит из невязки измерения,

взвешенной

с помощью матрицы K(k+l).

Эту последнюю

матрицу

обычно

называют

весовой

матрицей,

матрицей

передачи

фильтра

или матрицей

передачи

Калмана.

 

 

 

208

Теперь читателю должна быть понятна взаимозави­ симость предсказания и фильтрация. Одна из этих оце­ нок получается с использованием другой и наоборот:

x(kr+l

|£) =

Ф(£ + 1, k)

x{k\k);

x{k

+ l\ k+\)=x{k

+

l\k)

+

-f- К (k -f- 1) [z {k +

1) -

Я (k +

1) x

(k + 1 I k)].

Алгоритм фильтрации начинает свою работу со зна­ чения I 0) = 0, причем сразу получаем:

Î ( 1 | 1 ) = K(1)*(1).

Многократно повторяя описанный выше вычисли­ тельный цикл, состоящий из четырех шагов, последова­ тельно получаем оценки лг(212), JC (313) . . . Если требует­ ся предсказать состояние системы на несколько шагов вперед, например на m шагов, из теоремы 5-4 имеем:

x{k-\-m\k) = <S>(k + m, k)x{k\k).

В заключение заметим, что согласно рис. 5-5 опти­ мальный фильтр состоит из модели динамического про­ цесса, выполняющей функцию предсказания, и коррек­ тирующей цепи обратной связи, с помощью которой: в модель в качестве возмущения вводится слагаемое, со­ стоящее из взвешенной невязки измерения.

Теперь

рассмотрим

вычисление матрицы

передачи

фильтра

K{k+\)

и двух корреляционных матриц P(k +

+ 1|&)

и

P(k

+ l\.k+l).

Напомним

соответствующие

уравнения

(5-49) — (5-51):

 

 

 

 

K{k+\)=P{k+\\k)H'{k+\)X

 

 

 

X{H(k+\)P(k+\\k)H'{k+\)+R(k+\)\-1;

 

 

Р ( * + 1 | £ ) = Ф ( А + 1 , k)P(k\k)0'(k+l,

k)

+

 

 

+ Г ( £ + 1 ,

k)Q{k)T'{k+\,

k);

 

P{k+\\k

+ \)=[I—K{k+\)H{k+\)}P{k

+

\\k);

для 6 = 0,

1 . . . при

Р(0\0)=Е[х(0)х'(0)].

 

Соседние файлы в папке книги из ГПНТБ