Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Медич Д. Статистически оптимальные линейные оценки и управление

.pdf
Скачиваний:
63
Добавлен:
25.10.2023
Размер:
13.81 Mб
Скачать

цессов. Алгоритмы оптимального сглаживания, требую­ щие рассмотрения трех отдельных случаев, исследуются в гл. 6.

Модель системы

Начнем с исследования модели рассматриваемого класса процессов.

Рассмотрим систему

 

x(k+l)=0(k

 

+ l,

k)x(k)+T(k+l,

k)w(k);

(5-14)

 

z(k+\)=H{k+\)x{k+\)+v{k+\),

 

 

(5-15)

где

x—п-вектор

состояния;

w—р-вектор

возмущения;

z—m-вектор измерения

(выхода

системы);

ѵ—m-вектор

ошибки измерения; /г = 0, 1 .. . дискретное

время; Ф—•

переходная матрица состояния размера пХЩ

Г — пере­

ходная матрица

возмущения

размера пХр; H

матрица

измерения размера

тХп-

 

 

 

 

 

 

Процесс {w(k),

k = 0, 1 . . . } является р-мерной гаус­

совской белой последовательностью, для которой

 

 

 

 

E[w(k)]

= 0

 

 

(5-16)

при любом & = 0, 1 .. . и

 

 

 

 

 

 

 

 

 

E[w{i)w'(k)]

= Q{k)bik

 

 

(5-17)

при

любых

/,

& = 0, 1

...,

где

Q(k)—неотрицательно

определенная

матрица

размера

рХр . Процесс

[v(k+l),

k = 0, 1 . . . } представляет собой

m-мерную

гауссовскую

белую последовательность, для которой

 

 

 

 

 

 

 

E[v(k+l)]

= 0

 

 

(5-18)

при любом k = 0, 1 . . . и

 

 

 

 

 

 

 

E{u(j+l)v'{k+[)]

= R(k+\)àjh

 

 

(5-19)

при

любых у, k = 0,

1 ..., где R (k+1) неотрицательно

определенная

матрица

размера

mXm.

Здесь

рассматри­

вается случай, когда эти два случайных

процесса взаим­

но независимы, так что

 

 

 

 

 

 

 

 

 

 

E[v(j)w'(k)]=0

 

 

 

(5-20)

при любых / = 1, 2

. . . и / г = 0, 1

 

 

 

 

190

Начальное состояние х(0)

есть гауссовский

случай­

ный л-вектор с математическим ожиданием

 

Е[х(0)]

= 0

(5-21)

и неотрицательно определенной корреляционной матри­

цей

 

Е[х(0)х'(0)]

= Р(0)

 

 

(5-22)

 

 

 

 

размера пХп.

Предполагается,

что х(0)

не

зависит

от

\w(k),

k = 0, 1

. . . } и {v(k+l),

 

k = 0, 1 . . . } ,

так

что

 

и

 

E[x(0)w'(k)]

= 0

 

 

(5-23)

 

E[x(0)v'(k+l)]

= 0

 

 

(5-24)

 

 

 

 

для любого k = 0, 1 .. .

 

 

 

 

 

 

 

Модель (5-14), (5-15)

имеет

следующие

свойства:

 

1.

Случайные процессы {x(k),

& = 0, 1, . . . } и {z(i),

і =

= 1, ..., /} — гауссовские

с тождественно

равными нулю

математическими ожиданиями.

 

 

 

 

 

2.

 

 

 

 

 

 

 

 

 

E'[x(j)w'{k)]

= 0 для любых

kp>j, / = 0,

1 .. .

(5-25)

3.

 

 

 

 

 

 

 

 

 

E[z(j)w'(k)]

= 0 для любых

/ = 1 , 2 . . .

(5-26)

4.

E[x(j)v'(k)]

= 0

для любых / и k,

(5-27)

 

где / =

0, 1 ...,

a k = 1, 2 .. .

 

 

 

 

 

 

5.

£[z(/)j/(fc)] = 0 для любых А>/,

 

(5-28)

 

 

где /, Ä= 1, 2 —

 

 

 

 

 

 

 

Первое свойство следует из § 4-2 и уравнений

(5-16),

(5-18)

и (5-21).

 

 

 

 

 

 

 

Проверим здесь второе и третье свойства, оставляя проверку четвертого и пятого свойств читателю в каче­

стве упражнения.

 

Из уравнения (4-31)

следует, что

X (j) = Ф (/, 0) X ( 0 )

+ J Ф (/, 0 Г (i, i - 1 ) w(i-1 ) (5-29)

 

f - i

191

для

/ = 1 , 2 . . .

Тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Е [x (/) w' (k)} = Ф (/, 0) Е [x (0) w' (k)} +

 

 

 

 

 

+

S

Ф 0 " . 0 Г ( і , і -

l)E[w(i-

 

l)w'(k)}.

 

 

В силу уравнения (5-23) первое

слагаемое

в

правой

части

этого

выражения

равно

нулю

для любого

k = 0,

1 ... Так как процесс {w(k),

 

& = 0,

1, ... } является

белой

последовательностью, то E[w(il)w'(k)]

= 0

для

всех

кфі—1,

а

поскольку

і = 1 , 2,

...,

/,

то

последнее

слагае­

мое, очевидно, также равно нулю для

всех £ > / 1

или

для k~p*l. Второе свойство доказано.

 

 

 

 

Чтобы

доказать

третье

 

свойство,

заметим,

что из

уравнения

(5-15) следует

соотношение

 

 

 

 

 

 

 

 

 

 

z(j)=H(j)x(j)+v(j)

 

 

 

 

 

 

для

/ = 1 , 2 , . . . , откуда

 

 

 

 

 

 

 

 

 

 

 

 

E[z(i)w'(k)]

= H(j)E[x(i)w'(k)]

 

+

E[v(j)w'(k)}.

 

 

В

силу свойства

(5-25)

 

Пересе

слагаемое

в

правой

части

полученного уравнения

равно

нулю для всех

k^j,

/ = 0,

1, . . . Так как процессы

{w(k),

& = 0, 1 . . . } и {v(k +

+ 1),

k = 0, 1 . . . } независимы, второе

слагаемое

также

равно нулю

для

всех

/ = 1 , 2

... и & = 0, 1 ...,

чем

дока­

зывается

третье

свойство.

 

 

 

 

 

 

 

 

 

 

 

Оптимальное

предсказание

 

 

 

 

 

 

 

Здесь

 

будет

получен

алгоритм

оптимального

 

пред­

сказания

 

x(k\j),

k^>/,

/ =

0,1 ...

и

установлены

некото­

рые

ва кные

свойства

соответствую цей ошибки

 

пред­

сказания

 

x(k\j)

= x(k) — x(k\i).

 

В

частности,

 

здесь

рассматривается

характер

случайного

процесса

 

{x(k\j)\

& =

/ - j -

1, / -j-2 ...}

и

поведение

его корреляционной мат­

рицы

Е[ЩJ/)x'(k

I/)] =

 

P(k\j).

 

 

 

 

 

 

Предположим, что оптимальная текущая оценка (оцен-

ка

фильтрации)

x{fr\j)

 

 

и

корреляционная

матрица

E[x(j\j)x'(j\j)]

 

= P(/[/)

 

размера

п

\ п

соответствующей

ошибки

фильтрации

 

х (/ \і) = х (/) — х (/1 /) известны для

192

некоторого

/ =

0,1...

Процедура

вычисления

л:(/|/)

и

Р(І\І)

для

любого

/ будет

рассмотрена в

следующем

параграфе.

 

 

 

 

 

 

 

 

{x(k),

k =

Из

первого

свойства случайных

процессов

 

= 0, 1

. . . } и

{z(i),

i = l , ...,

/ } , приведенного

выше, и

из следствия 5-1

получаем,

что оптимальная

текущая

оценка

состояния

x(j)

для / = 1 , 2

... имеет

вид:

 

 

 

x(j\j)

=

E[x(j)\z(\),...,z(j)}.

 

 

(5-30)

При / = 0 измерения отсутствуют и из следствия 5-1 вытекает, что

X (0 \ 0) = Е [х (0) I без измерений]

или

х{0\0) = Е[х(О)] = 0.

' (5-31)

Ясно, что X (/1 /) — гауссовский случайный /г-вектор с нулевым математическим ожиданием. Поэтому и ошибка фильтрации

* ( / ! / ) = • * ( / ) - * ( / ! / )

является гауссовским случайным n-вектором с нулевым математическим ожиданием, корреляционная матрица которого P(j\j) предполагается известной. Для / = 0 имеем:

x{0\Q)==x(ö)

x(0)==x{0),

 

так что

 

 

 

Р(0\0)=Е[х(0\0)х'(0\0)]

= Е[х{0)х'(0)]

или

 

 

 

Р ( 0 | 0 ) = Р ( 0 ) ,

(5-32)

где последняя матрица

предполагается

заданной при

описании системы.

 

 

 

Теперь можно доказать следующую теорему, имею­ щую фундаментальный характер для задачи оптималь­

ного предсказания.

 

 

 

Теорема 5-4. Если

оптимальная

текущая

сценка

X (/1 У) и корреляционная

матрица Р (У | У) соответствую-

13—85

193

щей

ошибки

фильтрации

x (/ \j) = x (j) — x (/ \ j)

извест­

ны

для

/ = 0,

І

...,

то для

всех

k>j:

 

 

 

 

 

1) оптимальное

предсказание

x(k\j),

k^>j для

лю­

бой

допустимой

функции

потерь описывается

так:

 

 

 

 

 

 

х(к\і) = Ф(к,і)х(і\і);

 

 

(5-33)

 

2)

случайный

 

процесс

{x (k] j), k =

j +

1 . / +

2,

... },

где

x(k\j) — x(k)

— x(k\j)

— ошибка предсказания,

 

яв­

ляется

гауссовской

марковской

случайной

последователь­

ностью

с нулевым

средним

и корреляционной

матрицей,

удовлетворяющей

 

соотношению

 

 

 

 

 

 

 

 

P{k\j)

= <b{k,j)P<j\j)<è'{k,j)

+

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

- f

£ Ф ( М П и — l ) Q ( i — 1 ) Г ' ( / , / - 1 ) Ф ' ( М ) .

(5-34)

і=і+і

 

 

 

 

 

 

 

 

 

До к а з а т е л ь с т в о .

1.Из следствия 5-1 имеем:

 

 

x(k\j)=[E[x(k)\z{l)

 

г(/)].

(5-35)

С другой стороны, согласно

уравнению

(4-30)

 

 

 

fe

 

 

 

х(/г)=:Ф(к,І)х(і)-{-

S Ф{к,і)Г(і,і-1)т(і-1)

(5-36)

 

 

 

і=/+і

 

 

 

для

k^j+l.

Подставляя

(5-36) в (5-35)

и используя

основные

свойства условного математического ожида­

ния,

получаем:

 

 

 

 

 

x{k\j)

= E

 

k

 

 

 

®(k,i)x(j)+

S

Ф ( М ) П м - 1 ) Х

Xw(i-l)\z(l),...,z(i)

 

:E№(k,j)xU)\z{l),...,z(j)}-r-

 

2

Ф(£,

І)Г(І,

 

i-l)w(i-l)\z{l),...,z(j)

 

' І+1=Ф(к,

j)E[x(i)\2(\):...,z(j)\

+

+

^Ф(к,

і)Г{і,

i-l)E[w(i-l)\z(l),...,zQ)}.

(5-37)

і=І+1

 

 

 

 

 

І94

Заметим, что согласно

уравнению (5-26)

два

множе­

ства случайных

векторов

{w(i1),

i = j+l,

j + 2,

..., k)

и {z(l), ...,

z(j)}

некоррелированы для всех k^j+l.

Так

как каждый

из этих векторов — гауссовский,

то эти два

множества случайных векторов независимы. Следова­ тельно,

 

E[w(i-l)\z(l),

 

 

z(j)]

= E[w(i-\)]

= 0

(5-38)

для

всех

і = / + 1 ,

j + 2,

..., k,

поскольку

процесс

{w(k),

k = 0,

1 . . . } имеет

нулевое

среднее значение.

 

 

Из уравнений (5-30)

и (5-38) ясно,

что уравнение

(5-37) сводится к соотношению

 

 

 

 

 

 

х(к\і)

=

Ф{к,

j)x{j\j)

 

 

 

для всех £ > / .

 

 

и произвольного k>j

 

 

2.

Для

известного

/

в

силу

определения ошибки предсказания, уравнений

(5-33) и

(5-36), а также определения ошибки фильтрации имеем:

 

 

х(к\І)

=

х(к)~х(к\і)

= Ф(к,

j)x(j)

+

 

 

+

S

Ф(к,

І)Ѵ(І,

г î) оу(г_ 1 ) _ Ф ( A ,

j)x{j\i)

=

 

 

i=l+l

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= Ф ( * .

i)x(j\î)+

 

S ф ( ^ .

0 Г ( » . і - І ) ш ( і - І ) .

(5 39)

 

 

 

 

 

(=/ + і

 

 

 

 

 

Ясно,

что

{х(&|/), & = / + 1, ; + 2,

. . . } —гауссовский

процесс

с дискретным временем и нулевым

математиче­

ским

ожиданием.

 

 

 

 

 

 

 

Теперь докажем

марковость процесса. Пусть / — мно­

жество

индексов

времени вида { / + 1 , j+2,

. . . } ,

a

ti<

<h< ...

<tm—m

 

моментов

времени

из /,

где m — про­

извольное целое

число. Тогда из уравнения (5-39)

на

основании свойств переходной матрицы состояния полу­ чим:

 

m

 

х(т\}) = Ф{т, j)x(j\i)-{-

£ Ф(т, і)Г(і,

i-\)w(i-l)=

»= . / + 1

=Ф (m, m 1) Ф (m — 1, /) x{j \ j) - f -}-Ф(та, m) Г (m, m — \)w(m 1) - j -

13*

195

 

 

 

m-i

 

 

 

 

 

 

 

 

 

 

+

£ Ф ( / г е , і)Г(і, i—l)w(i—l)

 

=

 

 

 

 

t=i+\

 

 

 

 

 

 

 

 

— Ф{т,

т—\)Ф(т—\,

 

j)x(j

\ j) -4-Г (m,

m — \)w(m—\)

-f-

 

 

m—l)

m—l

 

 

i)T(i,

i l)w(ß—l)

=

+ Ф ( т ,

£

Ф(от — 1,

 

 

 

І=І+\

 

 

 

 

 

 

 

 

 

=

Ф (m,

m — 1) [Ф {m — 1, j)x

(j \ j)

+

 

 

 

tn—l

 

 

 

 

 

 

 

 

 

+

2

Ф ( о т - 1 ,

О Г(/.

i - l ) t w ( t - l ) ] +

 

 

 

* = / + 1

 

 

m — \)w(m — 1).

 

 

 

 

 

-f- Г (от,

 

 

Замечая,

что

в

силу уравнения

(5-39)

выражение

в квадратных скобках равно х(т—1|/),

 

имеем:

 

х(т\})

=Ф(т, m—\)x(m-~\\j)+Y(m,

 

m—\)w(m—\),

откуда сразу следует марковость процесса. Следователь­

но, {x(k\j),

k = j+l,

j + 2, . . . } представляет

собой

гаус­

совский марковский

процесс.

 

 

Вновь

обратимся

к уравнению (5-39),

чтобы

найти

выражение для корреляционной матрицы ошибки пред­ сказания

 

 

P(k\j)=E[x(k\j)x'(k\j)].

 

 

 

Согласно определению ошибки

фильтрации

 

E [x (j \ j) W

{І-\)]

=

Е {[x (j) - x

(/ j /)] w' (i - 1)}

=

=

E[x

(j) W (i -

1)] - E Çx (j I /) W (i -

1)],

 

где i = j+ï,

j + 2,

k.

Из уравнения (5-25)

следует,

что

первое слагаемое в правой части этого выражения тож­ дественно равно нулю для рассматриваемых значений і.

Далее, так как оценка ж(/|/) является линейной комби­ нацией измерений, то ее можно записать в виде

*(/|/) = IM(/)z(/),

і=і

аналогичном (5-12). Следовательно,

E [x (j I j) W (i - 1)] = t A (0 E [z (/) W (i - 1)].

196

Это выражение, как следует из уравнения (5-26), об­ ращается в нуль для всех i = j+l, / + 2, ..., k. Следова­ тельно,

E[2(j\j)w'(i-l)]

= 0

для всех i = j+l, j + 2, ..., k.

Это означает, что все сме­

шанные члены, возникающие в выражении для матема­ тического ожидания от произведения матрицы в правой части уравнения (5-39) на транспонированную матрицу, обращаются в нуль. Следовательно,

 

 

Р {k j j) = Ф (k,

j) Е [x{j

j j) x' (j

I /)] Ф' {k,

j)

+

 

 

k

 

 

 

 

 

 

 

 

 

 

- f

£ Ф(£, i)V(i,

i— l)E\w{i

1)ш'(t — 1)]X

 

 

 

Х П ' .

i - ! ) ф ' (k,

i),

 

 

 

где использовано равенство

 

 

 

 

 

 

 

 

 

E[w(j)w'(k)]

= 0,

 

 

 

 

справедливое

для \фк.

Вычисляя

математические ожи­

дания,

получаем:

 

 

 

 

 

 

 

 

 

 

P(k\j)=q>{k,

i)PU\i)®'(k,

i)

+

 

 

+

t

Ф(к,

i)V(i,

i-l)Q(i-l)T'(i,

 

і-1)Ф'(к,

i)

 

i=l+\

 

 

 

 

 

 

 

 

 

для k>j. Теорема доказана.

 

 

 

 

 

 

Приведем,

кроме

уравнения (5-34), другое

выраже­

ние для корреляционной

матрицы

ошибки

предсказания

 

 

.P(k\j)=<b(k,

k—l)P(k—l\j)0'(k,

k—\)

+

 

 

 

+ T(k, k—\)Q(k—\)T'(k,

 

k—1)

 

(5-40)

при

k—j+\,

j + 2 ...

Доказательство этого

результата

оставлено читателю в качестве упражнения.

 

 

Заметим,

что теорема 5-4

пока

имеет

ограниченную

область применения, если речь идет о предсказании, по­ скольку единственным значением /, для которого изве­

стны x(j\j)

и P(j\j),

 

является / = 0.

Точнее

согласно

уравнениям

(5-31)

и

(5-32) * ( 0 | 0 ) = 0

и Я (0|0 )

=Р(0),

так что

 

 

 

 

 

 

х{Іі\0)

=

Ф{!г, 0)х{0\0) =

0;

 

k

Р(к}0) = Ф(к, 0)Р(0)Ф'(6,

0) +

 

 

 

 

і—1)Ф'{к,

і).

+ Ц Ф ( 6 .

 

г — l ) Q ( t - 1 ) Г ' ( / ,

і=і

197

Частным

случаем

предсказания,

заслуживающим

особого внимания, является

одношаговое

оптимальное

предсказание,

в котором рассматривается оптимальная

оценка вида

x(k+\\k),

k = 0,

1 .. . Как будет видно из

дальнейшего, эта оценка чрезвычайно полезна при вы­ воде уравнений оптимальной фильтрации. Сформулиру­ ем результат в виде следствия к теореме 5-4.

Следствие

5-2. Если

оптимальная

текущая

 

оценка

x(k\k)

и корреляционная

матрица

P(k\k)

соответствую­

щей

ошибки

фильтрации

x(k\k)=x(k)—x(k\k)

 

 

 

известны

для

некоторого

k = 0,

1, ...,

то:

 

 

 

 

 

 

 

 

1)

одношаговое

оптимальное

 

предсказание

 

для

лю­

бой

допустимой

функции

потерь

описывается

соотноше­

нием

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

£ ( А + 1 | А ) =

Ф ( £ + 1 ,

k)x{k\k);

 

 

 

(5 - 41)

2)

случайный

 

процесс

{x(k-\-\\k),

k — 0,

1

. . . } ,

где

x (k +

11 k) — x (k - f - 1 ) — x (k -f- 1, k) — ошибка

 

одношаго-

вого

предсказания,

является

гауссовской

марковской

по­

следовательностью

с

нулевым

математическим

 

ожида­

нием

 

и корреляционной

матрицей

вида

 

 

 

 

 

 

 

Я ( & + 1 | £ ) = Ф ( £ + 1,

k)P{k\k)0'(k+\,

k)

+

 

 

 

 

 

+

T(k + l, k)Q(k)r(k+l,

 

k).

 

 

 

(5 - 42)

Д о к а з а т е л ь с т в о .

Доказательство

сразу

 

следует

из теоремы 5-4, если

заменить

в ее утверждении

индекс

k на k+1, а индекс / на k.

 

 

 

 

 

 

 

 

 

 

Как и теорему 5-4, следствие

из нее едва

ли

можно

непосредственно

 

использовать

для

предсказания,

по­

скольку пока

известны только % ( 0 | 0 )

и Р (010).

Поэтому

в следующем параграфе рассматривается решение зада­ чи оптимальной фильтрации, где также будет показано, что предсказание и фильтрация взаимозависимы в том смысле, что фильтрация проводится по данным пред­ сказания и наоборот. Последнее утверждение уже оче­

видно из уравнений (5-33) и

( 5 - 4 1 ) .

Теорема 5-4 и следствие

5-2 принадлежат Калману

[ Л . 5-6, 5-7].

 

198

5-3. ОПТИМАЛЬНАЯ ФИЛЬТРАЦИЯ В ДИСКРЕТНЫХ ЛИНЕЙНЫХ СИСТЕМАХ

При синтезе алогоритма оптимальной фильтра­ ции для системы (5-14), (5-15) предположим, что изве­ стны только оценка начального состояния %(0|0)=0, корреляционная матрица ошибки фильтрации в началь­

ный

момент

 

времени

Р ( 0 | 0 ) = £ [ Ж ( 0 | 0 ) х ' ( 0 | 0 ) ] =

= Е[х(0)х'(0)]

= Р(0), и

множество

измерений {2 (1), . . .

..., z(k),

z(k+\)},

где k — неотрицательное

целое

число.

В силу следствия 5-1 оптимальная текущая

оценка

определяется с помощью

соотношения

 

 

 

 

 

X (k +

1 I k - f 1 ) =

Е [X (k

- f

1) I z (1)

 

z (k),

z(k-\-

1)].

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(5-43)

С другой стороны, из уравнений

(3-50)

и

(3-51) сле­

дует, что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

E\x{k+\)\z{\),

 

z{k),

z ( * + l ) ] =

 

 

 

 

s=E[x(k + \) | z ( l ) , .... z(k),

z(k

+ l\k)]

=

 

 

 

 

 

= E[x(k+\)\z(\),

 

 

z(k)]

+

 

 

 

 

 

 

 

 

+ E[x(k + \)\ï(k

+ \\k)]

 

 

 

(5-44)

для

& = 0,

1, ..., где

 

 

 

 

 

 

 

 

 

 

z(k

+ l\k)

= z(k+l)—E[z(k+l)

 

| z ( l ) ,

...,

z{k)}.

В уравнении (5-44) использован тот

факт, что про­

цесс

{x(k),

/г = 0,

1 . . . }

имеет

нулевое

математическое

ожидание.

 

 

E[z(k+\)\z(\),

 

...,

z(k)]—

 

 

 

Очевидно,

что

 

 

оптималь­

ное

предсказание

z(k+\)

 

при

известных

измерениях

{z(l),...,z(k)}:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

z{k + l\k) = E[z(k

+ l)\z(l),

... ,z{k)}.

 

(5-45)

Тогда выражение

 

 

 

 

 

 

 

 

 

 

 

 

 

z{k+l\k)=iz{k

+ \)~z(k+\\k)

 

 

 

 

(5-46)-

есть разность между истинным и предсказанным

изме­

рением

в

момент

/г + 1. Эту

разность

чаще

всего

назы­

вают невязкой

измерения.

 

 

 

 

 

 

 

 

Соседние файлы в папке книги из ГПНТБ