Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Медич Д. Статистически оптимальные линейные оценки и управление

.pdf
Скачиваний:
86
Добавлен:
25.10.2023
Размер:
13.81 Mб
Скачать

Это просто означает, что f(x, t\x, x)—дельта-функция Дирака. Полученный результат не является неожиданным, поскольку знание

х(х) позволяет точно определить х(1)

для всех

t^x^O.

Так

как x(t)—гауссовская

'Случайная величина,

ее можно пол­

ностью

характеризовать

математическим

сжиданием

и дисперсией.

В частности,

 

 

 

 

 

 

 

*(/) = £

 

J =

0.

 

 

Р (t) = Ё {[x (t) -

x (t)]2}

= Е у

Г х2(0)

И

2

{t_^

()2

=

 

откуда

следует, что

 

 

 

 

 

 

Пример 4-8. Предположим, что {xi(t), г^гО}—скалярный про­ цесс и х\=0, причем Хі(0) и хі(0) имеют совместное гауссовское рас­ пределение. Заметим, что

xl(l)=xl(0)+£i(0)f.

Поэтому І(І), t^O}, очевидно, является гауссовским процессом.

Рассмотрим три момента времени ^ з > ^ 2 > ^ і ^ 0 и покажем, что рассматриваемый процесс является марковским второго порядка:

х, ( < , ) = х , (0) + і , (0) t3;

x, (f,) = x, (0) + х, (0)

x, (*,) = х, (0) + х, (0) U.

Вычитая второе соотношение из первого, получаем:

x, ( / , ) - х , (*,) = (*, - *, ) x, (О)

или

Хг (/,) = Х, (*,) + (*, - *, ) X, (0).

Аналогично

Хі(*2 ) xl(t1) = (tz~ h)xi(Q).

Из последнего соотношения имеем:

 

• , m

x, (fa ) — x.

(^)

,

 

 

 

X! (0) =

г — t

 

 

 

откуда следует, что

 

 

 

 

 

 

X, (М =

x, (fs ) +

г т г г І Х і С") ~

Х і

 

Величина Хі(^з)

определена, если

известны

xi(h) и хі(^і).

В общем случае

 

 

 

 

 

 

({хтт-^

 

^ ) = f ( x « l x « l - i ,

x m

= 2 )

и процесс является марковским второго порядка.

140

Тот факт,

что процесс {лч(/),

1^0} не просто марковский, сле­

дует из того,

что он определяется

соотношением .ïi = 0, т. е. диффе­

ренциальным уравнением второго порядка, для решения которого не­ обходимо знание двух постоянных интегрирования. Иными словами,

для того чтобы определить будущие значения

величины x(t), требует­

ся знать ее значения в два предшествующих

момента

времени.

Рассмотрим теперь случайный

процесс {x(t), t^O},

где

X,

(t)

х,

(t)

 

x(t)-

(0

М О

 

X ,

 

Случайный процесс является теперь двумерным и состоит из координат «положения» и «скорости» исходного процесса. Ясно, что

x(t)

= Xi (0

I X , (0) + X , (0) t\

 

 

Так как x(t),

 

 

*2

(t)

\

 

X , ( 0 )

I

 

 

очевидно, гауссовский

двумерный

вектор, то рас­

сматриваемый процесс — гауссовский.

Кроме того,

для

І2>іі^0

X (f,)

=

X ,

(0) +

X ,

(0)

t t

хх

Vi)

 

 

 

X ,

(0)

 

 

 

 

 

 

 

 

 

 

 

 

*2

('s )

 

 

X(t,)

 

 

X,

(0) : +

X ,

(0) /,

 

 

 

 

 

 

 

 

(0)

 

 

M ' i )

 

 

 

 

 

 

X ,

 

 

 

 

Следовательно,

при известном

x(ti)

 

отсюда

можно

получить:

X

(/,)

 

=

 

 

х 2

(<і)

 

 

 

 

 

 

 

 

 

 

 

 

Иными словами, х(<2 ) можно определить, зная х(<і), а это зна­ чит, что {x(t), t^0} является не только гауссовский, но и марков­ ским процессом. Здесь показано, как гауссовский марковский про­ цесс второго порядка можно «свести» к гауссовскому марковскому процессу, «расширяя» размерность вектора состояния. Эта процедура окажется полезной в дальнейшем.

4-2. МОДЕЛЬ С Г А У С С О В С К О Й М А Р К О В С К О Й ПОСЛЕДОВАТЕЛЬНОСТЬЮ СОСТОЯНИЯ

На основании изложенного можно перейти к рас* смотрению первой модели системы. Рассмотрим отдель­ но описание динамики системы и схемы измерения. При построении каждой из двух частей модели будет обсу­ ждаться, насколько эта часть модели подходит к кон­ кретный физическим ситуациям. В заключение парагра* фа приводится краткое исследование модели с гауссов-

ской марковской последовательностью второго порядка.

141

Динамика системы

 

Пусть {w(k), k^I), где / =

= О, 1, . . . } , есть

р-мерная гауссовская белая последовательность с мате­ матическим ожиданием

 

 

E[w(k)]

=

w(k)

 

 

и матричной корреляционной

функцией

 

 

 

Е {[w (/) -w (/)] [w (k) -w

(k)]'} = Q(k)

öjk,

(4-26)

заданными для всех /, k = 0,

1,

где о д символ Кро-

некера;

Q(k)—неотрицательно

 

определенная

матрица

размера

рХр.

Далее, пусть

х(0)—гауссовский

 

случай­

ный /г-вектор

с известными

математическим

ожиданием

Е[х(0)]=х(0)

и неотрицательно определенной корреляционной мат­ рицей

 

 

 

Е {[x (0) - x (0) ] [x (0) - x

(0) ]'} = Р (0)

 

 

 

размера

пХп.

Предполагается,

что {w(k),

k^I}

не зави­

сит от х(0), так что

 

 

 

 

 

 

 

 

 

 

 

Е {[х (0) —x (0)][w

(k) —w (k)]'} = 0

 

(4-27)

для

всех

 

 

 

 

 

 

 

 

 

 

 

В качестве модели динамики рассмотрим систему

уравнений

 

 

 

 

 

 

 

 

 

 

 

 

x(k+\)=0(k+\,

k)x(k)

+ Г ( Л + 1 ,

k)w{k)

 

(4-28)

для

kŒÎ,

где

x — n-вектор состояния;

Ф ( & + 1 ,

k)—пе­

реходная

матрица

состояния

 

размера

пХп;

w —

 

р-век-

тор

возмущения системы; T(k+l,

k) — переходная

мат­

рица

возмущения

размера

пХр,

причем

{w(k)~

 

k = 0,

1, . . . } и х{0)

имеют свойства,

перечисленные

выше.

г Д л я простоты

пока не учитывается

возможное

 

вход­

ное управляющее воздействие, т. е. слагаемое W\k+1,

kx

Xu(k),

где и — г-вектор управления, a W(k + l,

k)—пе­

реходная матрица

управления

размера

пХг. Этот вопрос

подробно исследуется позднее в связи с уточнением модели.

Структурная схема модели показана на рис. 4-4, где подразумевается, что в каждом «цикле» работы системы 142;

входное воздействие w(k), k = 0, 1, . . . является некото­ рой выборочной функцией гауссовской белой последо­

вательности {w{k), fe = 0,

1, . . . } , а вектор начальных

условий х(0)—некоторая

выборка из множества векто­

ров начальных условий, распределенных по гауссовско-

му закону. Эта модель имеет вид, аналогичный

модели

из §

2-3, за исключением того,

что х(0) и

w(k)

теперь

имеют конкретное вероятностное

описание.

 

 

 

Г(к+1,к)

 

 

х('к+1)

w(k)

 

 

 

 

 

х(к)

S3

 

 

Ф(М,к)

 

Рис. 4-4. Модель динамики дискретной линейной системы.

 

Очевидно, {х(k), k<=I} является случайным

процес­

сом. Докажем, что он представляет собой гауссовскую марковскую последовательность, и дадим два способа

описания

процесса.

 

 

 

 

 

 

 

Вначале покажем, что этот процесс

марковский.

Пусть

4 < 4 < . - . < ^ т

любые

m моментов

времени

из /,

'

*/

h

 

U

tm-,

 

tm

 

lt\

- I — I

1

L _ .

. . . M i l

. . .

_ |

i _ L . . .

J

I

 

0 I

2

3

j

• . •

к

,к+1 •••

/

Рис. 4-5. Множество индексов / и произвольное множество упорядо­ ченных моментов времени {t{-.i=l m; ^ < / 2 < • • • <tm}.

где m — произвольное целое число. Кроме

того, пусть k

и у целые числа из /, соответствующие

моментам вре­

мени tm и Гт_і. Эту ситуацию можно проиллюстрировать

на рис. 4-5, откуда видно, что, вообще

говоря, в / могуг

быть точки, лежащие между моментами времени UK

<t2<.--<tm,

а также

вне интервала

времени, ограни­

ченного этими

точками.

 

 

 

Из уравнения (4-28)

ясно,что

 

 

х ( / + 1 ) = Ф ( / + 1 , / ) * ( / ) + П / + 1 ,

j)w(j);

* ( / + 2 ) = Ф ( / + 2, / + 1 ) * ( / + 1 ) + Г ( / + 2,

 

Подставляя первое выражение во Второе и группи­ руя члены, получаем:

*(/ +

2) = Ф(/ + 2,

/ +

1)[Ф(/ + 1,

j)x(j)

 

+

 

+ Г(/+1,

/)ш(/)] +

Г(/ +

2,

/ +

1)ш(/+1)=*

 

*=Ф(/4-2,

/)х(/) +

Ф(/ +

2,

/+1)Г(/ + 1,

j)w(j)

+

+ Г(/ +

2, /+1)о,(/+1) =

Ф(/ +

2, j)x{j)

+

 

 

І + 2

Ф(/ + 2, О Г (/,

 

 

 

1),

 

 

 

+

S

 

t -

 

 

 

 

 

і = / + і

 

 

 

 

 

 

 

 

 

 

 

 

где

 

 

2, / ) Д Ф ( / +

2, /+1)Ф(/ + 1,

/).

 

Ф(/ +

 

Продолжая

преобразования

аналогичным

образом,

получаем общее соотношение

 

 

 

 

 

 

 

 

хЦ

+ п) =

Ф(] + п, /)•*(/)

+

 

 

 

 

j + n

 

 

 

 

 

 

 

 

 

 

 

 

+

S

 

Ф 0 4 - ». Ог

0>

і -

1 ) о» (і -

 

I ),

(4-29)

где п = 1, 2,

. . . , причем

 

 

j + n— 1)І....Ф(/+1, t)

 

Ф(} + п,

i)=<b(j

+ n,

 

для і = /, / +

 

. . . , / + «.

 

 

 

 

 

 

 

 

 

 

Для j + n=,k очевидно, что

 

 

 

 

 

 

 

 

 

 

я ( £ ) = Ф ( £ ,

 

+

 

 

 

 

 

+

 

2

Ф(£, 0 ГО', «— 1)а»(*-—

 

 

(4-30)

 

/ = /

+ і

 

 

 

 

 

 

 

 

 

 

 

Вспоминая,

что k соответствует tm,

а / — tm-i,

из

уравнения (4-30) получаем, что условная функция рас­

пределения вероятностей x(tm)

при условии

известного

набора значений x(tm-i),

 

x{tm-2),

 

x(t2),

x(ti)

зави­

сит только от x(tm-i).

 

Поскольку

это справедливо для

любых от моментов

времени

ti<t2< ...

<tm,

 

где m —

произвольное целое число, процесс {x(k),

kel],

очевид­

но, марковский.

 

 

 

 

 

 

 

 

 

 

 

 

Нетрудно

показать, что этот процесс

является также

гауссовским. Полагая

в уравнении

(4-30) / = 0, получаем:

x(k) = <$>{k,

 

 

k

 

 

 

 

 

 

 

i-\)w{i-\).

0) * (0) +

£

Ф (fc, і) Г (/,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(4-31)

144

Поскольку

х(0)

и

все to (г— 1), і'=1,

k

по пред­

положению являются

гауссовскими,

то

отсюда

следует,

что вектор

x(k)

также

гауссовский для

всех

& = 0, 1,

так

какой

представляет собой просто сумму

гауссов-ских

случайных

векторов. Следовательно, для любого целого

m и произвольного

набора

моментов

времени

t,i, h, ...

..., <tmŒl

соответствующий набор случайных п-векторов

x(t\),

x(t2),

 

x(tm)

 

имеет

совместное

гауссовское рас­

пределение, что и доказывает утверждение.

Теперь приведем два возможных способа описания процесса. Из уравнения (4-25) известно, что совместная плотность распределения гауссовской марковской после­

довательности {x(k),

k^I}, где

/ = {/е:/г = 0,

1,

. . . } пол­

ностью определена

для всех k(=I, если известны

ее гаус-

совские

плотности

распределения

f[x(0)]

и

f[x{k

+

+ \)\x(k)],

причем

последняя

для

всех /геА.

Так

как

л;(0) является гауссовский случайным вектором с мате­

матическим ожиданием

х(0)

и корреляционной

матри­

цей Р(0), плотность

распределения

f[x{Q)]

 

определена1 .

При

известном

x(k)

из

уравнения (4-28)

следует:

 

E[x(k+l)\x(k)]

= <b(k+l,

 

k)x(k)+T(k+l,

 

 

k)w(k).

 

 

 

 

 

 

 

 

 

 

 

 

(4-32)

Тогда

 

 

 

 

 

 

 

 

 

 

 

X {k -f- 1 ) -

Е [х (k - f 1 ) IX (k)} = Ф (k - f 1,

k)x(k)

+

 

- f T(fe-f 1, k)w(k)

Ф(£ +

1,

 

k)x(k)-

 

 

— Г ( £ + 1 , k)iô(k)

=

r(b-\-l,

 

k)[w(k)-w(k)\.

Следовательно,

условная

корреляционная

матрица

имеет вид:

 

 

 

 

 

 

 

 

 

 

 

 

E[{x(k+ï)—E[x(k+\)\x(k)]}{x(k+\)

 

 

 

 

 

 

—E{x(k+l)

\x(k))Y]

= E{T(k+

1, k)[w(k)

 

 

—w(k)][w(k)—w(k)]T'(k+l,

 

k)}

=

 

 

 

 

= Г(/г + 1, k)Q{k)V{k+l,

 

k).

 

 

(4-33)

Условная

плотность

распределения

 

вероятностей

определяется

условным

математическим

 

ожиданием

(4-32) и условной корреляционной

матрицей

(4-33).

Если

матрица

Г(&+1,

k)Q(k)T'(k+1,

 

k)

сингулярна, го

1

Для этого требуется,

чтобы

матрица

Р

(0)

была

положитель­

но определена. Если это не так, то следует проводить описание про­ цесса с помощью характеристической функции.

10—85 145

следует описывать процесс с помощью условной харак­ теристической функции.

Во втором способе описания іауссовость и марко­ вость процесса используются с целью получения удоб­ ных соотношений для математического ожидания и кор­

реляционной

матрицы.

 

 

 

 

 

 

 

 

 

Полагая

 

E[x(k)]

= x(k),

из уравнения

(4-28)

имеем:

 

 

x{k+l)=0(k+l,

 

k)x(k)+T(k+l,

 

 

k)w{k)

(4-34)

для

всех

 

 

Так как х(0)

и w{k),

 

 

даны,

уравне­

ние (4-34) является

рекуррентным

соотношением для

математического

ожидания

случайной

 

последователь­

ности.

 

 

 

 

 

 

 

P(k)=E{[x(k)—x(k)][x(k)—x(k)]'},

 

Далее,

полагая

 

 

из уравнений (4-28),

(4-34)

и (4-26)

получаем, что

 

P ( * + l ) = £ { [ * ( * + l ) - * ( f e + l ) ] [ * ( * + l ) -

 

-

x (k +

I)]'} =

Е ({Ф (k + 1,

k) [x(k)

-

x (k)]

+

 

+

Г ( £ + 1 ,

k)[w(k)-w(k)]}{4>(k

 

+

l,

 

k)[x(k)-

 

 

-

x (k)} +

V(k

- f 1,

k) [w (k) -

w (k)}}')

=

 

 

 

 

=

Ф(£ +

1,

ЩР(к)Ф'{к+\,

k)

+

 

 

 

 

+

Ф(£ +

1,

 

 

k)E{[x(k)-x(k)]\w(k)-

 

 

-w(k)]'}T'(k

 

+

l,

k) +

F(k+l,

 

 

k)E{[w(k)-

 

 

-ѵ(к)}[х(к)-х(к)У}Ф'(к+1,

 

 

 

k)-\-

 

 

 

 

 

+

Г(£ +

1, k)Q(k)T'(k

+

l,

k),

 

(4-35)

где

два средних

слагаемых

еще

требуется

определить.

Поскольку одно из этих слагаемых получено транспо­ нированием второго, достаточно рассматривать только одно из них.

 

Вычитая

почленно уравнение

(4-34)

из уравнения

(4-28), получаем:

 

 

 

,

x{k+l)^x(k

+ l)=(b(k+l,

k)[x(k)—x(k)]+

 

 

 

+ Г ( А + 1 ,

k)[w{k)—w{k)l

 

'

Вводя

обозначения

x(k)=x(k)—x(k)

и w(k) —

= w(k)—w(k),

 

это выражение можно записать в .виде

 

x(k+l)=0(k+l,

k)x(k)+T(k

+ l,

k)w(k)

для k=0, I ...

 

 

 

 

.146

По аналогии с уравнением (4-31), имеем:

х > ) =

Ф(£,

0)х(0) +

 

 

k

 

і) Г (г,

с 1) Si (і - 1).

 

+ Ц

Ф

(4-36)

і=і

 

 

 

 

 

.Умножая уравнение (4-36)

почленно

справа на

w'(k)

и усредняя полученное выражение, получаем--

 

E[x(k)w'

{Щ=Ф{к,

0) Е [ х(0)

w' (k)] -f-

 

k

 

 

 

 

 

+ £ Ф(6, г) Г (г,

і—

 

 

 

Ясно, что процесс (й5(&), & = 0, 1 . . . } является гауссовской белой последовательностью с нулевым средним, независимой от гауссовского случайного n-вектора х(0). Это значит, что

 

всех іï^=k

E[w(i—l)w'(k)]

= 0

 

 

 

для

и

 

 

 

 

 

 

 

£[Ж(0)Й7'(А)] = 0

 

 

 

для всех k = 0, 1 ... Следовательно,

 

 

 

 

E{x{k)w'{k)]

= E{[x{k)~

x{k)][w{k)—

W(k)]'}

= 0

для

всех & = 0,

1 ... Это означает, что

второе

и третье

слагаемые в уравнении (4-35) равны нулю и

уравнение

принимает вид:

 

 

 

 

 

 

 

P(k+\)

= 0(k+l,

k)P(k)Q>'{k+l,

k)

+

 

 

+ Г (k + 1, k) Q (k) Г' (k + 1, k)

 

(4-37)

для

& = 0, 1 ... Так как матрицы

Я(0)

и Q(k)

 

известны,

причем последняя для всех k = 0, 1,

уравнение (4-37)

является рекуррентным матричным уравнением для кор­

реляционной

матрицы -последовательности.

 

Для каждого значения k характеристическую функ­

цию последовательности можно представить в виде

?x(s,

k) — ехр

jx'(k)s

~s'P(k)s~\,

 

где s tt-вектор.

 

 

 

Использование здесь P{k)

может показаться

чрез­

мерным упрощением,

поскольку процесс {x(k),

&е/}

10*

147

является гауссовским и для его описания требуется мат­ ричная корреляционная функция P(k, / ) , а не P{k). Чтобы обосновать приведенное здесь описание, покажем,

что

знания матрицы P{k)

достаточно для

определения

 

По аналогии с уравнением (4-30) имеем:

 

 

 

 

k

 

 

x{k) =

<è{k, / ) * ( / ) +

Ц

Ф(*. /)Г(г,

i—\)w{i~\)

для

k >• /.

Отсюда ясно,

что

 

 

+

S Ф(*. і)Г(і,

t - l ) £ t œ ( i - l ) 3 c ' ( j ) l .

 

 

/ = / + і

 

 

 

Заменяя в уравнении (4-36) k на /, транспонируя обе части полученного уравнения, умножая их слева на wii1) и усредняя, получаем:

Е [w іі -1)х'

(/)] = Е [w іі

-1)х'

(0)] Ф' (/, 0)

+

+

£

E[wii-

\)w'il~

\)}Y'il,

/ _ 1 ) Ф ' ( / ,

/).

Как и ранее, E[wii1)Ж'(0)]

= 0

для

всех і = 1 , 2, ...

Кроме

того,

индекс і здесь

 

принимает

значения

1 + 2, ...,

k.

Следовательно,

 

 

 

 

 

 

 

 

 

E\0ii—\)w'il—1)]

 

= 0

 

 

для рассматриваемых значений г и /. Поэтому £ [ й ? ( » - 1 ) Г ( / ) ] = 0.

Это значит, что выражение для Pik, j) сводится к

Pik, j)=Oik, })РЦ),

откуда ясно видно, что для описания случайной после' довательности достаточно знать ее корреляционную матрицу.

Короче

говоря, гауссовость случайной

последователь-

ности

(x(k),

kŒl}

требует для ее описания знания пары

[xik),

Pik,

f); k,

J Œ I } . Марковость позволяет свести это

требование к определению {x(k)t Pik),

ksi}.

148

Уравнение (4-37) можно интерпретировать как опи­ сание изменения во времени степени неопределенности системы, поскольку корреляционная матрица характе­ ризует меру отклонения распределения случайного со­

стояния системы

x(k) от его математического ожидания.

В силу этой

интерпретации уравнения (4-37), второе

из приведенных описаний гауссовской марковской после­

довательности

будет

играть

преобладающую

роль во

всей дальнейшей работе.

 

 

 

 

Модель легко обобщить, включив в нее управляющее

воздействие:

 

 

 

 

 

 

x(k

+ l)=<D(k+l,

k)x{k)+V{k+\,

k)w(k)

+

 

 

 

+ W(k+l,

k)u(k),

 

 

где слагаемое

^(k+l,

k)u(k)

описано ранее.

В

пред­

положении, что

управляющая

последовательность

{u(k);

k = 0, 1 . . . } известна

или может быть сформирована по

желанию,

случайный

процесс

{x(k)\

& = 0, 1,

. . . } вновь

является

гауссовской

марковской

последовательностью.

Это следует из того, что присутствие известного управ­ ляющего воздействия просто добавляет детерминирован­ ную составляющую ко входному сигналу системы и,

следовательно, воздействует

только на

математическое

ожидание процесса

{x(k),

/> = 0, 1,

. . . } .

Тогда

 

x(k+l)

= 0(k

+ \,

k)x{k)+T(k

+ \,

k)w(à)

+

 

 

+ W(k+l,

k)u(k)

 

 

для k = 0, 1

... Поэтому

 

 

 

 

 

x(k+\)—x(k+l)=0(k+l,

 

 

k)[x(k)—x(k)]

+

 

+ Г ( Л + 1 ,

 

k){w{k)—w{k)l

 

откуда ясно, что корреляционная матрица последова­ тельности остается той же вне зависимости от того, имеется ли на входе системы известное управляющее воздействие.

При определении условного математического ожида­ ния, используя знание управляющего воздействия, по­ лучаем:

E[x(k+\)\x{k),

и( £ )]= . ф(А+1,

k)x(k) +

+ V(k + \,

k)ïo(k)+4f{k+\t

k)u(k),

где k — 0, 1 . . . Условная корреляционная матрица имеет тот же вид, что и раньше.

149

Соседние файлы в папке книги из ГПНТБ