книги из ГПНТБ / Медич Д. Статистически оптимальные линейные оценки и управление
.pdfЭто просто означает, что f(x, t\x, x)—дельта-функция Дирака. Полученный результат не является неожиданным, поскольку знание
х(х) позволяет точно определить х(1) |
для всех |
t^x^O. |
|||||
Так |
как x(t)—гауссовская |
'Случайная величина, |
ее можно пол |
||||
ностью |
характеризовать |
математическим |
сжиданием |
и дисперсией. |
|||
В частности, |
|
|
|
|
|
|
|
|
*(/) = £ |
|
J = |
0. |
|
|
|
Р (t) = Ё {[x (t) - |
x (t)]2} |
= Е у |
Г х2(0) |
И |
2 |
||
{t_^ |
()2 |
= |
|
||||
откуда |
следует, что |
|
|
|
|
|
|
Пример 4-8. Предположим, что {xi(t), г^гО}—скалярный про цесс и х\=0, причем Хі(0) и хі(0) имеют совместное гауссовское рас пределение. Заметим, что
xl(l)=xl(0)+£i(0)f.
Поэтому {ХІ(І), t^O}, очевидно, является гауссовским процессом.
Рассмотрим три момента времени ^ з > ^ 2 > ^ і ^ 0 и покажем, что рассматриваемый процесс является марковским второго порядка:
х, ( < , ) = х , (0) + і , (0) t3;
x, (f,) = x, (0) + х, (0)
x, (*,) = х, (0) + х, (0) U.
Вычитая второе соотношение из первого, получаем:
x, ( / , ) - х , (*,) = (*, - *, ) x, (О)
или
Хг (/,) = Х, (*,) + (*, - *, ) X, (0).
Аналогично
Хі(*2 ) —xl(t1) = (tz~ h)xi(Q).
Из последнего соотношения имеем:
|
• , m |
x, (fa ) — x. |
(^) |
, |
|
|
|
X! (0) = |
г — t |
|
|
|
|
откуда следует, что |
|
|
|
|
|
|
X, (М = |
x, (fs ) + |
г т г г І Х і С") ~ |
Х і |
|
||
Величина Хі(^з) |
определена, если |
известны |
xi(h) и хі(^і). |
|||
В общем случае |
|
|
|
|
|
|
({хт\хт-^ |
|
^ ) = f ( x « l x « l - i , |
x m |
= 2 ) |
||
и процесс является марковским второго порядка.
140
Тот факт, |
что процесс {лч(/), |
1^0} не просто марковский, сле |
дует из того, |
что он определяется |
соотношением .ïi = 0, т. е. диффе |
ренциальным уравнением второго порядка, для решения которого не обходимо знание двух постоянных интегрирования. Иными словами,
для того чтобы определить будущие значения |
величины x(t), требует |
|||
ся знать ее значения в два предшествующих |
момента |
времени. |
||
Рассмотрим теперь случайный |
процесс {x(t), t^O}, |
где |
||
X, |
(t) |
х, |
(t) |
|
x(t)- |
(0 |
— М О |
|
|
X , |
|
|||
Случайный процесс является теперь двумерным и состоит из координат «положения» и «скорости» исходного процесса. Ясно, что
x(t) |
= Xi (0 |
I X , (0) + X , (0) t\ |
|
|
|||||||
Так как x(t), |
|
|
*2 |
(t) |
\ |
|
X , ( 0 ) |
I |
|
|
|
очевидно, гауссовский |
двумерный |
вектор, то рас |
|||||||||
сматриваемый процесс — гауссовский. |
Кроме того, |
для |
І2>іі^0 |
||||||||
X (f,) |
= |
X , |
(0) + |
X , |
(0) |
t t |
— хх |
Vi) |
|
|
|
|
X , |
(0) |
|
|
|
|
|
|
|||
|
|
|
|
|
|
*2 |
('s ) |
|
|
||
X(t,) |
|
|
X, |
(0) : + |
X , |
(0) /, |
|
|
|
|
|
|
|
|
|
(0) |
|
|
M ' i ) |
|
|
||
|
|
|
|
X , |
|
|
|
|
|||
Следовательно, |
при известном |
x(ti) |
|
отсюда |
можно |
получить: |
|||||
X |
(/,) |
|
= |
|
|
х 2 |
(<і) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
Иными словами, х(<2 ) можно определить, зная х(<і), а это зна чит, что {x(t), t^0} является не только гауссовский, но и марков ским процессом. Здесь показано, как гауссовский марковский про цесс второго порядка можно «свести» к гауссовскому марковскому процессу, «расширяя» размерность вектора состояния. Эта процедура окажется полезной в дальнейшем.
4-2. МОДЕЛЬ С Г А У С С О В С К О Й М А Р К О В С К О Й ПОСЛЕДОВАТЕЛЬНОСТЬЮ СОСТОЯНИЯ
На основании изложенного можно перейти к рас* смотрению первой модели системы. Рассмотрим отдель но описание динамики системы и схемы измерения. При построении каждой из двух частей модели будет обсу ждаться, насколько эта часть модели подходит к кон кретный физическим ситуациям. В заключение парагра* фа приводится краткое исследование модели с гауссов-
ской марковской последовательностью второго порядка.
141
Динамика системы |
|
Пусть {w(k), k^I), где / = |
= О, 1, . . . } , есть |
р-мерная гауссовская белая последовательность с мате матическим ожиданием
|
|
E[w(k)] |
= |
w(k) |
|
|
и матричной корреляционной |
функцией |
|
|
|||
|
Е {[w (/) -w (/)] [w (k) -w |
(k)]'} = Q(k) |
öjk, |
(4-26) |
||
заданными для всех /, k = 0, |
1, |
где о д — символ Кро- |
||||
некера; |
Q(k)—неотрицательно |
|
определенная |
матрица |
||
размера |
рХр. |
Далее, пусть |
х(0)—гауссовский |
|
случай |
|
ный /г-вектор |
с известными |
математическим |
ожиданием |
|||
Е[х(0)]=х(0)
и неотрицательно определенной корреляционной мат рицей
|
|
|
Е {[x (0) - x (0) ] [x (0) - x |
(0) ]'} = Р (0) |
|
|
|
||||||
размера |
пХп. |
Предполагается, |
что {w(k), |
k^I} |
не зави |
||||||||
сит от х(0), так что |
|
|
|
|
|
|
|
|
|||||
|
|
|
Е {[х (0) —x (0)][w |
(k) —w (k)]'} = 0 |
|
(4-27) |
|||||||
для |
всех |
|
|
|
|
|
|
|
|
|
|
|
|
В качестве модели динамики рассмотрим систему |
|||||||||||||
уравнений |
|
|
|
|
|
|
|
|
|
|
|
||
|
x(k+\)=0(k+\, |
k)x(k) |
+ Г ( Л + 1 , |
k)w{k) |
|
(4-28) |
|||||||
для |
kŒÎ, |
где |
x — n-вектор состояния; |
Ф ( & + 1 , |
k)—пе |
||||||||
реходная |
матрица |
состояния |
|
размера |
пХп; |
w — |
|
р-век- |
|||||
тор |
возмущения системы; T(k+l, |
k) — переходная |
мат |
||||||||||
рица |
возмущения |
размера |
пХр, |
причем |
{w(k)~ |
|
k = 0, |
||||||
1, . . . } и х{0) |
имеют свойства, |
перечисленные |
выше. |
||||||||||
г Д л я простоты |
пока не учитывается |
возможное |
|
вход |
|||||||||
ное управляющее воздействие, т. е. слагаемое W\k+1, |
kx |
||||||||||||
Xu(k), |
где и — г-вектор управления, a W(k + l, |
k)—пе |
|||||||||||
реходная матрица |
управления |
размера |
пХг. Этот вопрос |
||||||||||
подробно исследуется позднее в связи с уточнением модели.
Структурная схема модели показана на рис. 4-4, где подразумевается, что в каждом «цикле» работы системы 142;
входное воздействие w(k), k = 0, 1, . . . является некото рой выборочной функцией гауссовской белой последо
вательности {w{k), fe = 0, |
1, . . . } , а вектор начальных |
условий х(0)—некоторая |
выборка из множества векто |
ров начальных условий, распределенных по гауссовско-
му закону. Эта модель имеет вид, аналогичный |
модели |
|||
из § |
2-3, за исключением того, |
что х(0) и |
w(k) |
теперь |
имеют конкретное вероятностное |
описание. |
|
|
|
|
Г(к+1,к) |
|
|
х('к+1) |
w(k) |
|
|
|
|
|
|
х(к) |
S3 |
|
|
Ф(М,к) |
|
||
Рис. 4-4. Модель динамики дискретной линейной системы. |
|
|||
Очевидно, {х(k), k<=I} является случайным |
процес |
|||
сом. Докажем, что он представляет собой гауссовскую марковскую последовательность, и дадим два способа
описания |
процесса. |
|
|
|
|
|
|
|
||
Вначале покажем, что этот процесс |
марковский. |
|||||||||
Пусть |
4 < 4 < . - . < ^ т |
— любые |
m моментов |
времени |
из /, |
|||||
' |
*/ |
*г |
h |
|
U |
tm-, |
|
tm |
|
lt\ |
- I — I |
1 |
L _ . |
. . . M i l |
. . . |
_ | |
i _ L . . . |
J |
I |
|
|
0 I |
2 |
3 |
• |
• |
• |
j |
• . • |
к |
,к+1 ••• |
/ |
Рис. 4-5. Множество индексов / и произвольное множество упорядо ченных моментов времени {t{-.i=l m; ^ < / 2 < • • • <tm}.
где m — произвольное целое число. Кроме |
того, пусть k |
и у — целые числа из /, соответствующие |
моментам вре |
мени tm и Гт_і. Эту ситуацию можно проиллюстрировать
на рис. 4-5, откуда видно, что, вообще |
говоря, в / могуг |
|||
быть точки, лежащие между моментами времени UK |
||||
<t2<.--<tm, |
а также |
вне интервала |
времени, ограни |
|
ченного этими |
точками. |
|
|
|
Из уравнения (4-28) |
ясно,что |
|
|
|
х ( / + 1 ) = Ф ( / + 1 , / ) * ( / ) + П / + 1 , |
j)w(j); |
|||
* ( / + 2 ) = Ф ( / + 2, / + 1 ) * ( / + 1 ) + Г ( / + 2, |
|
|||
Подставляя первое выражение во Второе и группи руя члены, получаем:
*(/ + |
2) = Ф(/ + 2, |
/ + |
1)[Ф(/ + 1, |
j)x(j) |
|
+ |
|
|||||||
+ Г(/+1, |
/)ш(/)] + |
Г(/ + |
2, |
/ + |
1)ш(/+1)=* |
|
||||||||
*=Ф(/4-2, |
/)х(/) + |
Ф(/ + |
2, |
/+1)Г(/ + 1, |
j)w(j) |
+ |
||||||||
+ Г(/ + |
2, /+1)о,(/+1) = |
Ф(/ + |
2, j)x{j) |
+ |
|
|||||||||
|
І + 2 |
Ф(/ + 2, О Г (/, |
|
|
|
1), |
|
|
|
|||||
+ |
S |
|
t - |
|
|
|
|
|
||||||
і = / + і |
|
|
|
|
|
|
|
|
|
|
|
|
||
где |
|
|
2, / ) Д Ф ( / + |
2, /+1)Ф(/ + 1, |
/). |
|
||||||||
Ф(/ + |
|
|||||||||||||
Продолжая |
преобразования |
аналогичным |
образом, |
|||||||||||
получаем общее соотношение |
|
|
|
|
|
|
|
|||||||
|
хЦ |
+ п) = |
Ф(] + п, /)•*(/) |
+ |
|
|
|
|
||||||
j + n |
|
|
|
|
|
|
|
|
|
|
|
|
||
+ |
S |
|
Ф 0 4 - ». Ог |
0> |
і - |
1 ) о» (і - |
|
I ), |
(4-29) |
|||||
где п = 1, 2, |
. . . , причем |
|
|
j + n— 1)І....Ф(/+1, t) |
|
|||||||||
Ф(} + п, |
i)=<b(j |
+ n, |
|
|||||||||||
для і = /, / + |
|
. . . , / + «. |
|
|
|
|
|
|
|
|
|
|
||
Для j + n=,k очевидно, что |
|
|
|
|
|
|
|
|||||||
|
|
|
я ( £ ) = Ф ( £ , |
|
+ |
|
|
|
|
|
||||
+ |
|
2 |
Ф(£, 0 ГО', «— 1)а»(*-— |
|
|
(4-30) |
||||||||
|
/ = / |
+ і |
|
|
|
|
|
|
|
|
|
|
|
|
Вспоминая, |
что k соответствует tm, |
а / — tm-i, |
из |
|||||||||||
уравнения (4-30) получаем, что условная функция рас |
||||||||||||||
пределения вероятностей x(tm) |
при условии |
известного |
||||||||||||
набора значений x(tm-i), |
|
x{tm-2), |
|
x(t2), |
x(ti) |
зави |
||||||||
сит только от x(tm-i). |
|
Поскольку |
это справедливо для |
|||||||||||
любых от моментов |
времени |
ti<t2< ... |
<tm, |
|
где m — |
|||||||||
произвольное целое число, процесс {x(k), |
kel], |
очевид |
||||||||||||
но, марковский. |
|
|
|
|
|
|
|
|
|
|
|
|
||
Нетрудно |
показать, что этот процесс |
является также |
||||||||||||
гауссовским. Полагая |
в уравнении |
(4-30) / = 0, получаем: |
||||||||||||
x(k) = <$>{k, |
|
|
k |
|
|
|
|
|
|
|
i-\)w{i-\). |
|||
0) * (0) + |
£ |
Ф (fc, і) Г (/, |
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
(4-31) |
|
144
Поскольку |
х(0) |
и |
все to (г— 1), і'=1, |
k |
по пред |
|||||
положению являются |
гауссовскими, |
то |
отсюда |
следует, |
||||||
что вектор |
x(k) |
также |
гауссовский для |
всех |
& = 0, 1, |
|||||
так |
какой |
представляет собой просто сумму |
гауссов-ских |
|||||||
случайных |
векторов. Следовательно, для любого целого |
|||||||||
m и произвольного |
набора |
моментов |
времени |
t,i, h, ... |
||||||
..., <tmŒl |
соответствующий набор случайных п-векторов |
|||||||||
x(t\), |
x(t2), |
|
x(tm) |
|
имеет |
совместное |
гауссовское рас |
|||
пределение, что и доказывает утверждение.
Теперь приведем два возможных способа описания процесса. Из уравнения (4-25) известно, что совместная плотность распределения гауссовской марковской после
довательности {x(k), |
k^I}, где |
/ = {/е:/г = 0, |
1, |
. . . } пол |
|||
ностью определена |
для всех k(=I, если известны |
ее гаус- |
|||||
совские |
плотности |
распределения |
f[x(0)] |
и |
f[x{k |
+ |
|
+ \)\x(k)], |
причем |
последняя |
для |
всех /геА. |
Так |
как |
|
л;(0) является гауссовский случайным вектором с мате
матическим ожиданием |
х(0) |
и корреляционной |
матри |
|||||||||
цей Р(0), плотность |
распределения |
f[x{Q)] |
|
определена1 . |
||||||||
При |
известном |
x(k) |
из |
уравнения (4-28) |
следует: |
|
||||||
E[x(k+l)\x(k)] |
= <b(k+l, |
|
k)x(k)+T(k+l, |
|
|
k)w(k). |
||||||
|
|
|
|
|
|
|
|
|
|
|
|
(4-32) |
Тогда |
|
|
|
|
|
|
|
|
|
|
|
|
X {k -f- 1 ) - |
Е [х (k - f 1 ) IX (k)} = Ф (k - f 1, |
k)x(k) |
+ |
|||||||||
|
- f T(fe-f 1, k)w(k) |
— Ф(£ + |
1, |
|
k)x(k)- |
|
||||||
|
— Г ( £ + 1 , k)iô(k) |
= |
r(b-\-l, |
|
k)[w(k)-w(k)\. |
|||||||
Следовательно, |
условная |
корреляционная |
матрица |
|||||||||
имеет вид: |
|
|
|
|
|
|
|
|
|
|
|
|
|
E[{x(k+ï)—E[x(k+\)\x(k)]}{x(k+\) |
|
|
|
|
— |
|
|||||
|
—E{x(k+l) |
\x(k))Y] |
= E{T(k+ |
1, k)[w(k) |
— |
|
||||||
|
—w(k)][w(k)—w(k)]T'(k+l, |
|
k)} |
= |
|
|
||||||
|
|
= Г(/г + 1, k)Q{k)V{k+l, |
|
k). |
|
|
(4-33) |
|||||
Условная |
плотность |
распределения |
|
вероятностей |
||||||||
определяется |
условным |
математическим |
|
ожиданием |
||||||||
(4-32) и условной корреляционной |
матрицей |
(4-33). |
||||||||||
Если |
матрица |
Г(&+1, |
k)Q(k)T'(k+1, |
|
k) |
сингулярна, го |
||||||
1 |
Для этого требуется, |
чтобы |
матрица |
Р |
(0) |
была |
положитель |
|||||
но определена. Если это не так, то следует проводить описание про цесса с помощью характеристической функции.
10—85 145
следует описывать процесс с помощью условной харак теристической функции.
Во втором способе описания іауссовость и марко вость процесса используются с целью получения удоб ных соотношений для математического ожидания и кор
реляционной |
матрицы. |
|
|
|
|
|
|
|
|
||||||
|
Полагая |
|
E[x(k)] |
= x(k), |
из уравнения |
(4-28) |
имеем: |
||||||||
|
|
x{k+l)=0(k+l, |
|
k)x(k)+T(k+l, |
|
|
k)w{k) |
(4-34) |
|||||||
для |
всех |
|
|
Так как х(0) |
и w{k), |
|
|
даны, |
уравне |
||||||
ние (4-34) является |
рекуррентным |
соотношением для |
|||||||||||||
математического |
ожидания |
случайной |
|
последователь |
|||||||||||
ности. |
|
|
|
|
|
|
|
P(k)=E{[x(k)—x(k)][x(k)—x(k)]'}, |
|||||||
|
Далее, |
полагая |
|
|
|||||||||||
из уравнений (4-28), |
(4-34) |
и (4-26) |
получаем, что |
||||||||||||
|
P ( * + l ) = £ { [ * ( * + l ) - * ( f e + l ) ] [ * ( * + l ) - |
||||||||||||||
|
- |
x (k + |
I)]'} = |
Е ({Ф (k + 1, |
k) [x(k) |
- |
x (k)] |
+ |
|||||||
|
+ |
Г ( £ + 1 , |
k)[w(k)-w(k)]}{4>(k |
|
+ |
l, |
|
k)[x(k)- |
|||||||
|
|
- |
x (k)} + |
V(k |
- f 1, |
k) [w (k) - |
w (k)}}') |
= |
|
||||||
|
|
|
= |
Ф(£ + |
1, |
ЩР(к)Ф'{к+\, |
k) |
+ |
|
|
|||||
|
|
+ |
Ф(£ + |
1, |
|
|
k)E{[x(k)-x(k)]\w(k)- |
|
|||||||
|
-w(k)]'}T'(k |
|
+ |
l, |
k) + |
F(k+l, |
|
|
k)E{[w(k)- |
||||||
|
|
-ѵ(к)}[х(к)-х(к)У}Ф'(к+1, |
|
|
|
k)-\- |
|
||||||||
|
|
|
|
+ |
Г(£ + |
1, k)Q(k)T'(k |
+ |
l, |
k), |
|
(4-35) |
||||
где |
два средних |
слагаемых |
еще |
требуется |
определить. |
||||||||||
Поскольку одно из этих слагаемых получено транспо нированием второго, достаточно рассматривать только одно из них.
|
Вычитая |
почленно уравнение |
(4-34) |
из уравнения |
||
(4-28), получаем: |
|
|
|
|||
, |
x{k+l)^x(k |
+ l)=(b(k+l, |
k)[x(k)—x(k)]+ |
|||
|
|
|
+ Г ( А + 1 , |
k)[w{k)—w{k)l |
|
|
' |
Вводя |
обозначения |
x(k)=x(k)—x(k) |
и w(k) — |
||
= w(k)—w(k), |
|
это выражение можно записать в .виде |
||||
|
x(k+l)=0(k+l, |
k)x(k)+T(k |
+ l, |
k)w(k) |
||
для k=0, I ... |
|
|
|
|
||
.146
По аналогии с уравнением (4-31), имеем:
х > ) = |
Ф(£, |
0)х(0) + |
|
|
|
k |
|
і) Г (г, |
с — 1) Si (і - 1). |
|
|
+ Ц |
Ф |
(4-36) |
|||
і=і |
|
|
|
|
|
.Умножая уравнение (4-36) |
почленно |
справа на |
w'(k) |
||
и усредняя полученное выражение, получаем-- |
|
||||
E[x(k)w' |
{Щ=Ф{к, |
0) Е [ х(0) |
w' (k)] -f- |
|
|
k |
|
|
|
|
|
+ £ Ф(6, г) Г (г, |
і— |
|
|
|
|
Ясно, что процесс (й5(&), & = 0, 1 . . . } является гауссовской белой последовательностью с нулевым средним, независимой от гауссовского случайного n-вектора х(0). Это значит, что
|
всех і—ï^=k |
E[w(i—l)w'(k)] |
= 0 |
|
|
|
|
для |
и |
|
|
|
|
|
|
|
|
£[Ж(0)Й7'(А)] = 0 |
|
|
|
||
для всех k = 0, 1 ... Следовательно, |
|
|
|
||||
|
E{x{k)w'{k)] |
= E{[x{k)~ |
x{k)][w{k)— |
W(k)]'} |
= 0 |
||
для |
всех & = 0, |
1 ... Это означает, что |
второе |
и третье |
|||
слагаемые в уравнении (4-35) равны нулю и |
уравнение |
||||||
принимает вид: |
|
|
|
|
|
|
|
|
P(k+\) |
= 0(k+l, |
k)P(k)Q>'{k+l, |
k) |
+ |
|
|
|
+ Г (k + 1, k) Q (k) Г' (k + 1, k) |
|
(4-37) |
||||
для |
& = 0, 1 ... Так как матрицы |
Я(0) |
и Q(k) |
|
известны, |
||
причем последняя для всех k = 0, 1, |
уравнение (4-37) |
||||||
является рекуррентным матричным уравнением для кор
реляционной |
матрицы -последовательности. |
|
||
Для каждого значения k характеристическую функ |
||||
цию последовательности можно представить в виде |
||||
?x(s, |
k) — ехр |
jx'(k)s |
~s'P(k)s~\, |
|
где s — tt-вектор. |
|
|
|
|
Использование здесь P{k) |
может показаться |
чрез |
||
мерным упрощением, |
поскольку процесс {x(k), |
&е/} |
||
10* |
147 |
является гауссовским и для его описания требуется мат ричная корреляционная функция P(k, / ) , а не P{k). Чтобы обосновать приведенное здесь описание, покажем,
что |
знания матрицы P{k) |
достаточно для |
определения |
||
|
По аналогии с уравнением (4-30) имеем: |
|
|||
|
|
|
k |
|
|
x{k) = |
<è{k, / ) * ( / ) + |
Ц |
Ф(*. /)Г(г, |
i—\)w{i~\) |
|
для |
k >• /. |
Отсюда ясно, |
что |
|
|
|
+ |
S Ф(*. і)Г(і, |
t - l ) £ t œ ( i - l ) 3 c ' ( j ) l . |
||
|
|
/ = / + і |
|
|
|
Заменяя в уравнении (4-36) k на /, транспонируя обе части полученного уравнения, умножая их слева на wii—1) и усредняя, получаем:
Е [w іі -1)х' |
(/)] = Е [w іі |
-1)х' |
(0)] Ф' (/, 0) |
+ |
|||||
+ |
£ |
E[wii- |
\)w'il~ |
\)}Y'il, |
/ _ 1 ) Ф ' ( / , |
/). |
|||
Как и ранее, E[wii—1)Ж'(0)] |
= 0 |
для |
всех і = 1 , 2, ... |
||||||
Кроме |
того, |
индекс і здесь |
|
принимает |
значения |
||||
1 + 2, ..., |
k. |
Следовательно, |
|
|
|
|
|
||
|
|
|
|
E\0ii—\)w'il—1)] |
|
= 0 |
|
|
|
для рассматриваемых значений г и /. Поэтому £ [ й ? ( » - 1 ) Г ( / ) ] = 0.
Это значит, что выражение для Pik, j) сводится к
Pik, j)=Oik, })РЦ),
откуда ясно видно, что для описания случайной после' довательности достаточно знать ее корреляционную матрицу.
Короче |
говоря, гауссовость случайной |
последователь- |
||
ности |
(x(k), |
kŒl} |
требует для ее описания знания пары |
|
[xik), |
Pik, |
f); k, |
J Œ I } . Марковость позволяет свести это |
|
требование к определению {x(k)t Pik), |
ksi}. |
|||
148
Уравнение (4-37) можно интерпретировать как опи сание изменения во времени степени неопределенности системы, поскольку корреляционная матрица характе ризует меру отклонения распределения случайного со
стояния системы |
x(k) от его математического ожидания. |
В силу этой |
интерпретации уравнения (4-37), второе |
из приведенных описаний гауссовской марковской после
довательности |
будет |
играть |
преобладающую |
роль во |
|||
всей дальнейшей работе. |
|
|
|
|
|||
Модель легко обобщить, включив в нее управляющее |
|||||||
воздействие: |
|
|
|
|
|
|
|
x(k |
+ l)=<D(k+l, |
k)x{k)+V{k+\, |
k)w(k) |
+ |
|
||
|
|
+ W(k+l, |
k)u(k), |
|
|
||
где слагаемое |
^(k+l, |
k)u(k) |
описано ранее. |
В |
пред |
||
положении, что |
управляющая |
последовательность |
{u(k); |
||||
k = 0, 1 . . . } известна |
или может быть сформирована по |
||||||
желанию, |
случайный |
процесс |
{x(k)\ |
& = 0, 1, |
. . . } вновь |
||
является |
гауссовской |
марковской |
последовательностью. |
||||
Это следует из того, что присутствие известного управ ляющего воздействия просто добавляет детерминирован ную составляющую ко входному сигналу системы и,
следовательно, воздействует |
только на |
математическое |
|||||
ожидание процесса |
{x(k), |
/> = 0, 1, |
. . . } . |
Тогда |
|
||
x(k+l) |
= 0(k |
+ \, |
k)x{k)+T(k |
+ \, |
k)w(à) |
+ |
|
|
|
+ W(k+l, |
k)u(k) |
|
|
||
для k = 0, 1 |
... Поэтому |
|
|
|
|
|
|
x(k+\)—x(k+l)=0(k+l, |
|
|
k)[x(k)—x(k)] |
+ |
|||
|
+ Г ( Л + 1 , |
|
k){w{k)—w{k)l |
|
|||
откуда ясно, что корреляционная матрица последова тельности остается той же вне зависимости от того, имеется ли на входе системы известное управляющее воздействие.
При определении условного математического ожида ния, используя знание управляющего воздействия, по лучаем:
E[x(k+\)\x{k), |
и( £ )]= . ф(А+1, |
k)x(k) + |
+ V(k + \, |
k)ïo(k)+4f{k+\t |
k)u(k), |
где k — 0, 1 . . . Условная корреляционная матрица имеет тот же вид, что и раньше.
149
