Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Медич Д. Статистически оптимальные линейные оценки и управление

.pdf
Скачиваний:
63
Добавлен:
25.10.2023
Размер:
13.81 Mб
Скачать

Показать, что оптимальная оценка х =

А°у

вектора х

имеет

вид:

 

 

 

 

 

 

 

 

 

 

х =

Е(ху')[Е(уу')]-'

 

 

у.

 

 

Иными словами, показать,

что

 

 

 

 

 

 

А° = Е{ху')[Е{уу')]-і

 

=

 

РхуР~\у

 

в предположении, что матрица Руу

несингулярна.

 

 

Показать также,

что

корреляционная

матрица ошибки

оценки

X = X — X имеет вид

 

 

 

 

 

 

 

 

 

р

р

__ р

р— 1

р

 

 

*

— ~ — ' X X

'

х У г

ци

1

УХ'

 

 

 

XX

 

 

 

а

а

 

 

 

3-14. Какой физический смысл имеют результаты решения задач 3-11 и 3-13, если функция плотности распределения f(x, у) —гауссов- ская?

Г л а в а ч е т в е р т а я

ЭЛЕМЕНТЫ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ

И ПОСТРОЕНИЕ МОДЕЛЕЙ СИСТЕМ

Целью настоящей главы является построение мо­ делей систем, для которых впоследствии будут сформу­ лированы и решены задачи оценки и управления. Основ­ ной метод главы заключается в объединении результа­ тов гл. 2 и 3. Здесь используется вероятностное описа­ ние векторов начальных условий, возмущений системы и ошибок измерения в дискретной и непрерывной моде­ лях линейных систем из гл. 2. Такое описание можно было ввести непосредственно в начале главы. Однако предварительное изложение некоторых идей теории слу­ чайных процессов способствует лучшему пониманию ко­ нечных результатов.

Теория случайных или стохастических процессов изу­

чает явления, управляемые вероятностными

законами,

в которых время или какая-либо другая

величина

является параметром. Строгое и законченное

изложение

теории выходит за рамки данной книги, поэтому здесь формально рассмотрены только аспекты теории, сущест­ венные для наших целей. Читатель, интересующийся более подробным изложением теории случайных процес­ сов примерно на том же уровне, на каком она рассма­ тривается в этой главе, найдет более полезными учебни­ ки Парзена [Л. 4-1] и Папулиса [Л. 4-2]. Более тради-

120

ционное с инженерной точки зрения изложение

теории

можно найти, например, в

книгах Лэннинга и

Бэттина

[Л. 4-3], Давенпорта и Рута

[Л. 4-4], Ли [Л. 4-5],

Джейм­

са [Л. 4-6] и др.

 

 

После изложения в § 4-1 теории случайных процес­ сов в § 4-2 и 4-3 вводятся две модели систем. Эти моде­ ли, так называемые гауссовская марковская последова­ тельность для дискретных линейных систем и гауссовский марковский процесс для непрерывных линейных систем, с успехом используются в инженерной практике моделирования систем, подверженных влиянию случай­ ных начальных условий, возмущений и ошибок измере­ ния. Причина заключается в том, что эти модели оказа­ лись достаточно простыми для аналитических и вычис­ лительных целей и в то же время настолько содержа­ тельными, что с их помощью удалось получить сущест­ венные результаты.

4-1. ЭЛЕМЕНТЫ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ

Случайный процесс

Рассмотрим явления, развитие которых во времени подчиняется вероятностным законам, например движе­ ние заряженной частицы в случайно флуктуирующем магнитном поле или отклонение межпланетного космиче­ ского аппарата от расчетной траектории в результате случайных ошибок в его двигательной и управляющей системах. В обоих указанных случаях шестимерный век­ тор состояния включает три координаты положения и три координаты скорости в соответственно выбранной системе координат. Множество вариантов развития во времени любого такого явления называется случайным процессом. Короче говоря, случайный процесс представ­ ляет собой множество случайных векторов, упорядочен­ ных по времени. Для большей строгости введем следую­ щее определение.

Случайным

процессом

называется

семейство

случай­

ных векторов

{x(t),

.1),

зависящих

от параметра

t, все

значения

которого

принадлежат некоторому множеству

индексов

I.

 

 

 

 

 

Определение не исключает случая, когда х является скаляром. Однако в общем случае будет рассматривать­ ся векторный случайный процесс.

121

Множество индексов / может быть абстрактным. Однако выше уже говорилось о времени как о параме­ тре случайного процесса. В дальнейшем будут исполь­ зоваться только два множества индексов времени. Пер­ вое является множеством дискретных моментов времени l={tk: k = 0, 1, . . . } , где th<tk+u и моменты времени не обязательно равно удалены друг от друга. Для упро­

щения обозначений заменим tu на k. Тогда

множество

индексов

примет

вид / = {6:& = 0, 1, . . . } .

В

этом

случае

процесс

называется случайным

процессом

с

дискретным

временем.

 

 

 

 

 

 

 

Другое используемое здесь множество индексов вре­

мени

включает

интервалы

на

оси времени,

такие как

/ = {/ : 0 ^ / ^ : Т) или I = {t : t^to).

Тогда

процесс

назы­

вается

случайным

процессом

с непрерывным

временем.

Понятие «семейство случайных векторов» в определе­ нии случайного процесса особенно важно. Оно означает, что случайный процесс состоит из множества или из ансамбля случайных векторов, определенных на множе­ стве индексов. Ансамбль может включать в себя как счетное, так и несчетное множество элементов. Для на­ ших целей представляет интерес только последняя си­ туация.

Комбинация понятий времени и ансамбля подразу­ мевает, что случайный процесс фактически является

функцией двух переменных. Это можно записать с по­

мощью

обозначения

[x(t,

ю), IŒI,

C O Œ Q } ,

где Q

выбо­

рочное

пространство

рассматриваемого

эксперимента.

При постоянном значении t x(t,

•)

является

вектор-

функцией, определенной на выборочном пространстве Q,

т. е. случайным вектором. Если

же

ш постоянно,

то

x(-, со)—вектор-функция времени,

представляющая

со­

бой одну из

возможных

реализаций

или

выборочных

функций

случайного процесса.

 

 

 

 

 

Если выборочное пространство Й дискретно, то часто

вместо

слова

процесс

используется

термин

цепь.

Поэто­

му можно говорить о случайной цепи с дискретным вре­ менем и о случайной цепи с непрерывным временем. Подчеркнем, что о цепи говорят, если ансамбль случай­ ного процесса содержит счетное множество элементов. Поскольку случайные цепи в дальнейшем не встречают­ ся, их теория здесь не рассматривается.

Теперь приведем несколько примеров случайных про­ цессов.

122

Пример 4-1. Рассмотрим скалярный случайный процесс [x(t), t^3?0}, где x(t) = Vo sin t и V0—непрерывная случайная величина, рав­ номерно распределенная на интервале [—1, lj, т. е.

 

 

 

 

 

 

 

 

 

I

0

в остальных точках.

 

 

 

 

Ансамбль

здесь

состоит

из

несчетного

множества

элементов,

a

{x(t),

t^tts],

очевидно,

является случайным

процессом

с

непре­

рывным

временем.

Ансамбль

 

,2

 

 

 

 

 

процесса

можно

представить

+ 7

 

 

 

 

 

в виде рис. 4-1.

 

 

постоянно­

 

 

 

 

 

t

 

Для

некоторого

О

 

I

р Ъ ^ - '

i

 

го значения

? =

/ i ^ 0 ,

x(tt)

бу­

 

3sz

 

-1

 

 

дет,

очевидно,

случайной

вели­

•л jI

 

 

 

чиной. Любая

синусоида явля­

+ J

 

 

t

ется

выборочной

функцией

про­

- ч

I

 

 

i

цесса.

 

 

 

 

 

 

 

про­

О

\

I

/

 

 

 

 

Если дискретизовать

-1

-

i

 

 

 

 

цесс,

рассматривая

только

мно­

 

 

 

 

жество

моментов

 

времени

 

 

 

 

 

 

 

{tk

:/„ = Ая/4,

*=0,

1, . . . } , то

 

 

 

 

 

 

 

в

результате получится

случай­

 

 

 

 

 

 

 

ный процесс с дискретным

вре­

 

 

 

 

 

 

 

менем.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 4-2. В качестве вто­

 

 

 

 

 

 

 

рого

примера

рассмотрим

ска­

 

 

 

 

 

 

 

лярный

случайный

процесс

с

 

 

 

 

 

 

 

дискретным

временем

(к),

 

 

 

 

 

 

 

k=0,

1,

. . . } , где для

каждого

 

 

 

 

 

 

 

k

предполагается,

что

у(к) —

Рис. 4-1. Представление случайно­

гауссовская

случайная

величи­

на с нулевым средним. Возмож­

го

процесса

в

виде ансамбля.

 

ную

зависимость

дисперсии

у (k)

от

 

 

 

 

 

 

k учтем, записывая плотность рас­

 

 

 

 

 

 

пределения

y{k)

в

виде

 

 

 

 

 

 

 

 

 

1

Î(У,

к):

(k)

Ѵ2л

 

 

 

где

a2(k)

=Е[у*(к)].

Предполагается,

что

значение y(k)

для заданного k

статистически не зависит от его зна­ чения в любой другой точке множе­ ства индексов.

Две типичные выборочные функ­ ции процесса показаны на рис. 4-2.

Этот процесс называется чисто случайной гауссовской последова­ тельностью. Прилагательное гауссовский используется с целью подчерк­ нуть тот факт, что при известном k распределение значений y{k) по ан­ самблю гауссовское, а определение

?

3 "

о

Рис. 4-2. Выборочные функ­ ции дискретного случайного процесса.

123

«чисто случайный» указывает на статистическую независимость во времени элементов во всех выборочных функциях. Термин «последо­ вательность» возникает в силу того, что любая выборочная функция представляет собой просто последовательность случайных перемен­ ных, определенных в дискретные моменты времени.

В дальнейшем процесс этого типа подробно исследуется при опи­ сании возмущений системы и ошибок измерения в дискретных линей­ ных системах.

Описание случайного процесса

Из приведенных рассуждений ясно, что описание случайного процесса включает истинное (или вообра­ жаемое) изображение ансамбля и вероятностный закон, управляющий ансамблем. Здесь исследуются возможные способы описания такого вероятностного закона.

Рассмотрим случайный процесс с дискретным време­ нем {x(k), kŒ\}, где / = {&:&=1, ..., N}, a N— некото­ рое постоянное положительное целое число. В этом слу­ чае естественным описанием процесса будет совместная

функция

распределения

вероятностей

N

случайных

/г-векторов

х(\),

 

 

x(N),

определенная

для любых

п-векторов

хх, ...,

 

xN

 

 

 

 

 

 

 

 

F(x\

 

х»)=Р{х(\)<^х\

 

x(N)^x»l

(4-1)

 

Эквивалентное описание можно ввести с помощью

совместной

плотности

распределения

вероятностей

 

 

f(xl

 

xN)

=

• - j

г-^-я

 

ж '

(4 -2)

 

,

ѵ

 

;

 

дх\...дх1п...дх^

...dxNn

ѵ

'

где

х'{і=\,

 

п\

/ = 1

 

N) является

і-й компонен­

той

n-вектора xj

в

предположении,

что

указанные

nN

частных производных существуют, или через совместную характеристическую функцию

 

 

 

 

 

N

x'

(t)

si

(4-3)

 

9(s\ ....

s")--

 

ехр / £

для любых и-векторов s'(t =l , ...,

N),

где

/=]/"—1-

 

Если множество индексов является дискретным, но

бесконечным, т. е. I = {k:k=l,

2 . . . } ,

или же непрерыв­

ным, ограниченным

или

неограниченным,

т. е. / = {^:0^

ssZt^zT}

ИЛИ I={t

: t^sO}, то

подобное

 

описание

не бу­

дет столь естественным. Однако с практической

точки

зрения

представляется

разумным,

что

случайный

про-

124

цесс {x(t), / е / } , где множество / — любое из трех ука­ занных выше, можно адекватно представить, рассматри­ вая его поведение в конечном числе точек ti, ..., tm из /. Тогда процесс можно описать, используя совмест­

ную функцию распределения

вероятностей m случайных

п-векоторов x(ti),

x(tm)

для

любого целого m

и про­

извольных m точек U, ...,

tm

из /. Такую функцию

мож­

но записать в виде

 

 

 

 

 

F{x\ ....

* ™ ) = Р [ * ( * і ) <

 

 

 

X(tm )<X™]

(4-4)

для любых д-векторов х1,

..., хт.

Это выражение

анало­

гично уравнению

(4-1), однако

оно является значитель­

но более содержательным, поскольку здесь следует рас­ сматривать все целые m и соответственно все наборы из

m точек ti, ..., tm,

принадлежащих /.

 

 

Эквивалентные описания с помощью совместной

плотности распределения

и совместной

характеристиче­

ской

функции получаются

по

аналогии

ç уравнениями

(4-2)

и (4-3). В первом случае

имеем:

 

 

 

f{x\...,

xm)=—,

 

,

- ,

(4-5)

полагая, что указанные тп частных производных суще­ ствуют.

Во втором случае

 

 

 

 

(fis1

sm) = E

exp

/ y, iU) s*'

(4-6)

для любых

/г-векторов 5*(г =

1, ...,

m).

 

В левой

части

уравнений (4-1) — (4-6) иногда

удоб­

но указывать время. Это можно сделать, например, за­

писывая

функцию

fix1,

хт) в

виде

fix1,

ti; ...;

хт,

tm)

или

f{x{ti), ...,

xitm)]

и аналогично

для

функций

F

и ф. В дальнейшем

будут

использоваться все три формы

записи.

 

 

 

 

 

 

 

 

 

Математическое

ожидание

и

корреляционная

 

функция

 

 

 

 

 

 

 

 

Математическое

ожидание

случайного

процесса

{xit),

t<=l) определяется

для всех

tŒ.1

выражением

 

 

 

 

 

x(t)=E{x(t)\.

 

 

(4-7)

125

5та функция называется также

средним

 

значением

или

просто средним

процесса [x(t),

tŒl}.

Если

она

рав­

на нулю

для

любого

Î Œ I , то

говорят, что

{x(t),

 

tel}

является случайным процессом с нулевым средним.

 

Матричная

корреляционная

функция

 

или

просто

кор­

реляционная

 

функция

процесса

{x(l),

t<=l)

определяется

для всех t

и т е /

соотношением

 

 

 

 

 

 

 

 

 

 

P(t, x)=E{[x(t)-x(t)lx(T)~x(%)]'}.

 

 

 

 

 

(4-8)

Для двух случайных процессов [x(t)\

t<=!}

и

{y(t),

tel}

при

E[x(t)}=x(t)

 

и

E{y(t)]

= y(t)

 

функция

 

 

 

 

Pxv(t, r)=E{[x(t)-x(tmy(r)-y(x)Y}

 

 

 

 

 

(4-9)

называется

взаимной

матричной

корреляционной

 

функ­

цией

этих

двух

процессов

для

всех

t,

хеі.

Ясно,

что

векторы

X и

у

не

должны

обязательно

иметь

равное

число компонент.

 

 

 

 

P(t,

 

 

 

P(t)

Если

t=x,

обозначим

матрицу

t)

через

и назовем

ее корреляционной

матрицей

процесса

{x(t),

tel}.

По

аналогии

введем

матрицу

Pxy(t)

= Pxy{t,

t)

и

назовем

ее взаимной

корреляционной

 

 

матрицей

двух

процессов.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Сразу заметим, что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(t)=E[x(t)x'(t)]-x(t)x'(t);

 

 

 

 

 

 

 

 

 

 

 

Pxy{t)=E[x(t)y'(t)]-x(t)y'(t).

 

 

 

 

 

 

 

Также

ясно, что P'(t)=P(t),

но

в

общем

случае

P'xy{t)¥=Pxy(t).

 

Однако равенство

P'xy(t)

=Pyx(t)

вы­

полняется

всегда.

 

 

 

 

 

 

 

 

 

 

 

Использование математического ожидания и матрич­ ной корреляционной функции при описании случайных процессов, разумеется, аналогично использованию мате­ матического ожидания и корреляционной матрицы при описании случайного вектора. Разница заключается

в том, что теперь параметром является

время.

Пример

4-3.

Для случайного процесса с

непрерывным временем

из примера

4-1

• ê ( / ) ~ £ ( V 0 s i n / ) = 0

 

 

 

 

 

при t^O,

поскольку сл>чайная величина Ѵо равномерно распределена

между —1

и +1

и поэтому является случайной величиной с нулевым

средним.

 

 

 

 

126

Корреляционная функция процесса имеет вид

 

 

Р (t, х) — Е (VQ sin t sin t) =

E (VQ) sin / sim =

(sin t sin x)/3,

откуда следует, что

 

 

 

 

 

P(i) = (sin2 0/3.

 

 

 

Пример 4-4. Для чисто случайной

гауссовской

последовательно­

сти из примера 4-2 имеем y{k)=Q

и РЦ, k)—0 для всех /, k=0, 1,...,

если ]ФМ- Для / = £ , очевидно,

P(k)=a2(k).

 

 

 

Полагая, что точки отсчета случайного процесса из примера 4-2

совпадают с точками ^ = ßjt/4, £ = 0 , 1,

... ,

для случайного

процесса

с дискретным временем из примера 4-1

и

Ѵ(, статистически

не зави­

сит от y(k) при любом k=0, 1

получаем:

 

 

P'viL k)=E[x(i)y(k)]=0

при любых /, k=0, 1, . . . для этих двух процессов.

Независимые и

коррелированные

случайные

про­

цессы

 

 

 

 

 

 

 

 

 

 

 

Понятия независимости

и

корреляции

переходят

в теорию

случайных

процессов

из теории

вероятностей

так же, как и понятия

математического

ожидания и кор­

реляционной

функции.

 

 

 

{x(t),

Î Œ I }

чисто

слу­

Назовем

случайный

процесс

чайным, если для любых m

моментов времени

t\, ...,

tm

из /, где m — произвольное

целое

число,

справедливо

равенство

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

P[x(tt)<x\...,

x(tm)<xm\

 

 

=

H

 

Pi[X(ti)<X*]

 

или, иначе

говооя,

 

 

 

 

 

/=.)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Fix1

 

x m

)

^ \

\

Fi{x*)

 

 

(4-10)

для любых

tt-векторов

x1,

...,

 

xm.

 

 

 

 

 

 

Это определение можно записать с помощью соответ­ ствующих плотностей распределения в предположении, что они существуют:

m

где

 

 

 

fix1

xm)=

д т П р

...дя%'

 

 

дх\...дх1п...дх?

 

 

Fi

 

 

дх[

...дх>

 

J 27

По аналогии можно записать это определение с по­

мощью характеристической функции.

 

 

 

 

 

 

Теперь

пусть {x(t),

/ е / }

и

{y(t),

te/}

д в а случай­

ных процесса, где х—п-вектор,

 

а

у — р-вектор. Эти

два

процесса называют взаимно

независимыми,

если для

лю­

бых m моментов времени ti, ...,

tm

из

/,

где

m — произ­

вольное целое число, выполняется условие

 

 

 

 

 

P[x{tl)<x1

 

 

 

 

x(tm)<xm,

 

 

 

 

 

у (Q < у1

 

у {tm) < ут\

 

=

РЛх

(О < х>. • • •

 

 

 

.. •, X (tm)<

хт]

Р2

(t,)

1

 

 

у (/„) <

ут)

 

 

для любых /г-векторов х1

 

 

хт

и

р-векторов

у1, ...

...

Ут-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Отсюда сразу можно получить следующие соотноше­

ния,

аналогичные

уравнениям

(4-10)

и

(4-11):

 

 

F(x*

хт,

у1

 

ym)

= F1(x1

 

 

xm)F2(y\

 

 

ут);~[

fix1

xm,

y1,...,

« n W . C * 1

. - .

xm)f2(f

 

ym). a

Рассматривая

приведенные

выше

примеры,

можно

убедиться,

что

процесс

из

примера

4-2 является чисто

случайным, в

то

время

как

ни

один

из

двух

процессов

в примере 4-1

не является чисто случайным. Далее,

если

моменты отсчетов случайного процесса с дискретным временем в примере 4-1 совпадают с моментами отсче­

тов процесса {y(k),

k = 0, 1,

. . . } из примера

4-2, a

Ѵо не

зависит от х(к)

при любом

k, то эти два процесса

явля­

ются взаимно

независимыми.

 

 

Теперь обратимся к понятию корреляции

при

опи­

сании случайных

процессов. Ковариационной

матрицей

случайного процесса называется при любых t, т е /

выра­

жение

 

"¥{t,x)^E[x{t)x'{x)\.

(4-12)

 

 

Раскрывая скобки в правой части уравнения

(4-8),

получаем:

 

 

 

 

 

P(t, x)=Eix(t)x'(x)]—2x(t)x'(x)

+

 

+x(t)x'(x)=W(t,

x)—x(t)x'{x).

(4-13)

Если {x(t), tŒ.1) — процесс с нулевым средним, то, очевидно,

P(t, T)=V(t, X)

для всех t, т е / .

128

Для іфх ковариационная матрица (4-12) и корреля­ ционная функция (4-8) дают меру пространственно-вре­ менной корреляции случайного процесса {x(t), t<=I} в от­ личие от пространственной корреляции, описываемой этими выражениями при t = x.

Случайный

процесс

называют

 

некоррелированным,

если

 

W(t,

x)=E{x(t)]B[x'(x)]

 

 

 

(4-14)

 

 

 

 

 

для всех / и X из /,

іфх.

 

 

 

 

 

Если

случайный

процесс — чисто

случайный,

то для

любых

t, т е / ,

Ефх

справедливо

равенство f(xl,

t; х2,

х) = f1 (л:1, t) \г{хг, х)

и отсюда следует, что

 

 

 

 

 

00

00

 

 

 

 

 

W(t,

т ) =

j ^ M

*

1 ,

О Х

 

 

 

 

— 0 0

—со

 

 

 

 

 

X fsС*3- z)dx[

••• dx* dx\

... dx2

=

 

=E{x(t)}E[x'W.

Следовательно, чисто случайный процесс является также и некоррелированным. Если, кроме того, процесс имеет нулевое среднее значение, то

P(t,

т ) = ¥ ( / , т ) = 0

 

 

f(x,0)

 

 

 

 

 

 

для всех t, т е / , Ефх.

 

 

 

 

 

 

X

Покажем на простом примере, что

 

0

!

~~

некоррелированный

случайный

про­

Рис.

4-3.

Плот­

цесс не обязательно

должен быть чи­

ность

распределе­

сто случайным.

 

 

 

ния

вероятностей

 

 

 

 

 

начального

 

зна­

Пример 4-5. Рассмотрим

скалярный

слу­

чения

случайного

чайный процессе

{x(k), fe=0,

1}, для которого

процесса

с

ди­

х(\) = cu2 (0), где а — скаляр,

отличный от ну­

скретным

време­

ля. Очевидно, что процесс не будет чисто слу­

нем.

 

 

 

чайным. Предположим, что случайная величина

 

 

 

 

x(O) равномерно распределена между —1 и +1,

как

показано

на

рис. 4-3.

 

 

 

 

 

 

 

 

Тогда

 

 

 

 

I

 

 

 

Ф ( 1 , 0) =

£ [ х ( 1 ) х ( 0 ) ]

= аЯ[х»(0)]

 

 

 

 

 

 

 

С другой стороны, ясно, что £ [ х(0)]=0 и

—1

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

£ [ x ( l ) ] = « £ [ x 2 ( 0 ) ] = - J - j V < ^ = - | - -1

9-85

129

Соседние файлы в папке книги из ГПНТБ