Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Медич Д. Статистически оптимальные линейные оценки и управление

.pdf
Скачиваний:
63
Добавлен:
25.10.2023
Размер:
13.81 Mб
Скачать

Теорема 7-1 принадлежит Калману (Л. 7-1], доказав­ шему ее для более общего случая коррелированных про­ цессов {w(t), t^to} и {v (t), t~^t0). Доказательство в этом случае отличается от приведенного здесь только некото-

Рис. 7-1. Структурная схема оптимального линейного фильтра для непрерывных линейных систем.

рыми деталями и предоставляется читателю в качестве упражнения.

Структурная схема оптимального фильтра (7-7) по­ казана на рис. 7-1.

Вместо предсказанного

измерения z(k -\-

\ \k),

фигу­

рирую него в дискретном

 

фильтре,

здесь

используется

текущая оценка измерэния

z(t \ t) =

H (t) x(t

\ t),

так что

невязка измерения, являющаяся входным сигналом цепи обратной связи, умножаемым на матрицу передачи филь­ тра, имеет вид:

 

 

ï{t\t)

=

Z{f)-z(t\t).

 

 

Как можно видеть, фильтр представляет собой мо­

дель

динамики

системы

x=F(t)x,

возбуждаемую

сигна­

лом

коррекции

от цепи

обратной связи

K(t)z(t\t).

Так как в

фильтре

не присутствует в

явном

виде

предсказание,

здесь

не

нужно

вычислять

корреляцион­

ную матрицу ошибки предсказания. Необходимо опре­ делить только корреляционную матрицу ошибки филь­

трации, которая

является

решением

уравнения (7-9).

Это

уравнение представляет собой систему обыкновен­

ных

дифференциальных

уравнений

первого порядка.

Оно

называется

матричным уравнением Риккати,

Хотя

матрица P(t\t)

имеет

п2

элементов,

достаточно

рассматривать

только

п ( « + 1 ) / 2

 

уравнений

системы

(7-9), поскольку P{i\t)

 

является

корреляционной

и

по­

этому симметрической

 

матрицей.

 

 

 

 

 

 

Если

матрица P{t\t)

известна,

 

то случайный

процесс

{x(t\t),

t^t0}

 

полностью описывается своей

характери­

стической функцией

 

 

 

 

 

 

 

 

 

 

 

M s ; 9 =

ехр

~~~s'P{t\t)s

 

 

 

 

 

 

x

 

 

V

 

 

 

 

 

 

 

где s — «-вектор.

 

 

 

 

 

 

 

 

 

Как и в дискретном случае,

нет

необходимости

моде­

лировать фильтр или хотя бы

определять матрицу

 

K(t)

для того, чтобы оценить качество оптимального

фильтра.

Для этой цели достаточно решить уравнение

 

(7-9)

от­

носительно

P(t\t).

 

 

R(i)

 

 

 

 

 

 

Причина

того что

матрица

 

выбирается

положи­

тельно

определенной

для всех

t^t0,

очевидна

из

урав­

нений (7-8)

и

(7-9). Физически

это

предположение

озна­

чает, что во всех компонентах вектора измерений всегда

присутствует

«некоторая

ошибка».

 

 

Оптимальный фильтр, описываемый уравнением

(7-7)

является, очевидно, линейной системой, в

которой

z(t)

играет роль

входного,

a x(t\t)—выходного

сигнала.

Если переписать уравнение (7-7) в виде

 

 

x = [F{t)-K

H (/)] x + K(t)z

(t)

 

и обозначить через 4f(t, т) переходную матрицу этой си­ стемы, то решение дифференциального уравнения можно представить в виде

x(t\t)

= W(t,

t0)x*{t0\t0)

+ $V(t,

x)K(t)z{x)dx.

 

 

 

 

Так как

x(to\to)

= 0, то

 

 

 

JC(t\t)=

t

x)K(x)z{x)dx.

 

 

 

 

to

Обозначая через A(t, %) весовую матрицу Мг(/, х)К{х) размера лХт, можно представить оптимальную оценку в виде

 

t

 

x(t\t)

= ^A(t,

x)z(x)dx.

 

to

 

І9*

291

Тогда оптимальный фильтр принимает вид некоторого линейного преобразования измерения. Такой подход бу­ дет исследован подробнее в гл. 8.

В заключение заметим, что оценка x(t\t)

однозначна,

что следует из однозначности оценки x(k -f- 1 | k -J- 1).

Пример 7-1. Предположим, что сообщения, передаваемые по

каналу связи, являются выборочными функциями скалярного слу­ чайного процесса, который описывается дифференциальным урав­ нением

x=—ax+w(t)

для t^O, где а = const > 0, х (0)—-гауссовская случайная величина

с нулевым средним и дисперсией а2, = const > 0 , a {w(t),

t^O} —

—гауссовский

белый шум, независимый от х (0), с нулевым

средним

и дисперсией

а2

= const > 0.

 

 

 

Предположим, что принимаемый сигнал имеет вид:

 

 

 

 

 

z(t)=x(t)+u(t),

 

 

где {»(<), t?

0} —гауссовский

белый шум с нулевым

средним и дис­

персией

o2 =const>0,

независимый от х (0) и {w (t),

t^-Q).

Физи­

чески

процесс

[v(t),

t^O)

вызывается ошибками и

шумами

в передатчике и атмосферными

возмущениями.

 

 

Задача заключается в определении характеристик приемника, который обеспечит наилучшее выделение сигнала из шума. Полагая, что под наилучшим здесь подразумевается способ, минимизирующий математическое ожидание любой допустимой функции потерь от

ошибки

x(t\t)=x(t)x(t\t),

получаем

решение задачи

в виде

тео­

ремы 7-1.

 

 

 

 

 

 

Для

этой задачи

F(t) =

—a,

G (i) = H {t) = 1,

Р (0) =

о 2 ,

Q(t) =

о 2 , R (0 а2 для всех

t >

t,

= 0.

 

 

Уравнение (7-9) для дисперсии ошибки фильтрации здесь примет

вид

при начальном условии о2, . Это уравнение можно решить методом

разделения

переменных:

 

1

 

 

 

 

 

 

 

 

dP

 

 

 

 

 

 

Я2 + 2 7 а 2 р _ 0 2 а 2w

уравнения Р2 +

Обозначая

 

через

р,

и р2

корни квадратного

2

 

2

0

22

получаем:

 

 

+ 2 а а

Р — о Vа w = 0,

 

 

 

 

dP

 

 

rfP rfP Р -,

 

.2 Л ,

(/ : >

Рі)

(Р— Ps)

Pi — Рг

• Рг

~

292

где

Рі.г =

Так как

 

 

Pi — Рг

 

 

 

W

о

 

 

 

 

 

 

 

получаем:

 

 

 

 

 

 

 

 

 

 

dP

 

 

dP

= —

2 | /

а 2

-1

~ dt.

 

 

 

 

 

Обозначая

fj. =

у

а2

+

о^/о^,

получаом:

 

 

 

 

P(f І О - Р :

 

 

 

 

 

 

 

Я

(M

О - і

 

 

 

 

где а — постоянная

интегрирования.

 

 

 

Используя

устовие

Я

(0

] 0) =

Я ( 0 )

=

з2 ,,

получаем

 

 

 

 

 

°о

Рі

 

 

 

 

 

 

 

 

° 0

— Ра

 

 

 

Тогда дисперсия ошизки фильтрации имет вид:

я (t |о = Pl — P2«g"-2ц<

для ? Зг 0.

Из уравнений (7-7) и (7-8) имеем:

А( 0 = - Т / > ( М 0 ;

Я= — діс + Л; (0 (0 — х].

ДЛЯ достаточно больших t

P(t I о-р,=

, 2 .

 

/

Следовательно, в установившемся состояний оптимальный при» емник является стационарной линейной системой вида

-ах + z ( 0 +

]/«2 +

x = — jj-x + —

z (t).

Структурная схема этого фильтра изображена на рис. 7-2. Оптимальный приемник здесь имеет внутреннее ограничение по

точности, которое определяется значением рі.

z(t)

 

Рис.

7-2.

Оптимальный фильтр

из примера

7-1.

 

 

В частных случаях можно показать:

 

 

 

 

1)

если

я 2 > < з 2 / а 2

,

то

 

 

 

 

 

 

 

 

 

 

 

а V1

 

 

а 2

 

 

 

 

 

 

 

• а +

+

 

 

 

 

 

2)

если

а 2 ^ а ^ / 0 2 ,

 

то

р , ^

0 , 4 1 4 а 2 ;

 

 

 

 

3)

если

а2 <

а 2 ' а 2

,

то

р, =Ï= О Л .

 

 

 

 

 

 

Оптимальное

 

предсказание

 

 

 

 

 

Для

некоторого фиксированного U^t0

 

рассмотрим

задачу определения оптимального предсказания

x(t\t{),

l^ti

состояния x(t).

 

Решение

этой

задачи

приводится

ниже.

 

 

 

 

 

 

 

 

 

 

 

 

Теорема

7-2.

 

 

 

 

 

 

 

 

 

1)

При

известной

текущей оценке

x(tt\ti)

для

неко­

торого ti^t0

 

оптимальное

предсказание

удовлетворяет

уравнению

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

* С1'.) =

^

К )

 

 

(7-22)

для всех

ts^t1

с начальным

условием

х(^| £ , ) .

 

294

2) Случайный

 

процесс

{x(t\t^,

 

t

J f , } , где

x (t \ t,)

=

— x(t)

— x(t\tx)

— ошибка

предсказания,

является

гаус-

совским

марковским

процессом

с

нулевым

средним

и

корреляционной

 

матрицей

P(t\ti),

 

удовлетворяющей

дифференциальному

 

уравнению

 

 

 

 

 

 

P ( t | / i ) = / ; ' ( 0 / ' ( / | / i ) + / , ( f | / i ) / r , ( 0 + G ( 0 Q ( 0 G / ( O

(7-23)

 

 

 

 

 

 

 

 

 

 

для

t^ti

с

 

начальным

условием

P(ti\ti)

=

=E[x(ti\ti)S'(ti\ti)].

До к а з а т е л ь с т в о . Условие теоремы 5-4 для экви­ валентной дискретной задачи имеет вид:

 

 

x (t + Ы | О == Ф (t +

At, г,) x(t,

1t,);

 

 

 

 

 

х(і\і1)

= Ф(і,

 

/,)*(',!*,).

 

 

 

где

t + àitp*ti

и At>0.

Из

этих двух

соотношений

следу­

ет,

что

 

 

 

 

 

 

 

 

 

 

 

 

^(г +

Д ф О ^ Ф ^

+ Дг, t)$(t,

Цх(Ц^)

=

 

 

 

=

Ф(г +

Дг,

і)х(і\іЛ.

 

 

 

(7-24)

 

Подставляя в уравнение (7-24) Ф(г+Дг, t) из урав­

нения (7-4), получаем:

 

 

 

 

 

 

 

 

 

x (t +

Д* I /,) =

[/

+

F (t) At + О (M2)}

x (t I /,).

(7-25)

Ясно, что

 

 

 

 

 

 

 

 

 

 

 

 

 

lim x(t-\-M\g

 

= jc(f IQ .

 

 

 

 

Переписав урзвнение (7-25) в виде

 

 

 

 

x(t

+ Дг|г,) -x{t

 

\t,)

= F(t)

x(t\t,)At

+ 0(At2),

разделив

обе

части

уравнения

на

At

и перейдя

к

преде­

лу при At>-0, получим:

 

 

 

 

 

 

 

 

 

 

x(t\t1)

=

 

F(f)x(t\tl)

 

 

 

для

t^ti^to.

Соответствующее начальное

условие

явля­

ется, очевидно, оптимальной

текущей оценкой

 

x(ti\ti)

295

 

Из п. 2 теоремы 5-4 известно, что

случайный

процесс

ошибок

предсказания

{x(t

+ At\ti),

t = ti + jAt;

 

/ = 0.

1,

. . . } — гауссовская

марковская

последовательность

с

нулевым средним, которая

описывается

соотношением

 

г ( / + Д*|*і)=Ф(/ + А*. t)x(t\ti)+T(t

+ M,

t)w(t).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(7-26)

 

Кроме

того,

из уравнения

(5-40)

следует,

что

соот­

ветствующая

 

корреляционная

матрица

удовлетворяет

уравнению

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Р(* + д/|*,) = Ф(* +

Д*,

0 р № . ) Ф ' ( ' +

Д*.

0

+

 

 

 

+ Г ( * + Д * .

t)^V'(t

+

M,

t).

 

 

 

(7-27)

 

Проводя такие же преобразования, как и ранее, при­

ведем уравнение

(7-26) к виду

 

 

 

 

 

 

 

 

 

 

 

 

x(t + M\ti)—3é(t\ti)

=

 

 

 

 

 

 

 

= F(t)x(t\tl)At

 

+ G{t)w(t)At

+ 0{AP),

 

 

(7-28)

откуда следует

уравнение

 

 

 

 

 

 

 

 

 

 

 

 

 

x (t\t,) =

F(t)x

(t\tt)

+ G(f)w (ft

 

 

 

 

для t^ti,

соответствующее

 

гауссовскому

 

марковскому

процессу с нулевым средним {x(t\ti),

t^ti}.

<b(t + At, t)

 

Подставляя

в

уравнение

(7-27) матрицы

и

T{t + At,

t)

из

(7-4)

и

(7-5)

и группируя

члены,

полу­

чаем:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P (t +

Д ^ ) =

[/ +

F {t) At +

О {At*)}

X

 

 

 

 

 

XP(t\t,)[I

+

F(t)At+0{Af)Y

 

+

 

 

 

 

+ [G (0 At +

O (At*)) Ш

[G (0 At+O

(At*)}' =

P (t\t,)

+

+

[F (t) P (Щ

+

P (t\tt) F' (t) +

 

G (0 Q (0 G' (01 At +

O (At*),

откуда при At—+0

 

 

 

 

 

 

 

 

 

 

 

 

P(t\t,)

= F(t)P

(t\tt)

+

P (t\t,) F' (t) +

G (0 Q (t) G' (0,

т. е. уравнение (7-23) теоремы. Соответствующее на­ чальное условие, очевидно, имеет вид:

P(ti\h)=E{x(ti\tl)x'(h\ti)i

296

Сравнение уравнений (7-9) и (7-23) для корреляцион­

ных матриц ошибки

фильтрации

и предсказания показы­

вает, что они отличаются слагаемым

—PH'itjR-HtjH^P,

которое фигурирует

только в

первом

уравнении. Это

слагаемое можно рассматривать как корректирующий

член, ограничивающий

рост корреляционной

матрицы

ошибки

фильтрации

в

уравнении (7-9). Ясно,

что если

R{t)—ьоо,

т. е. если

измерения настолько зашумлены,

что их можно считать

бесполезными, эти два уравнения

становятся идентичными.

 

Иными словами, оптимальный предсказатель являет­ ся однородной частью оптимального фильтра, что мож­ но было предполагать из общих физических соображе­ ний.

Пример 7-2. Предположим, что оптимальный приемник из при­ мера 7-1 находится в установившемся состоянии и требуется пред­ сказать сообщение, передаваемое в некоторый момент времени 2 і ^ 0 . Тогда из уравнения (7-22)

 

x(t

I tl)=—ax(t

I г,),

 

 

и отсюда следует, что

 

 

 

 

*ля t > U > 0.

x (t

i r , ) = е-а

<'-'•> х ( / , I tx)

 

 

 

 

 

 

Заметим,

что оптимальный предсказатель здесь является просто

аттенюатором,

поскольку

0^ехр[ — a(t — /і)]^1

для всех

l^ti.

В отсутствие

измерений для t^ti оптимальный

предсказатель

про­

сто формирует отклик однородной системы с оптимальной оценкой

x(ti\ti) в качестве начального

условия. Иначе говоря, оптимальный

предсказатель экстраполирует

 

самую последнюю оптимальную оцен­

ку для получения оптимального предсказания.

Уравнение (7-23) для корреляционной матрицы ошибки пред­

сказания имеет вид:

 

 

P(t\tt)=

-

2аР (* | *,) + «*.

где Я(Гі | / i I =рі . Легко показать,

что решение этого уравнения имеет

вид:

 

 

. 2

 

е-2а (/-*,) +

 

"2а

+ 2 # = Р ^ 2 а ( < - М

+ 2 Т П - ^ ° ( ^ ) ] .

Для достаточно большого времени предсказания t^>t\ ясно, что

297

Однако для такого времени предсказания дисперсия ошибки предсказания равна дисперсии состояния системы x(t). Это можно показать, определяя равновесное или установившееся решение урав­ нения

для t

• 0, где Р =

Р (0 = E [X2 (t)]

и Р (0)

=

а2.

 

 

 

 

7-4. ОПТИМАЛЬНОЕ СГЛАЖИВАНИЕ НА ЗАКРЕПЛЕННОМ

 

 

ИНТЕРВАЛЕ

 

 

 

 

 

 

 

 

 

 

 

В задаче

сглаживания

на

закрепленном

интервале

рассматривается

интервал

^ о ^ / ^ ^ і

с закрепленными

to

и ti.

Разделим

 

интервал

на

N

частей,

каждая

длины

Ai={ti—to)/N>0.

 

В пределе

устремим

N—*оо

и

AtУ0

таким образом, что NAt = ti—^о-

 

 

 

 

 

 

Поскольку

рассматриваемый

интервал является

крепленным, определим дискретное время на конечном

множестве

 

индексов

вида

t = tQ + jAt;

/ = 0, 1,

 

N}.

 

Задача заключается в исследовании предельного по­

ведения оценки x(t

+ At,

t\) при At—>~0.

 

 

 

 

 

После этих предварительных замечаний сформули­

руем и докажем следующую

теорему.

 

 

 

 

 

 

Теорема

7-3.

 

 

 

 

 

 

 

 

 

 

 

 

1)

Оптимальное

 

сглаживание

на

закрепленном

 

ин­

тервале для системы (7-1),

(7-2), описывается

диффе­

ренциальным

 

уравнением

 

 

 

 

 

 

 

 

 

X (t\tA =

F(t)x

{Щ +

А (0 [X m

-

X {t\t)\

 

(7-29)

для t0<t<tl,

где

х(t\t)

— оптимальная

текущая

 

оцен­

ка,

a

A(t)

— матрица

передачи

сглаживающего

фильт­

ра

размера

 

nyji.

 

Система

уравнений

 

(7-29)

 

имеет

граничное

условие

х(^|г,).

 

 

 

 

 

 

 

 

2)

Матрица

передачи

фильтра,

сглаживающего

на

закрепленном

интервале

времени,

задается

соотношением

 

 

 

 

A(t)

= G(t)Q(t)G'(t)P~4t\t),

 

 

 

(7-30)

где

P(t\t)—корреляционная

 

 

матрица

ошибки

 

опти­

мальной

фильтрации.

 

 

 

 

 

 

 

 

 

3)

Случайный

 

процесс

{x(t\ti),

 

t^t^to],

 

где

x(t\ti)

= x(t)

—x(t\t\)—ошибка

 

сглаживания

на

закреп-

298

ленном

интервале,

является

 

гауссовским

марковским

процессом

 

второго

порядка

с нулевым

средним

и

корре­

ляционной

 

матрицей,

удовлетворяющей

 

матричному

дифференциальному

 

уравнению

 

 

 

 

 

 

 

 

 

р ( / | / , ) = [ F ( о + А

(/)] р m

+

р

m

 

[F(t)+A

 

( о ] ' -

 

 

 

 

-G(t)Q(t)G'(t)

 

 

 

 

 

 

(7-31)

для

to^t^ti.

Граничным

условием

 

уравнения

 

(7-31)

является

корреляционная

матрица

ошибки

фильтрации

в момент

ti : P(ti[ti)

= E[x(ti\ti)x'

 

(ti\ti)].

 

 

 

 

Д о к а з а т е л ь с т в о .

Заменяя

в

уравнениях

(6-57)

и (6-58) теоремы

6-1 N

на

tu

k

на

t, a k+\

на

t+At,

получаем:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x(t\t,)

= x{t\t)

+

A (t) [x(t

+

АЩ

 

-x(t

+

Щі)];

 

 

 

Л(/) = Я(*|0Ф'(' +

А*. ЦР^Ѵ

+ Щі).

 

(7-32)

 

Перепишем эти уравнения в виде

 

 

 

 

 

 

x (t + At\t,) - x (t +

At\t) = А'1

(0 [xДО,)-

je (f |0];

 

(7-33)

 

Л-і (/) = Я (f+At I /){ф'

+ д*,

O h 1

^ - 1 ( Л 0

=

 

 

 

= /> (<+Л^|0Ф,

^ + АО-Р-ЧЛО

 

 

(7-34)

при

условии, что

матрица

P~x(t\t)

 

существует.

 

Напом­

ним, что матрица, обратная переходной матрице состоя­

ния, существует

всегда.

 

 

 

 

Вначале получим разложение A-l(t)

в ряде

по сте­

пеням А*. Из

уравнений (7-14),

(7-4)

и (7-5)

следует,

что

 

 

 

 

 

+ Ы, 0 +

Р(*-|-Д* |0 = Ф(* - т - Дг, ЦРЩЦФ'Ц

+

г(^+дг, І)ШГ'(І

+

Ы,

0 =

 

= [/ +

F (t) At +

О (At*)} P (t\t) Ф' (f + Д*. 0

+

 

+ G(f)Q(t)G'(t)AtArO(At3).

 

(7-35)

Умножая матрицы в обеих частях

уравнения (7-35)

справа на 0'(t,

t + At)

и замечая, что

 

 

Ф'(і,

t + At)=I—F'(t)At

 

+

0(At2),

 

получаем:

 

 

 

 

 

 

 

P(t + At\t)&'(4,

t+At)={I

+ F(t)At]P(t\t)

+

 

+

G(t)Q(t)G'(t)At

+

0(At2).

 

299

Соседние файлы в папке книги из ГПНТБ