Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Медич Д. Статистически оптимальные линейные оценки и управление

.pdf
Скачиваний:
70
Добавлен:
25.10.2023
Размер:
13.81 Mб
Скачать

x(t0\ )=0

В(в) с

X(t\t+T) +

G = tn + T

Fft)

A(t)

x(to\to)=0

x(e s)

z(e)

t—s-т

Рис. 7-7. Структурная

схема

оптимального

сглаживающего

фильтра с постоянным

запаздыванием (ключ К замкнут толь­

ко в момент a = to+T

для получения

начальных условий).

 

 

 

 

Т а б л и ц а 7-1

Требования

ко входным

данным

фильтра

с постоянным

запаздыванием

Источник дгнных

 

 

Требуемые

данные

Оптимальный фильтр

Оптимальный фин. ф, сглаживающий в за­ крепленной точке

 

К (t +

T) [z (t +

T)-

 

-H{t

+

T)x(t +

T\t +

T)\

для

всех t ^

t0

 

 

 

I

x(t\t)

для всех

t 3 Ï

tB

x(t0\t0 + Т) в

качестве

•••ачг.пі ного усло­

вия,

требуется

 

сглаживали f закрепленной

точке

ta в течение времени

 

320

чальных условий x(t0\t0 + T). Ясно, что фильтр, сглажи­ вающий в закрепленной точке, не должен работать при

a>to+T, а

фильтр Калмана должен работать и при

этом условии.

 

Матрица

A (t) = G(t) Q (t) G'(t) P-^ (t\t),

являющаяся

матрицей передачи фильтра, сглаживающего на закреп­ ленном интервале, присутствует в уравнениях (7-71 ) — (7-73). Здесь, однако, ее следует вычислять в прямом времени. Обращения матрицы P(t\t) можно избежать, непосредственно решая уравнение (7-52) с начальным

условием M (t0)

= Р - 1 ( ^ 0 | г 0 ) . Для

этого,

очевидно, тре­

буется, чтобы

матрица

P(t0\t0)

=P(t0)

была

несингу­

лярной.

 

 

 

 

 

Уравнение

(7-72) для

матрицы передачи

фильтра

с постоянным запаздыванием представляет собой систе­ му п2 обыкновенных линейных дифференциальных урав­ нений. Начальными условиями для этих уравнений яв­ ляются п2 элементов матрицы B(t0 + T), которая может быть получена только после предварительного решения уравнения (7-58) на интервале t0^t<^t0 + T.

Аналогичная ситуация возникает при расчете на­ чальных условий для уравнения (7-73).

Пример 7-6. Рассмотрим сглаживание с постоянным запазды­ ванием для простой системы связи, в которой передаваемое сооб­ щение можно представить как выходной сигнал интегратора с вход­ ным сигналом в виде белого шума с нулевым средним. Уравнение

передаваемого

сообщения имеет вид:

 

 

 

 

 

 

 

 

x=w(t)

 

 

 

 

для t^O,

где

x (0)—гауссовская

случайная

величина

с

нулевым

средним

и дисперсией

а^,

a {w(t),

t~^0}—гауссовский

белый шум

с нулевым средним и дисперсией

, независимый от х ( 0 ) .

 

Предположим, что рассматривается следующая модель прини­

маемого

сигнала:

 

z(t)=x(t)+v(t)

 

 

 

 

 

 

 

 

 

 

 

 

для t^O,

где

{v(t),

t^O}—гауссовский

белый

шум

с

нулевым

средним

и дисперсией

,

независимый от

х (0) и

{w(t),

t^Q}.

Также

предположим,

что

Од^>

атзѵ.

 

 

 

 

Заметим, что эта модель является частным случаем модели из примера 7-1 при а—0. Из примера 7-1 имеем:

Рі = »«j't,; Рг = — Vw°v>

21—85

321

Тогда дисперсия ошибки оптимальной фильтрации составит:

P(t\t)=

а ш а г YZT^Wt -= а ^0 -" ^ _ с - и - /

ИЛИ

для ^ О . Кроме того, имеем:

 

 

1

 

 

 

 

 

 

Д ' ( / ) = — Р(< 10 =

l J - cthfA/ .

(7-74)

 

 

°*

 

 

 

 

Зависимость

/'(ОО/0 "*0

о т

изображена

графически

на

рис. 7-8, откуда

можно видеть,

что для \it^2

P{t\t)/aKav~\.

 

Pit

I t)

 

 

 

 

 

 

 

 

Рис. 7-8. Дисперсия ошибки

 

 

 

оптимальной

фильтрации

из

 

 

 

примера 7-6 в

виде функции

 

 

 

времени.

 

 

Теперь получим используемые в дальнейшем выражения для коэффициента передачи и дисперсии ошибки оптимального сглажи­ вания в закрепленной точке. Из уравнения (7-58) имеем:

É ' . = -

°1

ѵ Ѵ В t h W = -

В (Mh f*0

 

 

для t^O при начальном условии ß(0) = l .

 

 

 

 

Решение этого уравнения

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

В

W = сТТй = s c h

 

 

 

 

получается с помощью метода разделения

переменных.

 

 

При / і = 0 уравнение

(7-59)

здесь

принимает вид:

 

 

Р (0 I 0 = — R В2

(0 Я 2

(0 =

°l sch2 Mi ((Д.2 cth2

[л0

=

 

 

= —o^csch2 ^

 

 

 

 

для <^=0. Отсюда следует, что

 

 

 

 

 

 

Я (0 I 0 = -

«£ - ^ - j " esch2

f*W ((о-О =

cth

 

(7-75)

Попутно заметим,

что P(0\t)=P(t\t)

для всех

t^O.

Это озна­

чает, что при сглаживании в закрепленной точке начальное

состоя-

322

ние можно оценить с такой же точностью, как и текущее, если начать оценку с момента /=0 при произвольно большой дисперсии

начальной ошибки а 2

0 > с Г ю О Ѵ

 

 

 

 

 

 

Теперь известна

вся необходимая информация для вычи:ления

C(t + T)

и P(t\t + T). Заметим, что

 

 

 

 

 

A(t)

=

G QJt) G' (0 Р - > ( Ф ) =

з2l

th ^

= V- th v-t.

(7-76)

 

Подставляя

это

выражение

в уравнение

(7-72),

получаем:

 

 

С (t +

Т) =

fx [th |xr — th [л. (f +

T)] С (t +

Г)

 

для

г >

0 , где C ( 7 ) =

ß (7") = sch fx7\

 

 

 

 

 

Тогда

 

 

 

 

 

 

 

 

dC

 

 

 

 

 

- ç -

= [th |л/ — th fx (/ -f

7")] rf (fj-0-

 

Интегрирование

этого уравнения

приводит к

соотношению

 

ch \i.t

 

 

 

 

С (t + П -= Y ch ^(t+T)

=

Y c h

^ S c h ^ ( ; +

r ) '

где y постоянная интегрирования. Для £=0, C(T) =В(Т) =sch \iT.

Следовательно,

откуда *y=l, так что

Y ch 0 sch [x7 = sch [хГ,

 

 

 

 

C(t+T)=àmT

sch ii(t + T)

 

 

 

(7-77)

при t^O.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Для

рассматриваемой

задачи

уравнение

(7-73)

приводится

к виду

 

 

 

 

 

 

 

 

 

 

 

 

P (t\

t +

T)

=

2А {t) P (t

11 +

Г)

-

 

 

 

— R (t +

7") С 2 (< +

Г) K 2 (< +

7) — G 2

(0 Q (0-

 

Подставляя в это соотношение уравнения

(7-74),

(7-76) и (7-77),

получаем

уравнение

 

 

 

 

 

 

 

 

 

 

 

P (t \t + 7) = (2th н . / ) Р ( ф + П -

 

 

 

— a2 ch2 |х* SCh2 (J. (t + T) [X 2

Cth2 (X (* +

7") -

o2

,

которое можно представить в виде

 

 

 

 

 

 

 

Р (* И +

7) — 2th [xrP (t\t+T)

 

=

 

 

 

= — а 2

[1 +

ch2 [х^ csch2

|х (г +

Г)].

 

(7-78)

Уравнение (7-78) имеет стандартную форму обыкновенного ли­ нейного дифференциального уравнения первого порядка, решение которого можно записать в виде

где

h (0 = - ° 1 П + c h 2 ^ c s < * 2 M ' + 7)];

21*

323

Ц — постоянная интегрирования, a с(0—интегрирующий множитель

вида

с (t) — exp J* (— 2,a th \xt) dt -•= exp

2 th ptd (ixt)

1

= exp (— 2 ln ch \xt) = -^Щц = sch2 \xt.

Следовательно,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P (t

11 +

T)

=

— o^ch2

jxr ^ sch2 Ц.Г fl

+

ch2 ^

csch2 (J.

+

7)] df

+

+

-r) ch2

 

=

 

ch2

ixt

j" [sch2

jx/ - f csch2

fJ.

(<

+

7")] ^ (Н-О

+

-f-

vj ch2

[xr =

awov

ch2

(J.

< [th

ixt

— cth fx

+

7")]

+

v) ch2

|хЛ

 

Но для / =

0 согласно

уравнению

(7-75) P

(0 | 7") =

а щ о , cth

[хТ.

Следовательно,

т) =

0 и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

для г^О.

Р ( Ш +

71) =

з ш а в

ch2 (х< [cth [x (г -4- 7)

— th [xr]

 

 

 

 

 

 

 

 

г, для которых [it ^2,

 

 

 

 

 

 

Рассматривая

значения

 

можно

получить

полезное соотношение между

P(t\t)

и

P(t\t

+

T).

 

Для

рассматри­

ваемых значений t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(t\t)^ew°v;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

cth ix

 

ch2 ixt

д=

— »

 

 

 

 

 

 

 

 

 

 

 

 

(< -f

T) ^ 1 + г*?-2^-2^;

 

 

 

 

Тогда

 

 

 

 

 

t h ^ s = 1

2е~2^.

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(t\t+T):

 

 

 

 

[1

+ 2 е - 2

^ У - 2

^

-

1 +

 

le'2**}

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r w ,

(1 + e

-2|хГ

 

 

 

 

 

 

 

 

Следовательно,

для

(х^5г2

имеем:

 

 

 

 

 

 

 

 

 

 

 

 

 

Р ( * 11 + Т) = \ - ( 1 + e-W

) Р (* |0.

 

 

 

 

Из этого

соотношения ясно, что сглаживание с постоянным за­

паздыванием

позволяет

добиться

уменьшения

дисперсии

ошибки

оценки до 50% по сравнению с возможной дисперсией ошибки оптимальной фильтрации.

Для

данного

примера соответствующие уравнения

фильтрации

и сглаживания имеют вид:

 

 

 

 

Х ( а

I а) = Л' (а) (а)

х (а | о ) ] ,

с 5* 0;

 

 

X (0 I а) =

В (а) К (о) [z (о) х ( о | о ) ] ;

0 < а <

Т;

x(t\t+T)

= C(t

+ T)K(t+T)[z

(t+T)-~x(t+T\t+T)]

+

 

+

A(t)[x(t\t+T)-x(t\t)],

 

r > 0 ,

 

где x (0 10) = 0 и t = а — T.

324

x(o\0) = 0

В (а)

x(t\t + T)

C<t + T)

s = r

A(t)

£(o\o)=a

x(s I s)

БЗ T

Рис. 7-9. Оптимальный сглаживающий фильтр с постоянным запаздыванием из примера 7-6 (ключ К замкнут только в мо­ мент 0 = 7").

Структурная схема фильтра, соответствующая этим уравнениям, приведена на рис. 7-9.

Следует заметить, что здесь для К(а) следует применить какую-

либо аппроксимацию при малых 0, так как К(0) = оо в силу пред­

положения Яд ^ > аюаѵ.

З А Д А Ч И К ГЛ. 7

7-1. Применить процедуру предельного перехода, использован­ ную в настоящей главе, к результатам задачи 5-11 и показать, что уравнения оптимальной фильтрации в этом случае принимают вид:

 

 

x = F(t)x

+

K (0 [г (0 -

И (t)x\;

 

 

 

 

К (t) =[P(t\

t) H' (t) +

G(t)S

(t)} R- (0;

 

 

P =

[F (t) -

G (t) S(l)R->

(t)] P

+

P[F{t)-G

(t) S (t) R- 1 (t)]'

-

-

PH' (t) R-' (0

H(t)P+G

 

(t) [Q (0 — S(t)R-*

(t) S' {t)] G' (t)

для системы (7-1), (7-2),

если

E [w (t) vf (x)] = 5

(t) S {t — x).

В этих

уравнениях

t > tB,

x =

x (t \t),

x(t0\

t0) =

0, P =P (t \ t),

P(t01

t0)=

= P (t0) =

E [x (*„) x' (/.)]

(см. [Л. 7-1]).

 

теорем

7-1

и 7-2,

 

7-2. Как следует

изменить

формулировку

если

x(to),

{w(t),

t^to)

 

и

{v(t),

t^to]

имеют

ненулевые матема­

тические ожидания и присутствует известное управление u(t)7 За­ метим, что уравнение (7-1) для этой задачи принимает вид:

x=F(t)x+G(t)w(t)+C(t)u(i).

325

7-3. Если в уравнении (7-7) фигурирует произвольная матрица

передачи К* (t)

вместо

оптимальной матрицы, описываемой

уравне­

нием (7-8), то

какой

вид будет иметь дифференциальное

уравне­

ние для соответствующей корреляционной матрицы ошибки? Явля­

ется ли в этом случае ошибка фильтрации гауссовским

марковским

процессом?

 

 

 

 

 

 

 

 

 

 

 

7-5. В предположении,

что при

численном

решении

уравнения

(7-9) на ЭВМ используется

шаг Л>0, следует

ли при вычислениях

использовать

матрицы:

 

 

 

 

 

 

 

а)

Q(t)

и

R(t)?

 

 

 

 

 

 

 

б)

Q(t)/h и

R(t)/h?

 

 

 

 

 

 

 

в)

Q(t)h

и

 

R(t)h?

 

 

 

 

 

 

 

Объяснить

ответ.

 

 

 

 

 

 

 

7-5. В

системе

связи

передаваемое сообщение

 

имеет вид

x(t) = V sin Мог,

где

t^O, wo=const,

а

V — гауссовская

случайная

величина с нулевым средним и дисперсией а2 о. Принимаемый

сигнал

имеет

вид z(t)—x(t)+v(t),

где {v(t),

t^O}—гауссовский

 

белый

шум с нулевым средним и постоянной

дисперсией о 2 к ,

независимый

от V. Вывести, но не решать уравнения, необходимые для реализа­

ции оптимального фильтра, вычисляющего оценку x(t\t),

и составить

структурную схему

фильтра.

 

 

 

 

 

 

 

7-6. Как будут выглядеть уравнения оптимального

сглаживания

на закрепленном

интервале,

если x(tB),

{^(0.

и

{^(0,

t^U}

имеют ненулевые математические ожидания и присутствует извест­

ное упраівление u(t)

(см. задачу 7-2)?

 

7-7.

Вывести дифференциальное >равнение для взаимной корре­

ляционной матрицы

Pii(i\ti)

=E[x(t\ti)x'в

случае оптималь­

ного сглаживания на закрепленном интервале.

7-8.

При некотором

произвольном ^і>0 вывести уравнения опти­

мального

сглаживания

на

закрепленном

интервале [0, ti] для си­

стемы из примера 7-6 и составить структурную схему сглаживаю­

щего фильтра.

Показать, что P(t\tt)^P(t\i)

для

0 = £ ^ ^ і .

 

7-9. Какому

дифференциальному

уравнению

удовлетворяет

ошибка сглаживания в закрепленной

точке

{x(ti\t),

t^ti}?

Пока­

зать, что этот процесс является гауссовским марковским второго порядка.

7-10. Показать,

что

утверждение теоремы

7-4

можно также

представить в виде

 

 

 

 

 

 

x(t, \ t) =

В* (0

H' (*)/?-• (t) [z (t) -

H (t) x{t

I /)];

 

B*

=

B* [F (t) — К (t) H (t)]';

 

 

 

 

 

ß * ( ' i ) = ^ ( M ' . ) ;

 

 

 

P(tt \t)

:

= _

ß * (t) H' (t) R-l(t)

H

(t)B*'(t),

где t ^ t i . Заметим, что эта формулировка позволяет избежать вы­

числения Р _ 1 ( ф ) .

7-11. Рассмотреть систему из примера 7-1 при а = 0 и О д = о в щ .

а) Для задачи оптимальной фильтрации показать, что в этом примере

P (t 11) = Яд и К (t) = .ч = а щ 5 , для всех t 5> 0.

б) Замечая, что оптимальный фильтр представляет линейную стационарную систему, определить ее передаточную функцию и по­ казать, как можно реализовать фильтр в виде простой RC-uenn.

326

в) Для оптимального сглаживания в закрепленной точке при

=

0 показать, что

В (t)

=

и Р (0 \t) =

(о£/2) (1 + <?_21*') для

^ О .

Указать

возможность

уменьшения

дисперсии начальной

ошиб­

ки до

50%.

 

 

 

 

 

 

 

 

 

г) Для

оптимального

сглаживания с

постоянным запаздыванием

показать,

что

С (/ +

Т)

=

и Р (t

| * +

T) =

(og/2) (1 +

е~2^)

при

^^0.

Указать

возможность уменьшения

дисперсии

ошибки

оценки до

50%

при любом

t^O.

 

 

 

 

д) Составить структурную схему объединенного оптимального фильтра и оптимальных фильтров, сглаживающих в закрепленной точке и с постоянным запаздыванием.

7-12. Доказать теорему 7-5.

7-13. Показать, что при нулевом запаздывании (Г=0) утверж­ дение теоремы 7-5 сводится к утверждению теоремы 7-1.

Г л а в а в о с ь м а я

ОПТИМАЛЬНЫЕ ОЦЕНКИ В НЕПРЕРЫВНЫХ ЛИНЕЙНЫХ СИСТЕМАХ. АНАЛОГОВЫЕ

АЛГОРИТМЫ

В настоящей главе рассматривается иной подход к задаче оценки в непрерывных линейных системах по сравнению с методами предыдущей главы. Здесь задача с самого начала решается в непрерывном времени без обращения к процедуре предельного перехода. Полу­ ченные результаты совпадают с результатами, получен­ ными в гл. 7.

После постановки задачи будет получено матричное интегральное уравнение, представляющее собой необхо­ димое и достаточное условие оптимальности оценки. Это интегральное уравнение, называемое уравнением Винера — Хопфа, выводится здесь с использованием классических вариационных методов. В остальных пара­ графах главы уравнение Винера — Хопфа решается для задач оптимальной фильтрации и оптимального сглажи­ вания в закрепленной точке. Решение остальных задач предоставляется читателю в качестве упражнения, по­ скольку эти результаты известны из гл. 7.

8-1. ИНТЕГРАЛЬНОЕ УРАВНЕНИЕ В И Н Е Р А — Х О П Ф А

Вначале рассмотрим задачу оптимальной оценки, несколько отличную от задачи § 7-1. Предположим, что состояние является непрерывным гауссовский процессом

327

с нулевым средним {x(t), t^t0}, где х — «-вектор, a t0заданное начальное время. Очевидно, что случайный

процесс,

описываемый

уравнением

(7-1),

является

част­

ным случаем такого процесса.

 

 

 

 

На процесс измерения

здесь

накладываются

более

жесткие

ограничения,

чем

ранее.

Предполагается, что

{z(r),

x^to}

является гауссовский

непрерывным

случай­

ным процессом, описываемым соотношением

 

 

 

 

 

г(х)=Н(х)х(х)+ѵ(х).

 

 

 

(8-1)

В уравнении (8-1)

z — m-вектор;

Н(х)—непрерыв­

ная

матрица

размера

тХп;

{ѵ(х),

x^t0}

— гауссовский

белый шум

с нулевым

средним и матричной

корреля­

ционной функцией

вида

 

 

 

 

 

 

 

 

E[v(x)v'(a)]=R(x)6(x—o)

 

 

 

 

для

всех

x,

o^U,

где

R(x)

для всех x~^U — непрерыв­

ная положительно определенная матрица. Предполага­

ется, что

случайные

процессы {x(t),

t^t0}

и {v(t),

t~^U)

могут быть

коррелированными.

 

 

 

 

 

 

Как и

ранее,

обозначим

через

x{t^t)

оценку

состоя­

ния x(t^)

в

момент

времени

f,3-

t0,

сделанную на

основе

измерений

{z(x),

t0^x<zZt}

 

для

некоторого

t^t0.

Ошиб­

ка оценки

вновь

определяется

с

помощью

соотношения

 

 

 

* ( М 0 = * & ) -

*(',!*)•

 

 

Ограничимся критерием качества оценки вида сред-

неквадратической

ошибки

 

 

 

 

 

 

 

 

 

 

1[х{и\1)}

= Е[х'(к\1)х(1^)1

 

 

(8-2)

Далее потребуем, чтобы оптимальная оценка, т. е.

оценка, минимизирующая

J[x(ti\t)],

имела

вид

 

 

 

 

 

 

 

t

 

т ) г ( т ) ^ ,

 

 

 

 

 

 

=

!

Л (f„

 

(8-3)

где A(ti,

х)—матрица

 

размера

 

nXtn,

непрерывно диф­

ференцируемая по обоим своим аргументам.

 

Уравнение (8-3)

просто

означает,

что

оптимальная

оценка отыскивается в классе линейных оценок. Каче­ ственным обоснованием такого ограничения является

328

теорема 5-2, свойства оптимальных оценок на стр. 185, уравнение (5-12), полученное для оптимальных оце­ нок гауссовских процессов с дискретным временем и обсуждение результатов § 7-3 (стр. 291). Действительно, уравнение (8-3) является непрерывным аналогом урав­ нения (5-12). С его помощью оптимальную оценку мож­ но интерпретировать как выходной сигнал нестационар­ ной линейной системы с входным воздействием в виде

 

Нестационар­

>

)

ная л инвиная

 

I

система

 

Рис. 8-1. Представление оптимальной си­ стемы оценки в виде нестационарной ли­ нейной системы.

вектора

измерений.

Это показано схематически

на

рис.

8-1.

 

 

 

С другой стороны, можно ограничиться оценками ви­

да

(8-3)

в силу их

простоты. Предполагается, что

это

облегчит задачу оптимизации и позволит получить про­ стые и эффективные алгоритмы оценки. Такая точка зрения принята в классической теории управления, ког­ да заранее фиксируется структура системы управления, а ее параметры подбираются впоследствии с целью

оптимизации

соответствующего

набора

характеристик

качества.

 

 

 

 

 

 

Используя

более сложные

математические

методы,

чем применяемые в настоящей книге, можно

показать

[Л. 8-1, 8-2],

что

если процессы

{x(t),

t^tQ}

и {z(x),

гауссовские

с нулевыми

математическими ожида­

ниями, то оценка,

оптимальная

не только

для

критерия

качества вида среднеквадратической ошибки (8-2), но и для любого критерия качества вида

 

1[х(^)]

=

Е{Цх(и\Щ},

 

где L — допустимая функция

потерь, должна описывать­

ся уравнением

вида (8-3).

 

 

 

 

Впоследствии A (ti, х)

будет называться весовой

мат­

рицей, чтобы

подчеркнуть,

что она

определяет

связь

между входом системы z(x),

t0^.x^t,

и выходом

x(ti\t),

329

Соседние файлы в папке книги из ГПНТБ