Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Медич Д. Статистически оптимальные линейные оценки и управление

.pdf
Скачиваний:
70
Добавлен:
25.10.2023
Размер:
13.81 Mб
Скачать

Дифференцируя это равенство почленно по t и под­ ставляя в результат уравнение (8-68), получаем:

P (f, 10 = Е[х(іг I 0 x' (t,)] = ~A(t, t) {H (t) X

Х£[*(Ф)*ЧО1 + £И0*'(О]}.

Так как 5(/)=0, из уравнения (8-39) следует, что E[v(t)x'(^)]=0 для всех t^t± и последнее уравнение примет вид:

 

 

 

P(t1\t)

= — A (t, t) H (t) E [x(t 11) x' (t,)}.

 

(8-83)

Для t^iti

ошибку фильтрации

можно выразить в виде

 

 

 

 

 

 

 

t

 

 

 

 

 

 

 

x(t\{)

=

W (t, t,) Х ( і г

+

(t, x) [G (x) W (x)

-

 

 

 

 

 

 

 

 

t,

 

 

 

 

 

 

 

 

 

 

 

-

К (x) ü (x)] dx,

 

 

 

(8-84)

где

Ч*(і, x)—переходная

 

матрица

состояния

системы

 

 

 

 

 

x = [F(t) — К {t) H {t)} x.

 

 

 

(8-85)

Используя уравнение (8-84), получаем:

 

 

 

 

 

E[x(t\

t) x' (t,)} =

W(t,tt)E [x{t,

I g x'

&)]

+

 

 

 

 

t

x) {G (x) £ [да (x) x' (t,)} -

Л" (T) E [V (x)

&)]} dz.

+

\4(t,

 

h

 

 

 

 

 

 

 

 

 

 

 

Однако оба математических ожидания под интегралом

в правой

части

равны

нулю в

силу уравнений

 

(8-25),

(8-39) и условия

S (0 =

0.

По определению

ошибки

филь­

трации

x (/,) = х

(tj I /,) -f-x (t111,).

 

Поэтому

следствие

8-1 приводит к результату

 

 

 

 

 

 

 

 

E[x(t\

t) x' (/,)] = W (t, ІЛ E fx (t, \t,)[~x (f, | g

+

 

 

 

 

 

+

x{ßl\tl)]'}

= 4r(t,t1)P(tl\t1).

 

 

(8-86)

Сравнивая уравнение (8-85) с уравнением, получен­

ным

транспонированием

матриц

в обеих

частях

(8-75),

можно

увидеть,

что оба они имеют

одну

и ту же

пере­

ходную матрицу состояния или фундаментальную

мат­

рицу,

а именно

^(t,

х).

Согласно

уравнению

(8-76)

Я * ' ( * І ) = Я ( * І | * І ) и

 

 

 

 

 

 

 

 

 

 

 

 

B*'(t)=W(t,

и(Щи).

 

 

(8-87)

W

 

 

 

 

 

 

 

 

 

 

 

 

 

t

Из уравнений (8-86) и (8-87) сразу следует, ЧТО

£[ж(-/|0*'('і)] = Я * ' ( 0 . Подстановка этого результата в (8-83) дает:

 

 

РЦг\()

= — А (t, t) H В*' (t)

 

(8-88)

для

t^sti.

Начальное

условие для уравнения

(8-88), оче­

видно, имеет вид:

 

 

 

 

 

 

 

P(ti\ti) =E[x(ti\tt)x'(ti\til)l

 

(8-89)

Его можно получить, решая уравнение

(8-54)

для

/=і/'і при условии S(t)

=0.

 

 

 

 

Три разные формы уравнения (8-88) можно сразу

получить

'из соотношений между

матрицами

A(t,

t),

B*(t)

и

B(t).

 

 

 

 

 

Подстановка уравнения (8-77) в уравнение

(8-88)

дает:

 

 

 

 

 

 

 

 

P (t, \t) = -

В* (0 H' (t) R -1

(t) H (t) В*' (t).

(8-90)

Из уравнения (8-78) очевидно, что

B*(t)=B(t)P(t\t),

и уравнение (8-90) можно записать в виде

P{t1\f) =

-B(t)P(t\t)H'(f)R-4f)H(t)X

XP(t\t)B'(t)^-B

(t) К {t) R (0 К' (t) В' (t), (8-91)

что совпадает с уравнением (7-59) в утверждении тео­ ремы 7-4.

Наконец, из уравнения (8-77) следует, что

H{t)B*'{t)=R{t)A'{t, t),

и уравнение (8-90) можно переписать в виде

P(tt\t)=-A

{t, t) R (t) A' {t, t).

(8-92)

Случайный процесс

{x(ti\t),

t^ti),

описываемый

уравнением (8-68), очевидно, является гауссовским мар­ ковским процессом второго порядка с нулевым средним, так как его можно представить в виде

_ t

x (M 0 = * С. I ti) - f А

W (х) * СФ) + о Wl dz,

где (х(т(т),

х^ііі}

— гауссовский

марковский

процесс

с нулевым

средним, a {ѵ(х), х^іі)

— гауссовский

белый

шум с нулевым

средним.

 

 

 

Обращаясь

к вопросу о вычислении матриц A [t,

t) и

P(ti\t), заметим,

что для этой цели

предпочтительно

ис­

пользование уравнений (8-77), (8-75), и (8-90), а не

уравнений (8-79), (8-81) и

(8-91). Причина заключается

в том, что в этих уравнениях требуется обращать

раз­

личные

матрицы. Точнее,

в уравнении (8-81) для

вы­

числения

В (it) требуется

обратить матрицу P(t\t).

Но

в задачах с большими временами фильтрации и сглажи­ вания матрица P{t\t) может приближаться к нулевой и поэтому становится почти сингулярной. В рассматривае­ мых здесь простых примерах это не представляет су­ щественных затруднений, поскольку аналитические вы­ числения имеют «бесконечную» точность. Однако при ко­ нечной длине машинного слова в цифровых ЭВМ ошиб­

ки

округления

могут проникнуть

в

расчеты

и

привести

к существенным искажениям.

 

 

P(ti\t)

 

 

 

Возможно,

для

вычисления матрицы

 

будет

выгоднее использовать уравнение

(8-92), а не (8-90) или

(8-91), поскольку

матрица

A(t,

t)

всегда

вычисляется

при анализе или моделировании работы

сглаживающего

фильтра.

 

 

 

 

 

 

 

 

 

 

 

 

Имея в виду все эти комментарии, результаты

пара­

графа можно объединить в виде следующей

теоремы,

подтверждающей теорему 7-4.

 

 

 

 

 

 

Теорема

8-3.

 

 

 

 

 

 

 

 

 

1)

Оптимальный

фильтр,

сглаживающий

в

 

закреп­

ленной

точке, описывается

 

уравнением

 

 

 

 

 

 

 

x(tt\t)

=

A (t, t) [z (t) -H(t)x(t\t)}

 

 

 

(8-93)

для

t~^iit

при

начальном

условии

x(ti\U),

 

представляю­

щем

собой

текущую

оценку

в момент

ti.

 

 

 

 

2)

Матрица

передачи

сглаживающего

фильтра

опре­

деляется с помощью

соотношения

 

 

 

 

 

 

 

 

 

 

 

A(t,

t)=B*{t)H'{t)R-i{t),

 

 

 

 

(8-94)

где

матрица

B*(t)

размера

пХп

 

является

 

решением

матричного

 

дифференциального

 

уравнения

 

 

 

 

 

 

 

B* =

 

B*[F{t)-K{t)H(t)Y,

 

 

 

(8-95)

362

для

t~^t\

при условии

B*(ti)=P(ti\ii).

Здесь K(t) =

= P(t\i)H'(t)R-i(t)

—матрица

передачи

оптимального

фильтра.

 

 

 

 

 

 

 

 

 

 

 

3) Случайный

процесс

{x(t\\t),

t^ti)—

 

гауссовский

марковский

процесс второго

порядка

с нулевым

средним

и корреляционной

матрицей,

удовлетворяющей

матрич­

ному дифференциальному

 

уравнению

 

 

 

 

 

 

P (f, 10 =

-

A{t,t)R

{t) A' {t, t),

 

(8-96)

для

t^ti

при

начальном

 

условии

вида

P(U\ti)

=

= E[x{ti\ti)x'(h\ti)],

т. е. равном

корреляционной

матри­

це

ошибки

оптимальной

фильтрации

в момент

ti.

 

 

Проиллюстрируем использование

приведенных

здесь

результатов на

следующем

простом

примере,

при іо =

=—оо и

ігі = 0.

Другими

словами,

здесь

сглаживание

в закрепленной точке начинается после того, как опти­

мальный фильтр, служащий для расчета x(t\t),

достиг

установившегося состояния.

 

 

 

Пример 8-2. Рассмотрим систему

 

 

 

 

x = ax+w(t) ;

 

 

 

 

z(t)=x(t)+v(t),

 

(8-97)

где

а—действительная

скалярная величина;

{w(t),

— о о } и

{v(t),

t~^.—оо}скалярные

гауссовские белые

шумы с

нулевыми

математическими ожиданиями и единичными дисперсиями. Пред­ полагается, что эти два случайных процесса взаимно независимы. Используя результаты теоремы 7-1, получим уравнение для диспер­ сии ошибки фильтрации

 

Р=2аР—Р2+1,

 

 

 

 

где P—P(t\t).

Установившееся

решение получим,

подставляя сюда

Р = 0 :

 

Vât+l.

 

 

 

 

 

P(t\t)=a+

 

 

 

 

Так как H(t) = l и R-X(t) = l, отсюда следует,

что

K{t)=P(t\t).

Теперь рассмотрим сглаживание в закрепленной точке

для че­

тырех случаев, различающихся в зависимости

от параметра

системы

а при *5?іі=0 .

 

 

 

 

 

 

1. а>0 при | а | < 1 . В этом

случае система (8-97)

неустойчива.

Здесь

 

 

 

 

 

 

F{t)—K{t)H(t)=a

a Ѵаг+

1 я- — 1 ;

 

 

р I 0) = а + Ѵаг + 1 ^ 1.

 

 

 

Уравнение

(8-95) принимает вид

 

 

 

 

 

В*-.—В*,

 

 

 

 

363

и его решение, очевидно,

 

 

 

 

B*(t)=e-';

t^O,

 

 

поскольку

ß*(0) =Р(010) = 1. Так как функции

H(t) и R~l(t)

тож­

дественно

равны единице, из уравнения (8-94)

следует, что

коэф­

фициент передачи оптимального фильтра, сглаживающего в закреп­

ленной точке A(t, t)=B*{t).

Тогда из уравнения (8-93) получаем:

x(Q\t) =

e-*[z{t)—x(t\t)\.

Уравнение (8-96) для дисперсии ошибки сглаживания в закреп­ ленной точке примет вид:

Р ( 0 | < ) = — е - " .

Так как Р (0 | 0) • ] , то

и для достаточно больших значений t ясно, что P(Q\t)—И/2. За­ метим, что в этом случае соответствующая дисперсия ошибки филь­ трации равна единице, и за счет сглаживания в закрепленной точке достигается выигрыш в точности, равный 50%. _

2. а > 0 при

| а | > 1 . Здесь / > ( ф ) « 2 а и

K(t)~2a,

так что

F(t)—K(t)H{t)=—а.

Следовательно,

В* = —аВ*,

что дает

 

 

B*(t)=2ae-at;

f2?0,

 

 

так как В*(0) =Р(010) =2а. Уравнение для дисперсии имеет вид Р(0|г)= — 4a z e~ 2 a t ; его решение, как легко убедиться,

P(0\t)=2ae~2a'.

Для достаточно больших t дисперсия P(0\t)—К). Следователь­ но, теоретически при сглаживании в закрепленной точке можно точ­ но определить х(0), в то время как соответствующая дисперсия ошибки фильтрации равна при | а | > 1 .

3. а < 0 при

[ о | < 1 . Система уравнений

(8-97),

очевидно,

устой­

чива. Заметим,

что F((\t)=a+

Ѵа2+\,

и окончательный результат

совпадает со случаем

1, а именно,

 

 

 

 

 

 

/>(0|о = -^"(1+*"">•

 

 

4. о < 0 при | а | > 1 . В этом случае

 

 

 

 

 

P (t |0

=

а +

VäF+~\ ^ а +

I а | = 0,

 

так как а отрицательно,

и

очевидно,

улучшение

точности

оценки

с помощью сглаживания в закрепленной точке

является

в этом

случае излишним.

 

 

 

 

 

 

 

З А Д А Ч И

К ГЛ. 8

 

 

 

 

 

 

8-1. Доказать

достаточность

уравнения

Винера — Хопфа,

исследуя d2J/de2

при е = 0 .

 

 

 

 

 

8-2. Записать уравнение

Винера — Хопфа через

соответствующие

корреляционные

функции.

 

 

 

 

 

364

8-3.

Как будет выглядеть

уравнение Винера — Хопфа,

если слу­

чайные

процессы {x(ti), ti^to}

и {z(x),

to^x^t}

имеют

ненулевые

математические ожидания?

 

 

 

 

 

8-4.

Как будет

выглядеть

уравнение Винера — Хопфа для за­

дач:

 

 

 

 

 

 

 

а)

оптимального

предсказания?

 

 

 

б)

оптимального

сглаживания

на

закрепленном интервале?

в) оптимального

сглаживания

с постоянным

запаздыванием?

8-5.

Записать и решить уравнение

Винера — Хопфа для модели

системы (7-1), (7-2) в задаче оптимального предсказания с посто­ янным упреждением x(t+T\t), где t^t0, а Т — положительная по­ стоянная («время упреждения»). Вывести также дифференциальное уравнение для корреляционной матрицы ошибки предсказания с по­

стоянным упреждением

x(t+T\t)

=x(t+T)—x(t+T\t).

8-6. В задаче оптимальной фильтрации показать, что весовая

матрица оптимального фильтра имеет вид:

 

A(t, x)=W(t,

т)Д(т)

для t, x^to, где Л'(т)

определяется

с помощью уравнения (8-53),

a *¥(t, т) —переходная матрица состояния системы вида

 

y=[F(t)-K(t)H(t)]y,

где у — любой действительный я-вектор.

8-7. Пусть

матрица передачи фильтра определена в предполо­

жении, что S 0

= 0 , т. е. с помощью соотношений

 

 

K(t)=P(t\t)H'(t)R-i(l);

 

 

P = F(t)P

+ PF'(t)—PH'(t)R-4t)H(t)P

+

G(t)Q(t)G'(t)

для t^to, где

P=P(t\t)

и P(ta\ta)<=P(h)

и

пусть матрица S(t)

в действительности не равна нулю. Какое дифференциальное урав­

нение следует в этом случае решить, чтобы

определить

истинную

корреляционную

матрицу

ошибки фильтрации?

 

 

 

 

8-8.

Если

матрица R(t)

неотрицательно

определена для всех

t^to,

будет ли уравнение

 

 

 

 

 

 

 

 

 

 

 

 

 

 

дА (t

і)

 

 

 

 

 

 

 

 

F(t)A(t,

х ) _

±~1~-A(t,

t)H(t)A(t,

x)

= 0

 

при t0 <

x < t

эквивалентным

уравнению

 

 

 

 

 

 

t

 

 

 

 

дА

it

і\

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

F(t)A(t,

 

x ) -

± - L - A ( t , t)H{t)A{t,

x)

 

 

 

 

 

XE[z

(x) z'

(a)] c?x =

0

 

 

 

 

при

to^o<.t?

Исследовать этот

же вопрос

в случае,

когда

матрица

Q(t)

положительно

определена

для t^t0,

а

матрица

R(t)

неотри­

цательно

определена.

 

 

 

 

 

 

 

 

 

 

8-9.

Рассмотреть

скалярную

систему

x =

m(t),

 

z(t)=x(t)+v(t)

для

t^O,

где

Q(0=9/4;

R{t) = l;

S(0 = 1/2,

/>(*<>) =28,

 

365

а)

Определить P(t\t) и K(t) для всех

t^O.

 

 

б)

При t—»-оо показать, что

P(t\t)—И.

 

 

в) Если коэффициент передачи фильтра определен

без учета

того, что S(0 = 1/2, т. е. в предположении

S(0=0, чему

равна фа­

ктическая дисперсия ошибки фильтрации при t—>-оо?

 

 

8-10.

Показать, что уравнение

 

 

 

 

 

 

 

àA

(t, т)

 

 

 

 

возникающее

при доказательстве

теоремы

об оптимальном сглажи­

вании

в закрепленной

точке, при ti^x^t

эквивалентно

уравнению

С г дА (t, z)

 

 

 

Е [г (т) z' (a)] dz = 0

\

I

 

+A(t,

t)H(t)A°(t,

г)

d t

 

 

 

U

 

 

Предположить, что матрица

R(t) положительно

опре­

при ti^a<t.

делена для всех

t^ti^to.

 

 

 

 

8-11. Частица,

которая может

двигаться только в одном

изме­

рении, покидает начало координат со случайной скоростью, распре­

деленной по гауссовскому закону с нулевым математическим

ожи­

данием и дисперсией

"g = const

0.

 

 

 

 

 

 

 

 

 

 

Частицу

ускоряет

случайная сила,

имеющая

вид гауссовского

белого

шума {w(t),

t^-.O}

с

нулевым

средним и дисперсией з^—-

= const>0.

Положение

частицы непрерывно

измеряется

в

присутст­

вии аддитивного

скалярного

гауссовского

белого

шума

{v(t),

 

t^0}

с нулевым

средним

и дисперсией

o2 „ = const>0,

независимого от

{w(t)t

t^0}.

Для простоты

предположим,

что частица

имеет

еди­

ничную массу.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

а)

Вывести, но не решать

уравнения

для оптимальных

оценок

положения и скорости частицы при

t^0.

 

 

 

 

 

 

 

 

 

б)

Вывести, но не решать

уравнения для оценки

скорости, с ко­

торой

частица покидает начало координат

при t=0

с

использова­

нием

алгоритма

оптимального

сглаживания

в закрепленной

 

точке.

8-12. Как выглядят уравнения оптимального сглаживания в за­

крепленной точке, если случайные процессы

{w(t)t

 

t^to}

и

 

{v(t).

t^to}

коррелированны и E\w(t)v'(x)]=S(t)à{t—т)

 

для всех

t,

TJS^O?

8-13. Для задачи

оптимального

сглаживания

на закрепленном

интервале to^t^tt

 

показать, что:

 

 

 

на закрепленном

 

интер­

а)

оптимальный

фильтр, сглаживающий

 

вале, описывается

уравнением

 

 

 

 

 

 

 

 

 

 

 

 

x(t

К ) = F (0 x (t I U) + •-!.(/., i)\x(t

| <,) - x

(t |0]

 

 

 

для

г, приграничном

условии x (tt

\ tt)

и при условии, что

матрица передачи оптимального сглаживающего фильтра удовлетво­

ряет соотношению A(t, <)='G(0Q(0G '(0^_ 1 (n0;

б) Корреляционная матрица соответствующей ошибки сглажи­ вания удовлетворяет матричному дифференциальному уравнению

^(i\ii)=lF(f) + 0(t)Q(t)Cr(t)P-i(t\t)]x.

Х Р ( ф і ) + £ ( ф і ) [P(() + G(t)Q(t)G'(t)P^(t\t)Y-r~G(t)Q(t)a'(t)

366

для

Z o ^ / s s ^ i

с граничным условием

P(tt\tt).

 

Предполагается,

что

процессы

{w(t),

t^to}

и М О . t^to}

взаимно

независимы.

 

 

 

8-14.

Показать,

можно ли модифицировать

результаты

задачи

8-13

в случае

коррелированных

процессов

{w(t),

t^t0}

и

{v{t),

t^k}

при E[w(t),

v'(%)}=S(t)b(t—x)

для

всех /,

x^zto,

и

если

можно, то каким образом.

 

 

 

 

 

 

 

 

 

8-16.

Вывести,

но

не решать

уравнения для

сглаженных

на

закрепленном интервале оценок положения и скорости частицы из

задачи 8-11. Рассмотреть систему на

интервале

времени

О ^ г ^ Г ,

где Т постоянно.

 

 

 

 

 

 

 

8-16. Из соответствующего

интегрального

уравнения

Винера —•

Хопфа получить уравнения оптимального сглаживания с

постоян­

ным запаздыванием для г^Го, где запаздывание

Г—const>0, в пред­

положении

независимости

 

случайных

процессов

{^(0,

г ^ г 0 } и

М О , t>to}.

 

 

 

 

 

 

 

8-17. Для модели системы

 

 

 

 

 

 

x =

F X + G (t)w (0;

 

 

 

 

z{t)

=

H

(t)x(t)

+ v(t),

 

 

 

где t^to,

предположить,

что процесс

М О .

 

не гауссовский

белый шум с нулевым средним, а коррелированный процесс, опи­ сываемый соотношением

 

 

 

 

 

i=A(t)v

+

 

l(t),

 

 

 

 

 

 

где t^to,

A(t)—непрерывная

 

матрица

размера

mxm,

а

{£(0.

t^to}—m-мерный

гауссовский

белый

шум с

нулевым

средним.

Предположить, что

вектор

v(to)

«е

зависит

 

от

x(to),

{£(0>

i^-h),

{w{t),

i^to}

 

и имеет положительно

определенную

корреля­

ционную матрицу E[v(to)v'(t0)]=V(to).

 

 

Пусть

для

{|(0.

 

справедливы соотношения

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

E[x(t0)l'(t)]

 

= 0;

 

 

 

 

 

 

 

 

 

 

 

E[W)¥W=W(t(t-x);

 

 

 

 

 

 

 

 

 

 

 

 

Ei[w(t)l'(x)]=0

 

 

 

 

 

 

 

при любых

t,

x^to,

 

где W — матрица

размера mx>n,

положительно

определенная и непрерывная.

 

 

 

 

 

 

 

 

 

 

а)

Можно

ли

в

этом

случае

при

определении

оптимальной

оценки

x(t\t)

для

r^fo применить

метод

расширения вектора со­

стояния и теорему 8-1? Если можно, то

составить

соответствующие

уравнения, а если нельзя, то объяснить почему.

 

 

 

 

 

б)

Ранее

(см. задачи 4-13 и 6-19)

была

введена

процедура

формирования

разностных

измерений

для

дискретных

измерений

с коррелированной во времени ошибкой. Полученное разностное из­ мерение имеет ошибку в виде белого шума. Аналогично этой про­ цедуре в настоящей задаче для получения того же результата мож­

но использовать

дифференцирование. Определяя новое измерение

как

 

 

z* (0 — z(t) — A (0 г (О,

показать, что это

новое измерение можно записать в виде

 

2*(0=я*(0*(0 + £(0.

367

где

 

 

 

 

 

 

 

 

И* (0 = H (t) + H (t) F(t)-A

(t) Я (О,

 

a {£(/), t^ta]—m-мерный

 

гауссовский белый

шум с нулевым

сред­

ним, для которого

 

 

 

 

 

 

Е [I (t) V (x)] =

[H (t) G (t) Q (t) G' (t) M' (t) + W (t)] d (t -

x);

 

E [w (t) V (x)] =

Q(t)G'(t)H>

(t) S (t - x);

 

 

 

E[x

(<„) Ç' (01=0

 

 

при всех t,

x^to.

Заметим,

что эти формулы

требуют дифферен­

цируемое™

матрицы И(і)

[Л. 8-2, 8-6—8-8J.

 

 

 

в) Применить

теорему

8-1 к формулам

п. «б» и получить

урав­

нения оптимального фильтра. Составить структурную схему опти­

мального

фильтра,

в котором

не

используется операция

дифферен­

цирования

z(t)

[Л. 8-2, 8-6—8-8].

 

 

 

г) Показать,

что для такого

метода

начальными

условиями

являются:

 

 

 

 

 

 

 

x (to \to) =

Р (to) H' (t„) [H

(t,)

P(t0) H'

(t„) + V (t0)\-

>z (t0)

P(t0\ tt) = P (t,) - P (*,) H' (r0 ) [H (t0) P (t0) H' (t0) +

+V(t0))-<H(t0)P(tl>),

где матрица P(to)=E[x(t0)x'(t0)]

предполагается

известной

[Л. 8-2,

8-6—8-8].

 

 

 

 

д) Перечислить дополнительные условия, необходимые

в п. «в»,

такие как дифференцируемость Н(і) и пр. Можно

ли предположение

о положительной

определенности

матрицы W(t)

в п. «в»

ослабить,

потребовав, чтобы

эта матрица

была лишь неотрицательно опре­

делена? Объяснить

ответ.

 

 

 

Г л а в а д е в я т а я

 

 

 

СТАТИСТИЧЕСКИ ОПТИМАЛЬНОЕ

УПРАВЛЕНИЕ

В ДИСКРЕТНЫХ ЛИНЕЙНЫХ СИСТЕМАХ

 

Общая задача управления, оптимизирующего неко­ торый критерий качества поведения системы при воздей­ ствии возмущений и ошибок измерения, была кратко рассмотрена в гл. 1. В настоящей и следующей главах исследуется частный класс задач, входящих в подобное общее описание, в которых состояние системы представ­ ляет собой гауссовский марковский процесс, рассмотрен­ ный в § 4-2 и 4-3, а в модель динамики системы добав­ ляется аддитивный сигнал управления. За критерий качества принимается математическое ожидание квадра­ тичной формы от переменных состояния и управления на фиксированном интервале времени. Хотя этот крите­ рий качества и не обладает для задач управления той

368

Л

общностью, какой обладает класс критериев Качества, рассмотренный в задачах оценки, он имеет ряд особен­ ностей, делающих его полезным для приложений. Эта задача в случае как дискретного, так и непрерывного времени называется задачей стохастического линейного

регулятора.

Здесь

исследуется

 

 

 

 

случай

дискретного

времени,

 

 

 

 

а в гл. 10 — случай

непрерыв­

 

 

 

3

ного времени.

 

 

подробная

 

 

 

I

В § 9-1 дается

 

 

 

 

 

формулировка

задачи

дискрет­

 

 

 

I

ного стохастического

линейно­

 

 

 

 

 

 

 

го регулятора.

Затем

в § 9-2

Рис. 9-1. Структурная схе­

излагается

принцип

оптималь­

ма,

иллюстрирующая

прин­

ности [Л. 9-1]. Там же

он ис­

цип

разделения.

 

пользуется для решения детер­

/ — объект;

2 — процесс

и з м е ­

минированной

задачи

в пред­

рения; 3 — статистически

опти­

мальная

система управления;;

положении,

что

возмущение

мальный

регулятор; 5 — опти ­

 

 

 

 

 

 

 

4 — детерминированный

о п т и ­

системы

отсутствует

и все пе­

мальный фильтр.

 

ременные

состояния

 

системы

 

 

 

 

могут быть точно измерены. Решение детерминированной задачи рассматривается здесь по двум причинам: во-пер­ вых, в качестве относительно простого введения в мето­ дику, используемую в дальнейшем при решении стохасти­ ческой задачи, и, во-вторых, с целью получить важный результат, играющий существенную роль при интерпре­ тации решения этой задачи.

Задача дискретного стохастического линейного регу­

лятора решается в

§ 9-3

и результат решения

интер­

претируется

в свете

результатов § 9-2,

что приводит

к принципу

разделения,

утверждающему,

что

система

оптимального управления состоит из последовательно соединенных оптимального фильтра и детерминирован­ ного оптимального регулятора, рассмотренного в § 9-2. Этот результат схематически изображен на рис. 9-1.

9-1. ФОРМУЛИРОВКА З А Д А Ч И

Модель системы

Рассматриваемая здесь модель системы описывает­ ся соотношениями

* ( А + 1 ) = Ф ( А + 1, k)x{k)+r(k+l,

k)w(k) +

+ W(k+\,

k)u(k);

(9-1)

z(k+\)=H{k+l)x(k+l)+v{k+l)

(9-2)

24-85

369

Соседние файлы в папке книги из ГПНТБ