Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Медич Д. Статистически оптимальные линейные оценки и управление

.pdf
Скачиваний:
65
Добавлен:
25.10.2023
Размер:
13.81 Mб
Скачать

Структурная схема

полной модели

изображена на

рис. 2-3, причем отличие от изложенного в гл. 2

заклю­

чается в том, что x(io),

w{t) и v(t), t^,to

теперь

имеют

конкретное вероятностное описание.

 

 

Гауссовский марковский процесс второго порядка

Ход рассуждений здесь будет совершенно анало­ гичным ходу рассуждений при исследовании модели состояния вида гауссовской марковской последователь­ ности второго порядка. Поэтому для простоты все мате­ матические ожидания полагаются равными нулю.

Рассмотрим случайный процесс {x(t), t.^to), описы­ ваемый уравнением

 

x=A(t,)x + B(i)x + G(i)w{t)

(4-60)

для ï^ia.

Предполагается, что x(t0) и

x(tß)—случай­

ные /г-векторы, имеющие совместное гауссовское распре­ деление, с нулевыми математическими ожиданиями и

корреляционными

матрицами Е [х (<t) х'(t)]

= Poo, E[x(t) X

Хж'(/)] = Ли и E{x(t)x'(t)]

= Pu\

Ait) и

В(4)—

непре­

рывные матрицы

размера

пХп,

a G(t)

и {w{t),

i^U}

являются теми же, что и раньше, при дополнительном

условии w(t)=0

для

всех t^t 0 .

Процесс {w(t),

t^t0}

не зависит от х(0)

и

х(0).

 

 

 

 

 

Поскольку уравнение

(4-60) второго порядка, ясно,

что для tm>tm-i>..

.ti^U

условная функция распреде­

ления вероятностей x(tm)

при условии x(tm-i),

x(ti)

зависит только от x(tm-i)

и

x(tm-z).

Следовательно,

{x(t), t^to} — марковский

процесс

второго порядка.

Определив n-вектор у

как

х = у, перепишем

уравне­

ние (4-60) в виде

 

 

 

 

 

 

 

y = B(t)x+A{t)y

+

G(t)w(t).

 

Пусть x* 2«-мерный вектор вида x

У\

Объединяя два последних дифференциальных урав­ нения, получаем:

О

/

0

W(t)

(4-61)

\B(t)A(t)

 

G {Г)

для t^t 0 .

170

Пусть матрица

Ф ( * , т) =

Ф и ( < . ^ ) Ф і 2 ( ' . *)

Ф21 (t,

х) Ф 2 2 (<, x)

 

обозначает

переходную

матрицу

состояния

системы

(4-61) размера

2пХ2п,

где

каждая

из

матриц

Фц(Ъ

х),

і, і— 1, 2, имеет размер пХп.

Ясно, что

 

 

 

 

л

(г) =

Ф п

(*,

Q x {Q +

Ф 1 2

(/,

Q у (Q

+

 

 

 

 

 

t

 

 

 

 

 

 

 

 

 

 

 

 

+

\ <è»{t,*)G

(г) W

 

 

 

 

 

 

Поскольку

случайные

векторы

x(to), y(to)

=x(t0)

и

случайный

процесс {w(x),

x^to)

гауссовские,

то и век­

тор x(t)—гауссовский

 

для

всех

t^to.

Следовательно,

процесс {x(t),

t^to}

— гауссовский

марковский

второго

порядка.

 

 

 

процесс {x*(t),

 

t^to},

 

 

 

С другой стороны,

 

определяе­

мый уравнением (4-61), очевидно, гауссовский марков­

ский. Это следует из того, что x*(to)

является гауссов-

ским случайным 2 n-мерным вектором

с нулевым сред­

ним и корреляционной матрицей

 

E[x*(Qx*'(Q):

Poo Pol

 

 

F"CI Pn

 

независимым от гауссовского

белого шума [w(i),

t^to}.

Эта модель совпадает с моделью (4-52), только вектор состояния здесь имеет 2 n, а не n компонент.

Отсюда можно заметить, что если входом в систему второго порядка является гауссовский белый шум, а на­ чальные условия, независимые от шума, имеют совмест­ ное гауссовское распределение, выходом системы будет

гауссовский марковский процесс

второго порядка.

 

Далее рассмотрим процесс [x(t),

t^U), описываемый

соотношением

x = F(t)x+G(t)w(t),

 

(4-62)

 

 

 

где

возмущение

системы является

гауссовский

марков­

ским процессом,

удовлетворяющим

уравнению

 

 

 

w = A{t)w +

B(t)t(t)

(4-63)

для

t^to [ср. уравнения (4-46)

и

(4-47)].

 

171

В этих уравнениях х—/г-вектор; w/7-вектор;

\q-

вектор; F(t),

G(t),

A(t)

и B(t)—непрерывные

матрицы

размера пХп,

пХр,

рХр

и pXq соответственно.

Пред­

полагается, что X(to) и

w(to)—гауссовские

случайные

векторы с известными математическими ожиданиями и корреляционными матрицами, не обязательно независи­

мые друг от друга. Далее {l(t),

t^to}

— гауссовский

белый шум, независимый от x(t0)

и w(to),

с известными

математическим ожиданием и корреляционной матрицей.

т .

Рис. 4-11. Структурная схема системы (4-62), (4-63).

 

Структурная

схема

формирования

процесса

{x(t),

t^to)

при f i (0, tp?to}

в качестве входного сигнала

по­

казана на рис.

4-11. Система

со входом

\(t)

и выходом

x(t),

очевидно,

имеет второй

порядок, причем

начальные

условия не зависят от входного сигнала и нормально

распределены, а на

вход

подается гауссовский

белый

шум. Следовательно,

{x(t),

t^to} — гауссовский

марков­

ский процесс второго

порядка.

 

Как и в случае дискретного времени, легко показать, что процесс {x*(t), t^to}, где х*—(п + р)-мерный вектор вида

представляет собой гауссовский марковский процесс. Две модели, построенные в этой главе, представляют

собой обобщение моделей систем, введенных в класси­ ческой теории связи и управления (Л. 4-3—4-6]. Класси­ ческая теория основана на независимых работах Винера [Л. 4-8] в США и Колмогорова (Л. 4-9] в СССР.

В упомянутых работах рассматривалась модель ин­ вариантной во времени линейной системы, на вход кото­ рой подавался стационарный белый шум, а воздействие начальных условий считалось пренебрежимо малым,

172

Время

изменялось

в

пределах

о о < / < о о

и получаю­

щийся случайныйпроцесс являлся

стационарным. Эти

упрощения

позволили

провести

анализ

в частотной

обла­

сти.

В

цитируемой

литературе

[Л.

4-3—4-6] приведены

многочисленные

примеры.

 

 

 

 

 

 

Возможные обобщения такой модели очевидны: рас­

смотрение

системы

и

входного

шума

в

общем

случае

нестационарных

и учет влияния начальных

условий.

Без сомнения, рассмотренные здесь модели не явля­

ются

завершенными.

Скорее

они

представляют

лишь

улучшение

ранних

моделей и

сами

в

будущем

будут

улучшены.

Они

не

учитывают

многих

физических

явле­

ний, которые хотелось бы учесть при анализе и синтезе систем. Тем не менее они позволяют с разумной точно­ стью моделировать многие явления, подобные тем, какие были упомянуты выше.

З А Д А ЧИ К

ГЛ. 4

 

 

 

 

 

4-1. Рассмотреть последовательность

независимых случайных

величин х(\),

х(2),

. ..,

имеющих одинаковое гауссовское

распределе­

ние с нулевым средним

и дисперсией а2.

Очевидно,

{x(k),

k=\, 2, .. .}

и {y(k), k=\,

2,

. . . } ,

где y(k) =х(\)

+х(2)

+ ...

+x{k),

являются

случайными процессами с дискретным временем. Определить для лю­ бого целого k характеристические функции каждого процесса.

4-2. Рассмотреть случайный процесс с дискретным временем, опи­ сываемый соотношением

где х(0)—случайный п-вектор с математическим ожиданием х(0) и корреляционной матрицей Р(0). Определить математическое ожида­ ние, матричную корреляционную функцию и ковариационную матрицу

процесса.

 

что

три

случайных

процесса

{x(t),

te/},

{y{t),

4-3.

Полагая,

te/} и

{z(t),

te/}

попарно

независимы,

показать, что они

не

обяза­

тельно совместно

независимы.

 

 

 

 

 

 

4-4.

Показать, что два взаимно независимых случайных процесса

некоррелированы,

но

обратное утверждение

в общем случае неверно.

4-5. Показать, что стационарный в широком смысле гауссовский

процесс также

является

стационарным в узком смысле.

 

 

 

4-6.

Если

{x(t),

te/}—марковский

процесс,

показать,

что

{x(t),

te/i},

где h — подмножество /, также

марковский процесс.

 

4-7.

Показать, что если у случайного процесса {x(t),

от

te/}

при

любых

tiSiti^tz

из / разность x(tz)—x(ti)

не

зависит

x.(t), то

процесс марковский.

 

 

 

 

 

 

 

 

 

4-8. Для гауссовской марковской модели (4-28) рассмотреть слу­

чай, когда X, Ф и w — скаляры и

 

 

 

 

 

 

 

 

x(k+\)=e~hx(k)+w(k);

k=Q, 1

 

 

 

 

173

Полагая,

что äi (0) =

й> (£) =

0,

£ [ х 2

( 0 ) ] = ° о ' Е[тЦк)]

=

=1 и

Е [х (0) te) (k)] = 0

для

 

всех

£,

получить

соотношение

для

Я[& +1 ) А о2

(ft +

1) =

Е [x2 {k +

1)]

и

рассмотреть

его поведение

при k—>-со.

Сравнить

полученный

результат

с предельным

поведе­

нием P(k+\)

в

случае,

если в

описании процесса

заменить

е~к.

на 1—е- *. Является ли процесс при произвольно большом k стацио­ нарным в широком смысле для какого-либо из этих случаев? Стацио­

нарным в узком смысле?

 

 

х(0) зависит

 

{w(k),

k =

 

4-9. Если в модели

системы (4-28)

от

= 0,

1 . . . } , будет ли

последовательность {x(k), k=Q,

1 ... }

все еще

гауссовской марковской?

Объяснить ответ.

 

 

 

 

 

 

4-10. Показать, что

если

в уравнение (4-28)

добавить

аддитив­

ный

управляющий

входной

сигнал

^(fr-l-l, k)u(k),

где

u(k) —

— \i{x(k),

k], a

(x — известная г-мерная

функция

x(k)

и k, то

после­

довательность

{x(k),

k=0, 1 ... } будет

марковской, но не

обязатель­

но гауссовской.

Привести

пример функции ц, при которой

последова­

тельность

{x(k),

k=0,

1,

... }

будет гауссовской

марковской.

 

 

 

4-11.

Пусть

{x(k),

k=0,

1 ...}—гауссовская

марковская после­

довательность, описываемая уравнением (4-28). Корреляционная ма­ трица последовательности определяется рскѵррентно с использова­

нием соотношения P(k+1)

= Ф ( £ + 1 , k)P(k)<t>'(k+l,

k)+T(k+\,

 

k)X

XQ(k)T'(k+l,

k); k = 0, 1 . . .

 

 

 

а) Для случая, когда матрицы Я(0) и Q(k)

известны

с

ошиб­

ками АР(0)

и AQ(k),

вывести уравнение для ошибки корреляционной

матрицы, описывающее поведение этой ошибки во времени.

 

 

б) Для случая,

когда

матрицы Р(0) и Q(k)

известны

с

доста­

точной точностью, но переходная матрица состояния Ф(&+1, k) опре­ делена с ошибкой АФ( £ + 1 , k), вывести рекуррентное уравнение для ошибки корреляционной матрицы, показывающее, как на вычисление корреляционной матрицы влияет ошибка переходной матрицы со­ стояния.

 

4-12. Показать, что случайный процесс

{x*(k),

k=0,

1 .. .}, рас-

сматривеамый в конце § 4-2, гауссовский

марковский.

 

 

 

 

 

4-13. Рассмотреть модель системы вида

 

 

 

 

 

 

 

 

 

 

x(k+l)=<b(k+\,

 

k)x(k)+r(k+l,.k)w(k);

 

 

 

 

 

 

 

z(k+l)=H(k+l)x(k+l)-rv(k+\)

 

 

 

 

 

 

 

для

k=0,

1 . . . Здесь слагаемые, за

исключением

v(k + \),

описаны

в § 4-2, a {v(k+\)t

k=0, 1 ...}—коррелированный процесс,

описы­

ваемый

соотношением

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

о(й + 1)=Ѳ( £ +1,

k)v(k)+l(k)

 

 

 

 

 

 

для

& = 0,

1, ... ,

где Q(k+\,

k)—матрица

размера

тХт.

Пусть

ѵ(0)—гауссовский

случайный

m-вектор,

независимый

 

от

х(0),

{w(k),

ê = 0 , 1 . . . }

и {£(£), k=0,

1 . . . } , с математическим

ожиданием

ѵ{0)

и корреляционной матрицей Ѵ(0).

 

 

 

 

 

 

 

 

Процесс {£ (%),'£'= 0,*1

... }

не

зависит

от х ( 0 ) ,

ѵ (0)

и

{w(k),

& =

0,

1,...} и явтяется

гауссовской

белой

последовательностью

с математическим ожиданием | (k) и матричной корреляционной

функ­

цией

E'{[$(k)-Ï(k)}

[l(fe)-ï"(fe)]'}=Z(fe)8i f t

для

всех

/,

k =-

174

а)

Использовать метод расширения Вектора состояния дли Полу­

чения

гауссовской

марковской модели системы вида (4-28).

б)

В качестве

альтернативы к процедуре из п. «а» предположить,

что «новое» измерение формируется как линейная комбинация двух

последовательных

измерений, а именно, пусть Z,(k) =z(k+1)

+A(k)

X

Xz(k)

для k=\,

2

... , где Л (fe)—матрица

размера тХт.

Случай

k=0

здесь недопустим. Показать, что если

A(k) =Ѳ(к+1,

k),

то

•новое измерение

будет иметь вид

 

 

 

 

 

Uk)=[H(k+\)0{k+l,

k)— Ѳ(А+1,

k)H(k)]x(k) +

 

 

 

 

 

+{H(k+\)T(k+l,

k)w(k)+Uk)\

 

 

для k—l, 2, ... , откуда следует, что ошибка измерения является гаус­ совской белой последовательностью. Этот метод разностных измере­ ний, позволяющий получить измерение с «белой» ошибкой, принадле­ жит Брайтону и Хенриксону [Л. 4-dO]. Метод, очевидно, позволяет обойтись без расширения вектора состояния '. Наконец, ясно, что математическое ожидание ошибки измерения составит:

 

 

 

Я ( А + 1 ) Г ( * ! + 1 ,

 

k)w(k)+J(k),

 

 

 

а ее корреляционная матрица

будет

иметь вид

 

 

 

 

 

H{k

+ \)Y(k+\,

k)Q(k)T'{k+\,

k)H'(k +

l)+Z(k).

 

 

в)

Можно ли процедуру из п. «б» использовать, если х(0)

и ѵ(0)

коррелированы? Объяснить ответ.

 

 

 

 

 

 

4-14.

При / > т ^ о определить

выражение

для P(t, х)

в

модели

(4-52)

с

гауссовский

марковским

процессом

состояния.

 

 

4-15. Рассмотреть скалярный гауссовский марковский процесс

{x(t),

t^O},

описываемый

соотношением х=x+w(t);

t^O, где

х(0) —гауссовская случайная величина с нулевым средним, независи­ мая от скалярного гауссовского белого шума с нулевым средним {w{t), t^Q}, в предположении, что £[д:г (0)]=Р(0). и E[w(t)w(x)}=

= QÔ(t—т)

для всех t, т^О, где Q — положительная постоянная. При

каком соотношении между Р(0) и Q процесс {x(t),

t^O}

является

стационарным в широком смысле? в узком смысле?

 

 

 

 

 

4-16.

Если

случайный вектор

x(ta) в модели (4-52)

не

является

независимым от {w(t), t^tn],

будет ли процесс

{x(t),

t^t0}

 

гауссов­

ский марковским?

 

 

 

 

 

 

 

 

 

4-17. Предположить, что случайный вектор x(U)

в модели

(4-52)

не зависит от {w(t), t^t0},

но не от ошибки измерения {v(t),

t~^ta).

Предположить также, что последние два процесса не зависят

друг

от друга. Будет ли процесс

{x(t),

t^U)

при этих условиях

 

все еще

гауссовским марковским?

 

 

 

 

 

 

 

 

 

4-18. Рассмотреть модель (4-52) при наличии управляющего воз­

действия: x = F(t)x+G(t)w(t)+C(t)u(t),

предполагая, что в

системе

используется управление по замкнутому контуру вида

u(t) =

—M(t)x(t)+e(t),

где M(t)—непрерывная

матрица

размера

гХп,

а {е(0, t^to}

r-мерный гауссовский белый

шум, независимый от

x(ta), но, быть

может, коррелированный

с процессом {w(t),

 

t^tn).

1 Для непрерывного случая разностное

измерение

заменяется

дифференцированным измерением

(см. задачу 8-17).

 

 

 

 

175

Является

ли

процесс {х(г), i^t0]

гауссовским марковским

в присут­

ствии такого

«зашумленного» замкнутого управления?

 

4-19.

а)

Предположить, что частица единичной массы, которая

может перемещаться только вдоль

оси х, покидает начало

координат

в момент времени г=0 со скоростью, являющейся гауссовской слу­

чайной величиной с нулевым средним и дисперсией

о 0 >

0.

Опреде­

лить математическое ожидание и дисперсию ее положения

и скорости

в виде функций времени для t^O.

Кг к выглядит функция

плотности

распределения вероятностей положения частицы при /=10?

Является

ли

двумерный

случайный

процесс с координатами — положением и

скоростью частицы — гауссовским

марковским

процессом?

 

 

б) Предположить, что

в дополнение к условиям

п. «а»

на части­

цу

действует

ускоряющая

сила

в виде гауссовского белого шума

с

нулевым средним и постоянной

дисперсией

а ^ > 0 , независимого

от начального положения и скорости частицы. Показать, что двумер­ ный (положение — скорость) случайный процесс является гауссов­ ским марковским и определить его корреляционную матрицу в виде функции времени. Насколько определенно можно судить о положении и скорости частицы при О>0?

4-20. Рассмотреть систему

 

 

 

0

1

H

 

x =

 

 

где x — двумерный

вектор; ою — постоянная.

Полагая, что

х(0)—гауссовский

случайный вектор с нулевым

средним и единичной корреляционной матрицей размера 2X2, опре­ делить корреляционную матрицу P(t) E[x(t)x' (t)] для t~^tu.

Г л а в а п я т а я

ОПТИМАЛЬНОЕ ПРЕДСКАЗАНИЕ И ФИЛЬТРАЦИЯ

В ДИСКРЕТНЫХ ЛИНЕЙНЫХ СИСТЕМАХ

Этой главой начинается изложение теории оценок.

Вначале

излагается

общая постановка задачи

оценки,

в которой

измерение

и состояние динамической

системы

считаются произвольными случайными процессами с дис­ кретным временем. Решение этой задачи дается теоремой 5-1, имеющей фундаментальное значение в теории оце­ нок.

Затем доказываются следствие к теореме 5-1, а так­ же две дополнительные теоремы для частных случаев основной задачи.

В § 5-2 и 5-3 доказанное следствие используется при построении алгоритмов оптимального предсказания и оптимальной фильтрации для модели системы из § 4-2.

176

Эти алгоритмы являются центральными результатами главы.

Хотя в дальнейшей работе используется только тео­ рема 5-1 и ее следствие, в главу включены еще две тео­ ремы, чтобы дать читателю более глубокие сведения из теории оценок и подвести к мысли о том, что получен­ ные здесь частные результаты представляют довольно общее описание теории.

5-1. ОПТИМАЛЬНЫЕ ОЦЕНКИ В ДИСКРЕТНЫХ СИСТЕМАХ

Формулировка задачи

Рассмотрим динамическую систему 5, состояние которой представляет собой л-мерный случайный процесс

с дискретным

временем

{x(k),

kŒl}, где

I = {k

: k = Q,

1, ..., N}, либо

/ = {k : k = 0,

1 . . . } . Требуется

определить

значение x(k)

для некоторого

заданного

k,

если

x(k)

недоступно

непосредственному

наблюдению.

Предполо­

жим,

что

полученные

последовательные

измерения

г(1),

..., z(j)

связаны

с

x(k)

посредством

некоторой

измерительной

системы М,

как

показано

на

рис. 5-1, и

требуется использовать эти данные, чтобы сделать за­

ключение о значении

x(k).

Предполагается,

что

{z(i),

/ = 1 ,

..., /} — m-мерный

случайный

процесс с дискретным

временем.

 

 

 

 

 

 

 

 

 

 

Так как для оценки x(k)

известны только

измерения

г(1),

..., z(j),

обозначим

 

оценку

x(k), полученную

на

основе этих измерений,

через x(k\j)

и определим

ее как

я-мерную вектор-функцию

измерений:

 

 

 

 

 

 

х(Ь\]')=щ[г(і),

 

і=1,

/]•

 

 

 

 

Задача оценки представляет собой задачу определе­

ния

функции

ерь некоторым

рациональным

и

обоснован­

ным

способом.

Если £ > / ,

задача

называется

задачей

предсказания,

если &=у, это задача фильтрации,

а если

£ < / , — задача

сглаживания

 

или

интерполяции.

 

 

Принятый здесь метод решения этой задачи основан

на рассмотрении

ошибки

оценки,

которая

определяется

соотношением

 

 

 

 

 

 

 

 

 

 

x(k\j)=x(k)-x(k\j).

Такое определение имеет геометрическую интерпре­ тацию, показанную на рис. 5-2.

12—85

177

В

идеальном

случае

x(k\j)=0,

и

оценка

является

точной. Если

х(к\])фС>,

установим

штраф за

неправиль­

ную

оценку,

определяя

функцию

штрафов

или

потерь

L = L[x(k\j)],

которая

имеет

следующие свойства:

 

1)

L — скалярная

функция

ѣ переменных;

 

 

2)

L ( 0 ) = 0 , где нуль

в

скобках

означает

нулевой

л-вектор;

 

 

 

 

 

 

 

 

 

 

 

3) L[xh{k\i)\^L{xa(k\i)]

 

 

 

всегда,

если

 

 

p[xb(k\j)]^

^p[xa(k\j)],

где

р — скалярная неотрицательная

выпу-

 

с

к л

 

ъ(і)

 

 

 

 

 

 

 

 

О

M

 

 

 

 

 

 

 

 

 

Рис. 5-1. Структурная схема

 

 

 

 

 

 

динамической системы 5 с век­

Рис. 5-2. Геометрическая

тором состояния

x(k)

и

изме­

рительной

системы M с

векто­

интерпретация

 

ошибки

ром измерения

г(і).

 

 

 

оценки.

 

 

 

 

клая функция п переменных, т.

е.

р{кх+(1—Х)г/]<!

<;Яр(х)+(1Х)р(у)

для любых

n-мерных

векторов х

и у при

1 ;

 

 

 

 

 

 

 

 

 

 

4)

L[x(k\j)]

=

 

L[-x(k\i)].

 

 

 

 

 

 

Первое свойство выбрано

 

для

удобства,

т. е. штраф

считается скалярным из-за аналитической простоты та­ кого описания. Второе свойство просто утверждает, что в случае точной оценки не накладывается никакого штрафа. В третьем свойстве р является мерой расстоя­ ния ошибки x(k\j) от начала координат «-мерного евкли­ дова пространства, a L определяется как неубывающая функция этого расстояния. Таким образом, чем ближе x(k\j) к нулю, тем меньше штраф. Четвертое свойство означает, что функция Ь[-] симметрична относительно нуля. Функция потерь, обладающая всеми этими четырь­ мя свойствами, называется допустимой функцией потерь.

Следует заметить, что L не обязательно должна быть выпуклой функцией.

Типичные примеры допустимых функций потерь:

1.Ч 2 ( А | / ) ] = І « < І - М * | / ) | .

178

где а г - ^ 0 , но не все <ХІ тождественно равны нулю.

2. L[x(k\j)}=a\x{k\j)\\

где а ]> 0, р — положительное целое число и

 

 

 

 

 

 

И/2

 

 

 

 

 

 

 

 

S

- 2

 

 

 

 

3.

 

 

 

 

 

 

 

 

 

 

 

L [x (k I /)] =

а, {1 — ехр [ а, I x (Ä I /)

| 2 ] } ,

 

где

а,

и

а , > 0.

 

 

 

 

 

 

 

4.

 

 

 

 

 

 

 

 

 

 

 

L[x(Ä|/)] = f 0

д л я

С ( ^ ' ) І 4 < а -

 

 

 

 

 

 

) ц

для

| х ( / с | / ) ; ' а,,

 

 

где

а,

и

f i > 0 .

 

 

 

 

 

 

 

Так

как x(k) и х (£ |/) —случайные

векторы,

отсюда

следует,

что x(k\j)

также

случайный

вектор,

a

L—слу­

чайная величина. Для того чтобы получить полезную

меру

потерь,

определим

критерий

качества

J как сред­

нее значение L , т. е.

 

 

 

 

 

 

J[x(k\j)]

= E{L[x(k\j)]}.

 

(5-1)

Для допустимой функции потерь, очевидно,

 

 

 

J[xb(k\j)]p>J[x*(k\j)]

 

 

 

всегда, если L[xb(k\j)]p>L[xa(k\j)].

Следовательно, / —

неубывающая

функция

потерь.

Говорят,

что

оценка

x(k\j),

минимизирующая J[x(k\j)],

является

«наилуч­

шей» или оптимальной

оценкой.

 

 

 

Заметим, что оптимальная оценка минимизирует не потери, а среднее значение потерь. Следовательно, под

оптимальной оценкой

здесь

подразумевается оценка,

«оптимальная в среднем».

 

 

Постановка

задачи

 

 

По данным

измерениям

z ( l ) , ..., z(j)

определить

оценку

 

 

 

 

x(k\j)

=

<?k[z{i),i

= 1,2,...,/]

 

12*

179

Соседние файлы в папке книги из ГПНТБ