Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

afanasev_v_n_optimalnye_sistemy_upravleniya_ana

.pdf
Скачиваний:
20
Добавлен:
29.03.2016
Размер:
1.77 Mб
Скачать

определенной матрице ( )Re 1 T ( ) S3(t) всегда будет стремиться к бесконечности.

3. Стратегия разомкнутого типа v0 (t) Re 1 T (t)S(t0 )z(t0 )всегда является оптимальной, поскольку всегда S4 (t) .

§ 7.4. Задача на минимум времени перехвата с ограничениями на управления

Заданы две системы со скалярными управлениями, на которые наложены ограничения

d

x

 

(t) A

 

(t)x

 

 

(t) B

 

(t)u(t),

 

 

 

 

 

 

dt

p

 

p

 

p

 

 

 

p

(7.39)

xp (t0 ) задано,

 

u(t)

 

1,

 

 

 

 

d

x (t) A (t)x

(t) B (t)v(t),

 

dt

e

e

e

 

 

 

 

e

 

(7.40)

xe (t0 ) задано,

v(t)

1.

Система Р (преследователь) стремится за минимальное время перехватить систему Е (преследуемый), в то же время система Е стремится максимизировать время перехвата. Пусть условием перехвата будет

Qxp (T) Qxe (T),

(7.41)

где Q - вектор - строка. Это скалярное условие перехвата неявно определяет время окончания перехвата Т. Так же, как и в § 7.3, введем соответствующие переменные и определим скалярную величину z(t):

 

d

z(t) п(t)u(t) г(t)v(t).

(7.42)

 

 

 

dt

 

 

 

 

 

 

Здесь

 

 

 

г(t) e(t, )Be( ).

(7.43)

п(t) p (t, )Bp ( ),

Расширенный функционал качества имеет вид

 

 

 

 

T

 

 

 

 

J z(T) dt,

 

 

 

 

 

 

t0

 

 

 

где z(t) Q[xp (T) xe (T)].

 

 

 

Выпишем гамильтониан

 

 

 

 

H(z,u,v, ,t) 1 (t) n(t)u(t) г(t)v(t) .

 

Тогда необходимые условия стационарности принимают вид

 

 

d

(t) 0,

(T) ,

 

 

(7.44)

 

 

 

 

 

dt

 

 

 

max H(z,u,v, ,t),

 

 

H(z,u0 ,v0 , ,t) min

 

 

 

 

 

u(t)

1

v(t)

1

 

откуда следует, что

 

 

 

u0 (t) sign n(t) ,

 

 

(7.45)

v0 (t) sign г(t) .

 

 

(7.46)

Управления (7.45) и (7.46) реализуют стратегию с обратной связью. Учитывая, что для задачи быстродействия справедливо следующее

133

H(z,u0 ,v0 , ,T) 0,

 

получаем условие для определения знака коэффициента :

 

1 п(Т) г(Т) .

(7.47)

Так как для успешного завершения задачи перехвата эффективность действий преследователя, должна быть выше, чем у преследуемого, то n(T)>г(T). Отсюда следует, что 0.

Подставляя (7.45) и (7.46) в (7.42), получим

 

 

d

z(t)

 

n(t)

 

 

 

 

г(t)

 

.

(7.48)

 

 

 

 

 

 

 

 

dt

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Интегрируя (7.48) и учитывая, что z(T)=0, получаем

 

 

 

 

 

T

 

 

z(t0,T) sign

 

n(t)

 

 

 

г(t)

 

dt.

(7.49)

 

 

 

 

 

 

 

 

 

t0

 

Наименьшее значение Т, которое удовлетворяет уравнению (7.49), называется возможным минимаксным временем перехвата. Поскольку каждый член уравнения (7.49) известен либо может быть вычислен, знак коэффициента известен, величину Т можно определить сразу. Таким образом, для систем П и Г оптимальные стратегии управлений u0(t) и v0(t) могут быть найдены как функции z(t0).

Если необходим многомерный перехват, то для нахождения Т и знаков векторного коэффициента требуется решить не одно уравнение (7.49), а большее их число.

§ 7.5. Общие замечания к теории дифференциальных игр

Сделаем некоторые выводы об изложенных основных положениях теории дифференциальных игр.

1.Большинство задач дифференциальных игр имеет пространство значительно меньшее (один, два или три), чем задачи стандартного оптимального управления.

2.Введение противодействия управляющей переменной приводит к усложнению решения задачи. Прежде всего, в игровых задачах следует рассматривать стратегии с обратной связью.

3.Наличие противодействующего управления приводит к большому разнообразию в поведении систем, находящихся под действием минимаксного управления.

4.Методы, развитые в теории дифференциальных игр, широко применяются для решения задач управления объектами с неполной информацией о состоянии объекта, его параметрах и возмущающих воздействиях.

5.Достаточно мало результатов получено в настоящее время для решения задач командных дифференциальных игр.

134

Глава 8. Оптимальное оценивание состояния линейных стохастических систем

Основные результаты теории линейных стохастических систем могут быть сформулированы в «широком смысле» и в «узком смысле». В первом случае изучаются линейные операции над процессами, характеризуемыми только ковариационной функцией. Во втором случае процессы, предполагаются гауссовскими, но при этом допускаются нелинейные оценки и управление. Преимущество представления теории в «широком смысле» заключается в том, что она может быть полностью описана в рамках гильбертовых подпространств и винеровских интегралов, а для ее изложения требуются лишь некоторые сведения из теории меры, но совершенно не нужны интегралы Ито, стохастические исчисления, мартингалы и т.п. Многие из используемых при этом идей перенесены в теорию нелинейной фильтрации и управления. Таким образом, эта глава книги может рассматриваться как введение в разделы, в которых рассматриваются нелинейные стохастические системы.

§ 8.1. Геометрическая структура линейного оценивания

Пусть Y1,Y2,...,Yn - независимые случайные величины с

M[Y ] 0,

0 DY M[Y2

] , i 1,2,...,n,

i

i

i

 

а X - случайная

величина с нулевым средним и конечной дисперсией.

Линейная оценка

 

случайной величины X по заданным Y1,Y2,...,Yn есть

X

произвольная линейная комбинация

 

n

 

(8.1)

X aiYi ,

 

i 1

асреднеквадратичная ошибка есть M[{X X}2 ].

 

 

Выберем

 

коэффициенты

ai

так,

чтобы

минимизировать

среднеквадратичную ошибку. Так

как

по условию случайные величины

Y1,Y2,...,Yn

независимы, т.е. M[Yi Yj ] 0, то

 

 

 

 

 

n

 

 

n

n

 

 

 

M[{X aiYi}2] M[X 2 ] ai2 M[Yi2 ] 2 ai M[Yi X].

 

 

 

 

i 1

 

 

i 1

i 1

 

 

 

Поэтому

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

M[{X aiYi}2 ] 2aiM[Yi2 ] 2M[Yi X].

 

 

 

 

 

 

 

 

 

ai

i 1

 

 

 

 

 

 

Следовательно, величина M[{X X }2 ] минимизируется, если положить

 

 

a

M[Yi X]

.

 

 

 

(8.2)

 

 

 

 

 

 

 

 

i

M[Y2

]

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

и оценка, минимизирующая среднеквадратичную ошибку, будет определяться следующим выражением

n

M[Y X]

 

 

X

i

 

Yi

(8.3)

M[Y

2 ]

i 1

i

 

 

 

135

или в векторной форме, в том случае, когда случайные величины некоррелированны и матрица M[Y YT ] несингулярная,

X M[X YT ]M[Y YT ] 1 Y .

(8.4)

Этот результат можно интерпретировать на геометрическом языке следующим образом. Пусть - множество всех линейных комбинаций величин Y1,Y2,...,Yn , т.е.

n

( 1,..., n 1) Rn 1

 

iYi n 1X

.

i 1

 

 

Для U,V определим скалярное произведение

(U,V ) M[UV ]

и норму

 

U

(U,U ) .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Назовем

U и

V

ортогональными

(U V ),

если (U,V ) 0.

Для

U1,...,Uk обозначим L(U1,...,Uk )

подпространство, натянутое на U1,...,Uk :

 

 

 

 

 

k

 

 

Rk

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L(U1,...,Uk ) iUi

.

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

Будем говорить,

что

(V L(U1,...,Uk ),

если

(V U )

для всех U L(U1,...,Uk ).

Пусть

теперь

X - линейная

оценка

с

наименьшей

среднеквадратической

ошибкой, задаваемая формулами (8.1) и (8.2).

 

 

 

 

 

 

8.1.1. Предложение. Оценка X определяется условиями:

 

 

 

 

 

 

а)

X L(Y1,...,Yn );

 

 

 

 

 

 

 

 

 

 

 

 

 

б)

X X L(Y1,...,Yn ).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

Доказательство. Пусть Z L(Y1,...,Yn ). Тогда Z i Yi

для

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

некоторого Rn . Ясно,

что

X Z L(Y ,...,Y ), если и только если

X Z Y

 

 

 

 

 

 

 

 

 

 

 

 

1

 

n

 

 

 

i

для

всех

i 1,...,n,

что

в

свою

очередь

эквивалентно

условию

(X,Yi ) (Z,Yi ) i (Yi,Yi

),

т.е.

i i ,

i 1,...,n.

Но тогда

Z X

и

 

X X L(Y1,...,Yn ).

 

 

 

 

 

 

 

 

 

 

 

 

 

Величина

X ,

удовлетворяющая

условиям (а) и (б), называется

ортогональной проекцией X на L(Y1,...,Yn ).

 

 

 

 

 

 

 

Случай ненулевого среднего

 

 

 

 

 

 

 

 

В случае, когда случайные величины

X

и Y1,Y2,...,Yn , возможно, ненулевые

средние mX ,m1, m2,...,mn соответственно, то им отвечает аффинная оценка

 

 

 

 

 

n

 

mi mX

 

 

 

 

 

 

 

 

(8.5)

 

 

 

X ai Yi

 

 

 

 

 

 

 

 

i 1

иошибка оценивания имеет вид

 

 

 

2

 

n

 

2

 

 

,

 

 

 

M X X

 

M X C aiYiC

 

 

 

 

 

i 1

 

 

где X C , YC - центрированные случайные величины:

 

 

 

i

 

 

 

 

X C m

X

,

YC m .

 

 

 

 

 

 

Y

 

 

 

136

Таким образом, задача сводится к случаю нулевого среднего и коэффициенты ai могут быть определены в виде (8.2).

Таким образом, M[X] M[X] и ошибка X X всегда имеют нулевое среднее.

Рекуррентное оценивание

 

 

 

 

В

случае,

когда

наблюдаемые

случайные

величины

Y1,Y2,...,Yn

представляют

 

собой

результаты

измерений,

проводимых

последовательно во времени, оценка X процесса

X является рекуррентной,

если Xk получается в результате «модернизации»

оценки Xk 1 ,

т.е. если Xk

можно представить в виде

 

 

 

 

Xk

fk (Xk 1,Yk ).

 

 

 

 

(8.6)

Если такие функции

fk (Xk 1,Yk ) существуют, то (8.6) дает эффективную

с вычислительной точки зрения оценку процедуру, так как нет необходимости запоминать все прошлые наблюдения. Требуются только текущая оценка и последнее наблюдение. Используя геометрическую интерпретацию, нетрудно понять, как можно осуществить рекуррентное

оценивание.

Пусть

LK L(Y1,...,Yn ).

Так

как

LK 1 LK ,

то всегда

можно

написать

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

XK AK BK ,

 

 

 

 

 

 

 

 

 

 

 

(8.7)

 

где AK LK 1 и BK

LK 1 . Если EK

X XK , то X EK XK

EK (AK BK ),

при

чем

AK LK 1

и

 

BK EK

LK 1 .

Однако

существует

только

одно

такое

разложение для

 

X ,

это

X EK 1

XK 1.

Поэтому АK XK 1 , а

BK

является

проекцией

X

на

LK LK 1

(ортогональное дополнение

LK 1

в

LK ). Если

LK LK 1 ,

 

то

LK LK 1 0 ,

и потому

BK 0.

В противном

случае

это

подпространство одномерно, поскольку, если K - оператор проектирования

на LK , то

 

L(Y~ ),

 

 

 

 

 

 

 

 

 

 

(8.8)

 

 

L

K

L

 

 

 

 

 

 

 

 

 

 

 

где Y~

 

 

K 1

 

 

K

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

Y .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

K

 

 

K

K 1 K

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Последовательность

 

взаимно

ортогональных

случайных

величин

(Y~ , k 1,2,...)

называется

обновляющей

последовательностью,

а

B

K

-

K

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

обновляющей проекцией X . Из (8.2) и (8.8) следует

 

 

 

 

 

 

 

 

 

 

 

(X,Y~ )

~

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

BK

~

~K

YK .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(Y ,Y )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

K

K

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Поэтому (8.7) принимает вид

 

 

(X,Y~ )

K 1YK ).

XK XK 1

~

~K

(YK

 

 

(Y

,Y )

 

 

 

K

K

 

 

Термин «обновление» выражает ту мысль, что проекция предоставляет «новую информацию», полученную в момент k .

(8.9)

(Y~K , k 1,2,...)

Гауссовский случай

137

Случайный n-мерный вектор W имеет гауссовское распределение N(m,Q), если логарифм его характеристической функции является квадратичной формой:

 

T

 

T

 

1

 

T

 

,

(8.10)

ФW (u) M[exp(iu

 

W )] exp im

 

u

 

u

 

Qu

 

 

2

 

 

 

 

 

 

 

 

 

 

 

где m M[W], m Rn , а Q M (W m)(W m)T - неотрицательно определенная матрица.

Из (8.10) вытекают следующие свойства:

а) Линейная комбинация независимых гауссовских случайных величин являются гауссовскими.

б) Любая неотрицательно определенная матрица Q является ковариационной матрицей некоторого гауссовского случайного вектора.

Взадаче линейного оценивания X по наблюдениям Y1,...,Yn

используются только математические ожидания и ковариации. Поэтому без ограничения общности можно предполагать, что случайные величины являются гауссовскими, так как в противном случае их можно заменить гауссовскими случайными величинами X *, Y1*,...,Yn* с той же самой ковариационной матрицей. Однако в гауссовском случае получается наиболее сильный результат, заключающийся в том, что X является также наилучшей нелинейной оценкой. Действительно, пусть E X X . Тогда X и E являются ортогональными (т.е. некоррелированными) и гауссовскими в силу свойства (а). Поэтому они независимы. Вычислим условную характеристическую функцию X при заданном Y (Y1,...,Yn )

ФX Y (u,Y) M exp(iu X Y)

M exp(iu( X E) Y) exp(iu X ) M exp(iu E Y ) .

Так как X L(Y1,...,Yn )

и

ошибка E X X не зависят от Y , то

ФX

 

Y (u,Y) exp(iu X )M exp(iuE) .

 

 

 

 

 

Так как E имеет распределение N(0, 2 ), где 2

D[E], то

 

 

 

 

 

 

1

2

 

2

 

 

 

 

ФX

 

Y (u,Y) exp iuX

 

 

u

 

 

,

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

что является характеристической функцией распределения N(X, 2 ). Поэтому X совпадает с условным средним случайной величины X :

X M X

 

Y .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рассмотрим

нахождение

нелинейной функции f (Y ),

которая

минимизирует

 

M X f (Y ) 2 .

Пусть

gX

 

Y (x,y)

- условная

плотность

 

 

распределения

 

X

при заданном

Y , а

g ( y) 0-

маргинальная

плотность

распределения Y . Тогда

 

 

 

 

M X f (Y ) 2 g(y) [(x f (y)]2 gX

 

Y (x;y) dx dy.

 

R

R

 

 

138

Так как g( y) 0 для всех y , то последнее выражение достигает минимума, если при каждом y минимизируется подынтегральная функция в фигурных скобках

f (Y ) M X Y y x gX Y (x,y) dx X

R

Оценка X в гауссовском случае является не только наилучшей линейной оценкой, но и наилучшей среди возможных оценок, поскольку она совпадает с условным средним. В общем же случае эта оценка не будет наилучшей нелинейной оценкой.

Для любого распределения выполняется неравенство

M X M X

 

2 ,

Y 2 M X X

которое в случае гауссовского распределения переходит в равенство. Это показывает, что гауссовское распределение является «наиболее» случайным в том смысле, что из всех возможных распределений для X,Y с заданной ковариационной матрицей именно на гауссовском распределении максимизируется минимально достижимая ошибка оценивания.

§ 8.2. Оценивание в линейных динамических системах

При конструировании систем управления часто возникает задача определения оценки состояния системы, подверженной действиям случайных возмущений. Другими словами, требуется определить состояние системы управления в момент времени t на основе измерений ее фазовых координат на интервале времени [t0,t], производимых с ошибками. Такое выделение полезного сигнала при наличии случайных помех называется фильтрацией. К этой задаче примыкает задача предсказания наиболее вероятного состояния системы или значение полезного сигнала в момент времени t1 t , т.е. экстраполяция сигнала, а также задача сглаживания измерений при t1 t . Задачи, связанные с определением наилучшей оценки состояния системы, находящейся под воздействием неконтролируемых случайных, по неполным измерениям ее состояния, содержащим помехи, составляют основу статистической теории оптимальных систем.

За характеристику точности оценки оптимальной системы или ошибку фильтрации часто принимают математическое ожидание квадрата ошибки. Критерий минимума средней квадратический ошибки приводит к наиболее простым алгоритмам определения линейных оптимальных оценок.

В настоящем разделе будут рассматриваться гауссовские марковские процессы, с помощью которых можно довольно часто аппроксимировать многие динамические явления, как в природе, так и те, которые созданы руками человека.

Рассмотрим общую постановку задачи фильтрации. Пусть x(t) гауссовский марковский случайный процесс, образованный решением

139

линейной динамической системой, на входе которой действует гауссовский белый шум:

 

d

 

 

 

 

 

 

x(t)

A(t)x(t) B(t)w(t),

(8.11)

 

dt

 

 

 

 

 

x(t0 ) x0 ,

 

 

 

 

 

где x(t) Rn -

вектор

состояний;

x(t0 )- гауссовский вектор начального

состояния системы; w(t) Rr - вектор входа – гауссовский «белый» шум с

M[w(t)] 0, M[w(t)w( )] W(t) (t )

статистически не связанный с начальным

состоянием

системы,

т.е.

 

M[x(t0 )wT (t)] 0. Здесь W(t)-

матрица

интенсивностей «белого» шума, (t ) - дельта-функция Дирака:

 

,

если t,

 

(t )d .

 

 

 

(t )

если t,

 

,

 

 

 

 

 

 

 

 

Пусть y(t)– наблюдаемый векторный сигнал, содержащий компоненты

вектора полезного сигнала x(t), аддитивно связанные с помехой v(t):

 

y(t) C(t)x(t) v(t).

 

 

 

(8.12)

Задача фильтрации заключается в том, чтобы по заданному

y( ) для

[t0,t] построить такую оценку xˆ(t) полезного сигнала x(t),

которая

доставляет минимум среднему квадрату ошибки

 

J( ) trM[ (t) T (t)],

 

 

 

(8.13)

где tr - оператор «след матрицы»,

 

 

(t) x(t) x(t).

 

 

 

(8.14)

§ 8.3. Общее условие минимума средней квадратической ошибки. Уравнение Винера – Хопфа

Выведем общее условие минимума средней квадратической ошибки. Предположим, что L(t)– линейный оператор системы, преобразующий y(t) в

x(t), причем L R. Тогда

 

x(t) L(t)y(t).

(8.15)

Определение 8.3.1. Оператор L называется линейным, если его область определения R является линейным подпространством и он линеен на R , т.е.

L(az bs) aLz bLs .

Отметим, что множество значений линейного оператора также является линейным пространством.

В силу приведенных свойств линейных операторов, определим

оператор L0 (t) R , при котором критерий

качества

(8.13)

принимает

минимальное значение. Обозначим

 

 

 

 

L(t) L0 (t) r(t),

 

 

 

(8.16)

где - матрица переменных параметров,

r(t) R - произвольный ненулевой

линейный оператор.

 

 

 

 

Если L0 (t) есть искомый оператор,

то при любых

0

происходит

увеличение среднего квадрата ошибки

и

выражение

(8.13)

принимает

140

минимальное значение лишь при 0. С другой стороны, если подставить (8.16) в (8.15) и затем в (8.14), то среднее значение квадрата ошибки становится функцией параметров матрицы и чтобы отыскать минимум (8.13) нужно J( )/ приравнять к нулю. Но как было отмечено, минимальное значение функционал (8.13) принимает при 0. Отсюда получается условие минимума критерия качества (8.13)

 

 

 

tr M (t) T (t) 0 при 0.

(8.17)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xˆ(t) L(t) r(t) y(t),

Выразим условие (8.17) в явном виде. Учитывая, что

выражение (8.17) принимает вид

 

 

 

 

tr M (t) T (t)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

tr M {x(t) x(t)}{x(t) x(t)}T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

tr M x(t) xT (t) x(t){L0 (t)y(t)}T

 

 

 

 

 

 

 

 

 

 

 

 

x(t){r(t)y(t)}T T

 

 

 

 

 

{L0 (t)y(t)}xT (t) {r(t)y(t)}xT (t)

 

{r(t)y(t)}{L0 (t)y(t)}T

 

 

{L0 (t)y(t)}{r(t)y(t)}T T

 

 

 

 

 

 

 

 

 

 

 

T

T

 

 

{r(t)y(t)}{r(t)y(t)}

 

] 0 при 0.

 

Учитывая, что

 

 

 

 

 

 

 

 

 

 

 

 

 

tr T T ,

 

tr T T T ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

tr z T при 0 0,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

последнее выражение можно переписать в виде

 

M[{x(t) L0(t)y(t)}{r(t)y(t)}T ] 0, r(t) R.

(8.18)

Если ввести обозначения

 

Kx y (t, ) M[x(t)yT ( )] ,

 

 

Ky y ( , ) M[y( )yT ( )],

 

то уравнение (8.18) можно переписать в виде

 

r( ) Kxy(t, ) L0( )Kyy(t, ) 0, r( ) R.

(8.19)

Условие (8.19) должно выполняться для оптимального оператора L ( ) и произвольного ненулевого оператора r( ) из линейного пространства R . Выполнение равенства (8.19) для всех операторов r( ) R необходимо и достаточно, если класс операторов R представляет собой линейное пространство. Уравнение (8.19) определяет оптимальный оператор, для которого мгновенное значение средней квадратической ошибки для каждого

141

текущего момента времени t имеет наименьшее возможное значение. Это условие является общим условием, которому должен отвечать оптимальный оператор принадлежащий некоторому линейному пространству R , и носит название уравнения Винера – Хопфа в ортогональных проекциях.

Уравнение (8.19) может выполняться для всех операторов r( ) только в том случае, если при любом Т , где Т – период, на котором распространяется действие линейных операторов рассмотренного класса (т.е. на область наблюдения случайного процесса y( )) имеет равенство

Kx y (t, ) L ( )Ky y (t, ) .

(8.20)

Условие (8.20) необходимое, но недостаточное для того, чтобы оператор L( ) был бы оптимальным. Необходимо еще, чтобы уравнение (8.19) удовлетворялось для всех дифференциальных операторов r( ), содержащихся в рассматриваемом классе R .

Поскольку внутри области Т уравнение (8.19) удовлетворяется тождественно относительно , то при любых Т удовлетворяются и все уравнения, получаемые в результате дифференцирования уравнения (8.19) по

.

Однако, вследствие возможных разрывов производных функции Ky y (t, ) при

t , некоторые уравнения, полученные из (8.19) дифференцированием по , могут и не удовлетворяться на границе области Т . Поэтому условием выполнения равенства (8.20) для всех дифференциальных операторов r( ) не является следствием уравнения (8.19) для значений на границе области Т и это условие следует добавить к условию (8.20).

Таким образом, для того чтобы оператор L был бы оптимальным, необходимо и достаточно, чтобы он удовлетворял условию (8.20) и всем уравнениям, полученным их (8.19) путем применения всех допустимых операций по при изменении в заданной области Т .

Из этого условия следует, что допустимым дифференциальными операциями могут быть только такие, в результате двойного применения которых к функции Ky y (t, ) по одному разу по отношению к каждому

аргументу полученной функции, поочередно при t .

Как известно, линейная система может быть охарактеризована интегральным оператором, который через импульсные (весовые) переходные матрицы физически осуществимой системы выражается так

t

x(t) L0 (t)y(t) g(t, )y( ) d ,

t0

(8.21)

t

r(t)y(t) h(t, )y( ) d ,

 

t0

 

где g(t, ), h(t, ) - импульсные переходные матрицы. Необходимое и достаточное условие (8.19) минимума средней квадратической ошибки (2.13) с учетом (2.21) принимает вид

142

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]