Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Конспект по фильтрации

.pdf
Скачиваний:
90
Добавлен:
01.05.2014
Размер:
675.33 Кб
Скачать

Мальцева Н. В.

Рекуррентная и адаптивная фильтрация

11

5Критерий оптимизации при наличии априорной неопреде л¼нности

Рассмотренные выше критерии оптимизации были связаны с задачами, имеющими пол ное статистическое описание оцениваемых и измеряемых параметров. На практике это бывает достаточно редко. Чаще всего задача оценивания сопровождается большей или мень шей априорной неопредел¼нностью . Рассмотрим некоторые из них

1. Пусть π(xt) è π(Y0τ |xt) являются весьма грубым приближением к истинному ви ду соответствующих плотностей вероятности. В этой ситуации целесообразно расши рить класс плотностей распределения вероятностей с тем, чтобы, используя изме рительную информацию, добиться более близкого к истине статистического описания. Универсальный способ статистического описания процессов при наличии априорной

неопредел¼нности параметрический. При этом способе плотности распределения вероятностей π(Y0τ |xt, α) è π(xt|β) задаются с точностью до совокупности неизвест

ных параметров α = (α1, . . . , αn) è β = (β1, . . . , βm). Обозначим полную совокупность неизвестных параметров через . Тогда совместная плотность распределения вероят ностей процессов xt è yt может быть записана в виде

π(Y0τ |xt, α) · π(xt|β) = π(xt, Y0τ | ) = π(Y0τ | ) · π(xt|Y0τ , ).

Средний риск в этом случае будет иметь вид:

ZZ

R(Fx, xˆt, ) =

Ωy π(Y0τ | )

Ωx c(xt, xˆt)π(xt|Y0τ , ) dxtdY0τ .

Т. к. параметр неизвестен, то значит значения среднего и апостериорного рисков не определяемы.

Сохранить байесовский подход к решению задачи оценивания в этом случае можно двумя путями:

а) расширить вектор состояния xt на множество параметров , т. е. сделать оцени ваемым вектор xTt , ytT T. Тогда вопрос о выборе критерия решался выше.

б) задать для такие значения, которые обеспечили бы среднему риску требуемое значение, например, максимальное.

В этом случае критерий оптимизации может быть минимаксным

ˆ

min max R(Fx, xˆt, ) = R(Fx, xˆt , t).

t

2.Следующая ситуация возникает тогда, когда плотности распределения вероятностей

π(xt) è π(Y0τ |xt) достаточно близки к истинному значению , а на основе физических соображений или предшествующих экспериментов известно, что измеряемые и оце ниваемые параметры находятся в ограниченных областях Ωx è Ωy, не совпадающих с областями определения параметров xt è yt для функций π(xt) è π(Y0τ |xt). В этом случае критерий оптимизации может быть выбран в виде

min R0x, xˆt|Y0τ ) = R0x, xˆt |Y0τ ).

t Ωx

Такой подход вызван тем, что параметрическая коррекция плотностей распределения вероятностей приводит к несущественным изменениям в точности решения задачи оценивания, в то время как объ¼м вычислений возрастает значительно.

Мальцева Н. В.

Рекуррентная и адаптивная фильтрация

12

3.Пусть для решения технической задачи подобраны квазиправдоподобные распределе ния π(xt) è π(Y0τ ). В то же время измерительная информация, поступающая с при боров, характеризуется существенной зоной нечувствительности. Это означает, что

каждое измерение yi указывает лишь на принадлежность истинного значения из

меряемого параметра известной области Ωyi и не соответствует априорно выбранной

взаимосвязи оцениваемых и измеряемых параметров. В этом случае выборка изме рений представляет собой выборку событий D1t = (D1, D2, . . . , Dt) присутствия из меряемых параметров в последовательности областей Ωyi , i = 1, 2, . . . , t. Критерий оптимизации принимает вид:

min R0x, xˆt|D1t ) = R0x, xˆ0t |D1t ).

t

4.При полном отсутствии априорной статистической информации неопредел¼нные ве личины задаются областями их возможных значений . Подходы к решению задачи оценивания, а следовательно, и критерии оптимизации здесь могут быть различны. Рассмотрим два из них, используя в качестве априорных областей неопредел¼нности только замкнутые выпуклые, симметричные области , а именно эллипсоиды неопре дел¼нности.

При первом подходе операции над неопредел¼нными величинами сводятся к соот ветствующим операциям над эллипсоидами неопредел¼нности. Образующиеся при этом замкнутые выпуклые области неопредел¼нности аппроксимируются эллипсои дами минимального объ¼ма . Цель задачи оценивания в определении центра и по луосей этого эллипсоида . Центр эллипсоида рассматривается как гарантированная оценка неопределяемого параметра, а большая полуось эллипсоида да¼т приближ¼н ное значение максимальной ошибки гарантированного оценивания. Найденная таким способом максимальная ошибка оценивания, естественно, завышена. Насколько во прос открытый.

Другой подход к решению задачи в условиях статистической неопредел¼нности состо ит в отыскании чебышевского центра x замкнутого выпуклого множества Ωx, êîòî рому принадлежат оцениваемые параметры x. Критерий оптимизации в этом случае принимает вид:

max[(x − x )T(x − x )] = min max[(x − xˆ)T(x − xˆ)].

x Ωx

xˆ x Ωx

Суть этого минимаксного подхода состоит в построении таких оценок x , максималь

ное расстояние от которых до границы множества Ωx было бы минимальным из возможных.

6Элементы теории оценивания

Рассмотрим в минимальном объ¼ме те теоретические сведения, которые необходимы при решении задач оценивания по выборке нарастающего объ¼ма.

Как отмечалось ранее, при решении задач оценивания будем пользоваться только та кими функциями потерь, которые позволяют искать оценки неизвестного процесса xt ïðè

выборке измерений нарастающего объ¼ма Y1k в виде условного математического ожидания

E(xk|Y1k).

Мальцева Н. В. Рекуррентная и адаптивная фильтрация 13

Поэтому представляет интерес уравнение эволюции во времени условного математиче ского ожидания. В дальнейшем, ввиду ограниченности по времени, будем рассматривать только задачу дискретного оценивания .

Особенно важную роль при решении задач оценивания в дискретном времени играет теорема о нормальной корреляции.

Теорема (о нормальной корреляции). Пусть:

1.Вектор x Rn с гауссовской плотностью распределения вероятностей π(x). Вектор y Rm с гауссовской плотностью распределения вероятностей π(y). Вектор {x, y} Rn+m с гауссовской совместной плотностью распределения вероят ностей π(x, y).

2.Априорные значения:

E x = mx;

cov(x, x) = Pxx;

cov(x, y) = Pxy.

E y = my;

cov(y, y) = Pyy;

 

Тогда:

1.Условные математическое ожидание mx|y = E(x|y) и условная корреляционная мат рица Pxx|y = cov(x, x|y) удовлетворяет соотношениям

mx|y = mx + K(y − my);

K = Pxy · Pyy−1;

Pxx|y = Pxx − KPxyT .

2. Условная плотность распределения вероятностей π(x|y) является гауссовской.

Доказательство. Получим формулу для условной плотности распределения вероятностей π(x|y), используя формулу полной вероятности

π(x|y) = π(x, y)/π(y).

Поскольку {x, y} гауссовский вектор, то плотность распределения вероятности этого вектора представима в виде:

π(x, y) = (2˜π)−(n+m)/2|P |−1/2 exp

(2

y

my

 

T

P −1

y

my

) ,

 

1

x

mx

 

 

x

mx

 

 

 

 

 

 

 

 

 

ãäå

 

c11 c12

 

Pxx

Pxy

 

−1

 

P −1

= c12T c22

= Pyx

Pyy

 

 

;

π(y) = (2˜π)−m/2

|Pyy|−1/2 exp −

1

(y − my)TPyy−1(y − my) .

 

2

Применим формулу Фробениуса для вычисления обратных матриц. Пусть D невырож денная, т. е. |D| =6 0.

An n Bm n

−1

 

K−1

 

K−1BD−1

 

Cn×m

Dm×m

 

=

−D−1CK−1

D−1 + D−1CK−1BD−1

×

×

 

 

 

,

Мальцева Н. В.

Рекуррентная и адаптивная фильтрация

 

 

 

14

ãäå K = A − BD−1C.

 

 

 

[K−1 ≡ c11]

 

 

 

 

 

 

 

 

 

 

Тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(

 

 

=c11

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

Pxx

 

Pxy

 

Pyy−1

 

Pyx )−1

 

 

c11Pxy

 

Pyy−1

 

 

 

P

 

= z A

B

}|· D

 

·

C

{

 

 

 

·

 

 

=

 

 

 

 

 

 

P −1

 

Pyx c11

P −1

+ P −1Pyxc11PxyP −1

 

 

 

 

 

|{z}

 

yy

 

 

 

 

 

|{z}

 

yy

 

yy

 

yy

 

 

 

 

 

 

 

|{z}

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

· |{z}·

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

c11

 

 

c11PxyP −1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(−c11PxyPyy−1)T

Pyy−1 + Pyy−1Pyxc11PxyPyy−1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

yy

.

(использовали (A−1)T = (AT)−1 è AT = A для симметричных матриц Pyy è c11−1)

 

Кроме того, допустимо представление

 

yy

 

Pyy · Pyy−1 · Pyx

Em .

 

 

 

 

P = pyx

Pyy =

 

 

0

 

 

 

 

 

 

 

Pxx

Pxy

Pxx

 

PxyP

1Pyx

 

Pxy

 

En

0

 

Тогда

|P | = |Pxx − PxyPyy−1Pyx| · |Pyy| = |c111| · |Pyy|.

Преобразуем квадратичную форму в выражение для совместной плотности вероятности π(x, y), используя полученные соотношения.

x − mx

 

T

·

P −1

x − mx = x − mx

 

T

c11

c12

x − mx

=

y − my

 

 

· y − my y − my

 

c21T

c22

y − my

 

= (x−mx)Tc11(x−mx)+(x−mx)T c12 (y−my)+(y−my)TcT12(x−mx)+(y−my)T c22 (y−my) =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

|{z}

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

|{z}

 

 

 

 

 

 

 

 

 

 

 

c

12

=

c

11

P

xy

P

−1

 

c

22

= P −1 + P −1c

11

P

xy

P −1

 

 

 

 

 

 

 

 

 

 

= (x m )

 

 

 

 

 

 

 

 

 

 

yy

 

 

 

 

yy

 

 

yy

 

 

 

 

 

yy

 

 

 

 

 

)

 

(x m )+

T

c (x m ) (x m )

T

 

c P P

(y m ) (y m )

T

( c P P

T

 

x

 

11

 

 

 

x

 

 

 

x

 

 

 

 

 

11

xy

 

yy

 

y

 

 

 

y

 

 

 

 

 

 

11

xy

 

yy

 

 

 

x

 

 

 

|{z}

 

y

 

 

 

yy

(y

− my)|{z}

 

y

 

yy

yx 11

 

 

 

xy

 

 

 

yy|{z}

 

 

y

) =

 

 

 

 

 

 

 

 

+ (y

m

)TP

1

 

 

 

 

 

 

 

 

+ (y

 

m

 

)TP

 

1P

 

 

c P

 

 

P

 

1(y

m

 

 

 

 

= [x

 

 

 

 

P −1

(y

 

 

 

)]T

 

 

 

 

 

 

 

[x

 

 

 

 

 

 

 

−1(y

|{z}

)] + (y

 

 

 

)TP −1

(y

 

).

 

x

xy

yy

 

 

 

 

y

 

 

 

·

 

 

11

·

 

 

x

 

 

xy

 

yy

 

 

y

 

 

 

 

 

 

 

 

 

y

 

 

yy

 

 

 

 

y

 

Подставляя полученные соотношения в формулу для условной плотности распределения вероятности π(x|y), получаем:

π(x|y) = (aπ˜)n/2|c111|−1/2 exp − 12(x − mx − PxyPyy−1(y − my))T×

× c11 · (x − mx − PxyPyy−1(y − my)) .

Из последнего соотношения следует, что π(x|y) представляет собой гауссовскую плотность распределения вероятностей с параметрами:

mx|y = mx − PxyPyy−1(y − my);

 

Pxx|y = c11−1 = Pxx − PxyPyy−1Pyx,

что и требовалось доказать.

Мальцева Н. В.

Рекуррентная и адаптивная фильтрация

15

7Оптимальные линейные алгоритмы оценивания при полной априорной информации

Âэтом разделе мы рассмотрим применение теории оценивания к проблемам линейной фильтрации, экстраполяции и интерполяции.

Постановка задачи Пусть модель системы описывается линейным векторным разностным уравнением:

xk+1 = Φ(k + 1|k)xk + (k + 1|k)wk, ãäå

xk Rm вектор состояния системы в момент времени t = tk; Φ(k + 1|k) переходная матрица системы Rm × Rm;

(k + 1|k) переходная матрица шумов Rm × Rm;

wk шум объекта с характеристиками N(0, Qk), cov(wk, wj) = Qk · δkj.

Модель наблюдения или измерения зада¼тся линейным алгебраическим соотношением:

yk = Hkxk + vk, ãäå

yk Rn вектор измерения системы в момент времени t = tk; Hk матрица измерений Rn × Rm;

vk шум измерения с характеристиками N(0, Rk), cov(vk, vj) = Rk · δkj. Кроме этого, делаются следующие априорные предположения:

x0 N(x(0|0), P0); cov(wk, vj) = cov(x0, wk) = cov(x0, vk) = 0;

δkj символ Кронекера, k, j = 1, 2, . . .

Нас интересует класс линейных последовательных алгоритмов оценивания состояния , обеспечивающих несмещ¼нную оценку с минимальной среднеквадратической ошибкой . Та кие алгоритмы получили название ¾фильтров Винера Калмана¿, ¾фильтров Калмана¿ по имени авторов, чьи работы послужили началом теоретических исследований в этой бурно развивающейся отрасли.

Ранее мы установили, что оценка x по критерию минимума среднеквадратической ошиб ки совпадает с условным средним значением величины x при заданной совокупности наблю

дений. Однако понятно, что в общем случае, даже если уравнения состояния и измерения являются линейными (а в нашем случае это именно так), условное среднее не является ли нейной функцией наблюдений , следовательно, алгоритм оценивания не обладает желаемым свойством линейности.

Чтобы получить линейный алгоритм оценивания, обеспечивающий минимальную дис персию ошибки, мы должны использовать один из двух подходов.

Один из них, который мы не будем подробно рассматривать, состоит в том, чтобы опре делить оценку, представляющую собой линейную форму, а затем найти наилучший вариант такой формы. Этот подход основан на использовании ортогонального проецирования. При этом линейная оценка величины x по критерию минимума дисперсии ошибки при задан

ном линейном пространстве наблюдений Y зада¼тся ортогональной проекцией x на Y , т. е. xˆ = Eˆ{xˆ|Y }.

Здесь использован символ ˆ

E вместо E, поскольку линейная оценка с минимальной дис

персией не совпадает в общем случае с условным математическим ожиданием. Если бы

мы заранее предположили, что случайные величины имеют нормальные распределения, òî Eˆ{x|Y } просто совпало бы с E{x|Y }; однако важно подчеркнуть, что предположение о

Мальцева Н. В.

Рекуррентная и адаптивная фильтрация

16

нормальности распределений не является необходимым. При этом важно помнить, что по лученный алгоритм оценивания является оптимальным (min дисперсия) в классе линейных алгоритмов и может быть для нелинейных алгоритмов оценка с меньшей дисперсией (в

случае негауссовских законов распределения случайных величин).

Второй подход для построения линейного алгоритма оценивания с минимальной дис персией ошибки основан на предположении, что случайные величины x, w и v совместно

нормальны. Из теории вероятностей известно, что в этой ситуации условное среднее будет линейной формой, а стало быть, искомая задача решена. При этом, очень важно, что в этой ситуации фильтр Калмана представляет собой наилучший алгоритм из всех возмож ных линейных и нелинейных алгоритмов оценивания в смысле минимальной дисперсией ошибки.

Итак, получим рекуррентные формулы фильтра Калмана для поставленной выше зада чи. При этом, следует подчеркнуть, что в данных условиях искомую оценку можно искать либо в форме условного математического ожидания (квадратичной функции потерь), ли бо рассчитывать по критерию max апостериорной вероятности (простая функция потерь, а оценка совпадает с мерой условной плотности), либо рассматривать оценивание при других функциях потерь.

Мы рассмотрим вывод формул фильтра Калмана на основе оценки в форме условного математического ожидания.

Вывод формул начн¼м с построения алгоритма экстраполяции. Пусть на момент вре ìåíè tk+1 известна выборка измерений Y1k, а измерение yk+1 ещ¼ не поступало. Исполь

зуя уравнение состояния, непосредственно вычисляем условное математическое ожидание

E(xk+1|Y1k):

| def | k | | | k | | x(k + 1 k) = E(xk+1 Y1 ) = E[Φ(k + 1 k)xk + (k + 1 k)wk Y1 ] = Φ(k + 1 k)x(k k).

Для вычисления ковариационной матрицы P (k + 1|k) запишем соотношение xk+1 − x(k + 1|k) = Φ(k + 1|k)(xk − x(k|k)) + (k + 1|k)wk

(в уравнение состояния добавили справа и слева x(k + 1|k) и Φ(k + 1|k)x(k|k)). Используя определение ковариационной матрицы, получаем:

P (k + 1|k) = E[(xk+1 − x(k + 1|k))(xk+1 − x(k + 1|k))T|Y1k] =

= Φ(k + 1|k)P (k|k)ΦT(k + 1|k) + (k + 1|k)Qk T(k + 1|k).

Здесь использовался тот факт, что E(xkwk|Y1k) = 0, который непосредственно проверяется, если представить уравнение состояния в нерекуррентном виде:

k

X

xk = Φ(k|0)x0 + Φ(k|i) (i|i − 1)wi−1

i=1

и воспользоваться априорными данными.

def

def

 

Для нахождения x(k|k) =

E(xk|Y1k) è P (k|k) = cov(xk, xk|Y1k) применим теорему о

нормальной корреляции. Введ¼м обозначения:

 

 

def

− 1);

 

E(yk|Y1k−1) = y(k|k

| k−1 def | −

cov(xk, yk Y1 ) = Pxy(k k 1);

| k−1 def | −

cov(yk, yk Y1 ) = Pyy(k k 1).

Мальцева Н. В. Рекуррентная и адаптивная фильтрация

17

Тогда соотношения из теоремы о нормальной корреляции

 

 

 

 

 

 

 

 

 

 

xK|

= PxyPyy−1

 

my)

 

 

 

 

 

 

 

m

 

 

y

= mx + K(y

T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pxx|y = Pxx − KPxy

 

 

 

 

 

 

ãäå

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

mx|y = E(x|y);

 

mx = E x;

 

 

cov(x, x) = Pxx;

cov(x, y) = Pxy.

Pxx|y = cov(x, x|y);

 

my = E y;

 

 

 

cov(y, y) = Pyy;

 

принимают следующий вид:

 

[mx = xk|k−1, my = yk|k−1]

 

 

mx|y

 

 

 

 

 

 

mx

 

 

 

 

 

 

 

 

 

 

 

my

 

z

 

}|

 

{ z

 

 

 

 

}|

 

 

{

 

 

 

 

 

z

 

}|

 

{

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x(k|k) = x(k|k − 1) +Kk(yk − y(k|k − 1));

 

 

K

k

= P

xy

(k

k

1)P

 

1

(k

k

1);

 

 

 

 

 

 

 

 

 

 

 

|

 

 

yy

 

|

 

 

 

 

 

P (k|k) = P (k|k − 1) − KPxyT (k|k − 1).

Вычислим отдельно y(k|k − 1), Pxy(k|k − 1) è Pyy(k|k − 1). Используя вид уравнения изме рения имеем:

y(k|k − 1) = Hk E(xk|Y1k−1) + E(vk|Y1k−1) = Hkx(k|k − 1); yk − y(k|k − 1) = Hk(xk − x(k|k − 1)) + vk.

По определению условных ковариационных матриц Pxy(k|k − 1), Pyy(k|k − 1) и P (k|k − 1) с уч¼том последнего соотношения и независимости xk è vk, находим:

Pxy(k|k − 1) = cov(xk, yk|Y1k−1) = cov(xk, Hxk + vk|Y1k−1) =

= P (k|k − 1)HkT + cov(xk, vk|Y1k−1) = P (k|k − 1)HkT;

Pyy(k|k − 1) = HkP (k|k − 1)HkT + Rk

(здесь учтены априорные соотношения).

Подставляем полученные соотношения в выражение для x(k|k) и P (k|k), получим фор мулы фильтра Калмана :

( P (k + 1|k) = Φ(k + 1|k)P (k| k)ΦT(k + 1 k) + (k + 1 k)Qk T (k + 1 k)

экстраполяция;

 

x(k + 1 k) = Φ(k + 1 k)x(k k)

 

 

 

 

 

 

 

|

|

|

 

|

 

|

|

 

Kk = P (k k

1)HkT[HkP (k k

 

1)HkT + Rk]−1

 

 

фильтрация.

 

x(k|k) = x(k|k

1) + Kk(yk − Hkx(k|k

− 1))

 

 

 

|

 

|

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P (k|k) = (I − KkHk)P (k|k − 1)

8Вычислительная схема стандартного фильтра Калмана

Итак, получены формулы фильтра Калмана для случая линейных уравнений состояния и измерения.

(

xk+1 = Φ(k + 1|k)xk + (k + 1|k)wk

(1)

yk = Hkxk + vk ,

Мальцева Н. В. Рекуррентная и адаптивная фильтрация

 

 

 

 

 

 

 

18

ãäå wk, vk шумы объекта и измерения соответственно.

 

 

 

 

 

 

 

 

 

 

 

x(k k) = x(k k

1) + K

(y

Hkx(k

k

1))

 

 

 

 

 

 

 

 

(2.1)

 

x(k

k

|1) = Φ(k|k

1)x(k

k

 

1kk

1))

|

 

 

 

 

 

 

 

 

 

 

 

(2.2)

(2)

 

|

 

 

|

1)P (k

|

1))Φ

T

(k k

 

1) + (k k

1)Q

 

 

 

T

(k k 1) (2.3)

P (k k

 

1) = Φ(k k

 

 

 

1 k

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

 

 

| −

 

| −

 

− | −

 

 

 

| −

 

 

| −

 

 

 

 

| −

 

 

 

 

T

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Kk = P (k k − 1)Hk [HkP (k|k − 1)Hk + Rk]

 

 

 

 

 

 

 

 

(2.4)

 

P (k k) = (I

|KkHk)P (k k 1) .

 

 

 

 

 

 

 

 

 

 

 

 

 

(2.5)

 

 

 

 

|

 

 

|

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Отметим еще раз, что построенная оценка обладает следующим свойством.

Âслучае гауссовских законов распределения случайных величин, входящих в систе му (1), оценка (2) является несмещ¼нной и обладает минимальной дисперсией среди всех возможных оценок, являющихся произвольными, а не только линейными функциями из мерений.

Âслучае негауссовских законов распределения, оценка является несмещ¼нной и облада ет минимальной дисперсией среди всех оценок, являющихся линейными функциями изме рений.

Посмотрим внимательнее на полученный алгоритм (2). Его особенностями являются:

1.Рекуррентная форма построения, которая обеспечивает удобство практической реа лизации алгоритмов с помощью ЦВМ в реальном масштабе времени.

2.Корреляционная матрица P (k|k) è коэффициент усиления Kk определяются на толь ко априорной информации и не зависят от поступающей информации {yk}. Это следует из равенств (2.3) (2.5). Поэтому проблема обеспечения точными априорными данными является одной из основных трудностей при практическом использовании алгоритмов Калмана.

3.Диагональные элементы корреляционной матрицы P (k, k) и модуль коэффициента усиления Kk быстро уменьшаются с ростом k-числа шагов = влияние последующего измерения yk на коррекцию экстраполированной оценки x(k|k − 1) уменьшается.

Эта особенность опасна при задании начальных условий x0 è P0, существенно отли чающихся от математического ожидания и корреляционной матрицы в начальный момент времени. = При расч¼тах на ЦВМ из-за погрешностей округления улучше ние экстраполированной оценки x(k|k − 1) может прекратиться раньше, чем будет достигнуто приемлемое значение отклонения между xk è x(k|k).

= Оценка x(k|k) оказывается существенно смещ¼нной и теряет свойство смещ¼нной и теряет свойство состоятельности.

4.Коэффициент усиления Kk вычисляется с помощью (2.4), содержащего обратную мат

ðèöó B

= [H

P (k

k

1)HT + R

]−1. Åñëè B−1

плохо обусловлена, то е¼ малые

k

k

|

 

k

k

k

 

изменения за сч¼т ошибок машинного сч¼та или неточности априорной информации будут приводить к существенным изменениям матрицы Bk, а следовательно и коэф фициента усиления Kk.

5.Наличие в алгоритме процедуры вычитания матриц в (2.5) может привести к по тере матрицей P (k|k) положительной определ¼нности (погрешность округления ма шинного сч¼та при малых значениях Kk è Hk). А если при этом в (2.3) окажется,

Мальцева Н. В.

Рекуррентная и адаптивная фильтрация

19

÷òî (k|k −1)Qk−1 T(k|k −1), то матрице P (k + 1|k) также потеряет положительную

определ¼нность. Это привед¼т к тому, что коэффициент усиления Kk

(2.4) изменит

свой знак на противоположный = соотношение (2.1) будет корректировать x(k|k) в

противоположную сторону, т. е. в сторону ухудшения качества оценок. Модуль разно сти xk − x(k|k) при этом будет расти по мере поступления новых измерений и оценки потеряют устойчивость.

= Указанные особенности алгоритма Калмана часто делают его неадекватным тем усло

виям, в которых ему приходится функционировать. Поэтому все последующие работы были направлены на обеспечение адекватности алгоритма реальным условиям функционирова ния по тем или другим параметрам, используемым в алгоритме Калмана.

Рассмотрим некоторые примеры реализации формул фильтра Калмана.

Пример 1. Рассмотрим скалярную систему вида

xk = Φxk−1 + wk−1 ;

 

yk = xk + vk ,

k = 1, 2, . . .

E{wk

} = 0

;

E{wk, wj} = 0

ïðè k 6= j ;

E{wk2

} = q

E{vk

} = 0

;

E{vk, vj} = 0

ïðè k 6= j ;

E{vk2

} = r

E{x0} = xˆ0 ;

E{xˆ0, vk} = E{xˆ0, wk} = 0 ; E{(ˆx0 − x0)2} = p0

Пусть все параметры этой системы Φ, q, r постоянны. Уравнение оптимального фильтра имеют вид:

точность предсказания;

ошибка измерения;

матрица ковариаций.

k = Φxˆk−1 + Kk(yk − Φxˆk−1)

Из уравнений фильтра Калмана ((2.3) и (2.4))

P (k|k − 1) = ΦP (k − 1|k − 1)ΦT + (k|k − 1)Qk−1 T(k|k − 1)

Kk = P (k|k − 1) HkT [HkP (k|k − 1)HkT + Rk]−1

получим

 

 

 

|{z}

 

 

 

 

 

 

 

 

 

=1

 

 

 

 

 

P (k|k − 1) = Φ2 · pk−1 + q

 

 

Φ2pk−1 + q

k

k

= (Φ2p

k−1

+ q)(Φ2p

k−1

+ q + r)−1 =

 

 

 

 

Φ2p

k−1

+ q + r

 

 

 

 

 

 

 

 

 

соответственно.

Тогда уравнение для дисперсией ошибки фильтрации

P (k|k) = (I − KkHk)P (k|k − 1)

принимает вид:

 

Φ2p

k−1

+ q

2

 

r(Φ2p

k−1

+ q)

pk = (1 −

 

)(Φ

pk−1 + q) =

 

Φ2pk−1 + q + r

Φ2pk−1 + q + r

при начальном условии p0.

(8.1)

(8.2)

(8.3)

(8.4)

Мальцева Н. В. Рекуррентная и адаптивная фильтрация 20

Из уравнения (8.2) ясно, что P (k|k − 1) > q, т. к. pk−1 > 0 = предельная точность предсказания определяется дисперсией возмущения .

Из уравнения (8.3) следует, что коэффициент передачи фильтра изменяется в пределах 0 6 kk 6 1 (если не учитывать тривиальный случай pk−1 = q = r = 0).

Если объединить (8.3) и (8.4), то получим

pk = rkk

= 0 6 pk 6 r для всех k (фильтрация улучшает точность оценивания). Рассмотрим предельные случаи:

а) Пусть p0 r = первое же измерение привед¼т к значительному уменьшению дис персией ошибки фильтрации от p0 äî p1 6 r p0 (актуальность верного начального приближения).

б) Пусть q r = из уравнения (8.3) и (8.4) можно видеть, что kk ≈ 1 è pk ≈ r для всех k. = предел точности фильтрации определяется дисперсией ошибки измерения.

9Фильтрация стационарных сигналов

Âстационарном варианте задачи оценивания состояния должны выполняться следую щие три условия:

1.Модели динамики системы и измерения должны описываться уравнениями с посто янными коэффициентами:

xk = Φxk−1 + wk yk = Hxk + vk ,

где Φ, , H постоянные матрицы.

2.Шум возмущений и шум измерений стационарны, т. е. E{wk, wkT} = Q , E{vk, vkT} = R, где Q и R постоянные матрицы.

3.Интервал наблюдения начинается при k = −∞. Это условие на практике никогда

не выполняется. Но поскольку момент начала наблюдений расположен далеко в про шлом, так что все переходные процессы успевают закончиться , то это допущение можно считать справедливым.

Если эти три условия выполняются, то задача оценивания является стационарной и выра жается в виде Pk = P = const .

Стационарные значения ковариационных матриц Pk и P (k) могут быть найдены из системы уравнений (2), получающейся пут¼м предельного перехода по k → ∞ в уравнениях

(2.3) è (2.5).

 

P (k k 1) = ΦP ΦT

Q T

 

k

 

1)HT(HP (k

k

 

1)HT + R)−1

HP (k

k

 

1) .

| −Pk

= P (k

k

+1)

 

 

P (k

 

 

 

 

 

|

 

 

|

 

 

 

 

|

 

·

|

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P (k k

 

 

 

Kk

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1), можно вычислить стационарную матрицу пе

 

 

 

 

 

 

 

|

 

|

 

 

 

{z

 

 

}

 

 

 

 

Найдя из этой системы матрицу

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

редачи фильтра:

K = P (k

k

 

1)HT(HP (k

k

 

1)HT + R)−1 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

|

 

 

 

 

 

|

 

 

 

 

 

 

 

 

 

 

Рассмотрим простой пример: