- •2.1 Примеры и постановки задач оценивания постоянных параметров при обработке навигационной информации.
- •2.1.1 Оценивание коэффициентов полинома.
- •2.1.3 Постановка линейной задачи оценивания.
- •2.1.4 Определение временного запаздывания реализаций.
- •2.1.6 Определение координат и скорости по спутниковым данным.
- •2.1.7 Постановка нелинейной задачи оценивания и ее линеаризация.
- •2.1.8 Задача комплексной обработки избыточных измерений.
- •2.2 Алгоритмы оценивания на основе минимизации наблюдаемых критериев. Метод наименьших квадратов.
- •2.2.1 Основные положения и постановка задачи метода наименьших квадратов.
- •2.2.3 Точность оценивания метода наименьших квадратов.
- •2.3 Оптимальные в среднеквадратическом смысле линейные алгоритмы оценивания.
- •2.3.1 Постановка задачи получения оптимальных линейных оценок.
- •2.3.5 Задачи к разделу 2.3.
- •2.3.6 Вопросы к разделу 2.3.
- •2.4 Небайесовский метод оценивания.
- •2.4.1 Основные положения и постановка задачи.
- •2.4.6 Задачи к разделу 2.4.
- •2.4.7 Вопросы к разделу 2.4.
- •2.5. Байесовский метод оценивания.
- •2.5.1.Основные положения и постановка задачи.
- •2.5.2 Свойства оптимальных оценок.
- •2.5.3 Решение нелинейной гауссовской задачи.
- •2.5.8 Вопросы к разделу 2.5.
- •2.6.3 Централизованная и децентрализованная схемы обработки.
- •2.6.7 Задачи к разделу 2.6.
- •2.6.8 Вопросы к разделу 2.6.
2.6.3 Централизованная и децентрализованная схемы обработки.
Рассмотрим обсуждавшуюся в подразделе 2.6.8 задачу комплексной обработки набора измерений типа (2.1.42) с целью получения оценки n − мерного вектора x . Запишем эти измерения в виде
|
y j = H j x + v j , j = |
1.i |
, |
(2.6.11) |
где H j |
- m j × n матрицы; v j - mj - мерные векторы ошибок измерения; j – номер измерения. |
|||
|
|
|
|
i |
Введем |
составные векторы измерений yi и их ошибок vi размерности m∑ |
= ∑m j , а также |
||
j=1
m∑ × n матрицу Hi в виде
|
|
H1 |
|
|
|
|
|
|
|
|
|
H |
i |
= H 2 |
|
, y |
i |
|
M |
|
|
||
|
|
|
|
|
|
|
|
Hi |
|
|
|
y1
=yM2 viyi
v1
=v2 .Mvi
Тогда измерения (2.6.9) могут быть записаны как yi = Hi x + vi .
Полагаем, что x и v j -случайные центрированные векторы с заданными матрицами ковариаций
P x , R j , j =1.i В целях простоты считаем, что все эти векторы некоррелированны между собой. В
этом случае матрица ковариаций Ri для составного вектора vi будет иметь следующий вид
R |
0 |
0 |
0 |
|
|
|
1 |
R2 |
0 |
0 |
|
Ri = |
0 |
0 |
O |
0 |
. |
|
|
||||
|
0 |
0 |
0 |
|
|
|
Ri |
||||
При сделанных предположениях легко получить выражение для оптимальной в
среднеквадратическом смысле линейной оценки |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
xˆ |
i |
(y |
i |
) = P H |
т |
R −1y |
i |
, |
|
|
|
|
|
|
|
|
|
|
(2.6.12) |
||||||
|
|
|
|
i |
|
i |
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
и соответствующей ей матрицы ковариаций |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
x |
|
−1 |
|
|
|
i |
|
|
т |
−1 |
|
−1 |
|
|
|
|
|
|
|
||
Pi |
= |
|
) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(2.6.13) |
|||||||
(P |
|
|
+ ∑H j |
R j |
H j . |
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|||
Отсюда имеем |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
|
−1 |
|
|
i |
т |
−1 |
|
|
−1 |
i |
т |
−1 |
|
|
|
xˆi (yi ) = |
|
(P |
) |
|
|
|
H j |
|
|
|
|
(2.6.14) |
|||||||||||||
|
|
|
+ ∑H j |
R j |
|
|
|
∑H j |
R j |
y j . |
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
j=1 |
|
|
|
|
|
j=1 |
|
|
|
|
||
При получении оптимальной оценки по всему имеющемуся набору измерений могут быть использованы две схемы обработки. Блок-схема одной из них изображена на Рис.2.6.3. Эта схема
94
получила название централизованной схемы обработки. Такое название объясняется тем, что выполнение всех вычислений предполагается осуществлять централизованно в одном алгоритме.
у1 = H1x + v1
Датчик номер 1
Датчик номер 2
Алгоритм
обработки
измерений
yi = (y1,...yi )T
Датчик номер i-1
Датчик номер i
уi = H i x + vi
xˆ i , Pi |
Рис. 2.6.3 Централизованная схема вычисления оптимальной оценки.
Вместе с тем, при вычислении искомой оценки может быть использована и другая схема. Для
ее получения предположим для начала, что справедливо неравенство |
|
|||||||||
(P x )−1 << H jт R−j 1H j , |
|
j = |
|
, |
(2.6.15) |
|||||
|
1.i |
|||||||||
означающее, что априорной информацией о векторе |
x можно пренебречь. |
Введем частные |
||||||||
оптимальные оценки как |
|
|
|
|
|
|
|
|
|
|
ˆ ( j) |
(P |
( j) |
т |
−1 |
y j |
, |
|
|
|
(2.6.16) |
x |
|
)H j R j |
|
|
|
|||||
где |
|
|
|
|
|
|
|
|
|
|
P( j) = (H jт R −j 1H j )−1 , |
|
|
|
|
(2.6.17) |
|||||
т.е. оценки искомого вектора, полученные с использованием данных только частных j -ых
измерений.
Принимая во внимание (2.6.14) (2.6.16), легко убедиться в том, что выражение для оптимальной оценки, полученной по всему набору измерений, может быть преобразовано к виду
ˆ |
|
i |
|
|
|
−1 |
i |
|
|
ˆ |
|
|
|
∑(P |
( j) |
−1 |
|
|
∑(P |
( j) |
−1 |
( j) |
(2.6.18) |
||
xi |
|
|
) |
|
|
|
) |
x |
. |
|||
|
j=1 |
|
|
|
j=1 |
|
|
|
|
|
||
Иными словами оптимальная оценка, полученная с использованием всего набора измерений, представляет собой «взвешенную» сумму частных оптимальных оценок.
95
Предположение (2.6.15) можно и не вводить, если при получении частных оценок вместо (2.6.17) использовать соотношения
|
( j) |
1 |
|
x |
|
−1 |
т −1 |
|
−1 |
|
||
P |
|
= |
|
|
(P |
|
) |
|
+ H j R j |
H j |
, |
(2.6.19) |
|
|
|
|
|||||||||
|
|
i |
|
|
|
|
|
|
|
|
||
Блок схема, соответствующая этому варианту, приведена ниже на Рис. 2.6.4.
|
у1 = H 1 x + v1 |
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
xˆ |
, P |
||||
Датчик |
|
|
|
Алгоритм |
|
xˆ11, P11 |
|||||
номер 1 |
|
|
|
получения |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
частной оценки |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
xˆ i , Pi |
|
|
|
|
|
|
|
|
|
|
|
||
Датчик |
|
|
|
Алгоритм |
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
||
номер 2 |
|
|
|
получения |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
частной оценки |
|
|
|
|
Алгоритм |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
взвешивания |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
частных |
|
|
|
|
|
|
|
|
|
|
|
оценок |
|
|
Датчик |
|
|
|
Алгоритм |
|
|
|
|
|
|
|
|
|
|
получения |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
номер i-1 |
|
|
|
частной оценки |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Датчик |
|
|
|
Алгоритм |
|
|
|
|
xˆi , Pi |
||
|
|
|
получения |
|
|
|
|
||||
|
|
|
|
|
|
|
|||||
номер i |
|
|
|
частной оценки |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
уi = H i x + vi
Рис.2.6.4 Децентрализованная схема обработки, основанная на использовании результатов от частных фильтров.
Эта схема называется децентрализованной в силу того, что вычисления частных оценок и соответствующих им матриц ковариаций может осуществляться в отдельных алгоритмах, а искомая оценка затем определяется путем взвешивания этих частных оценок.
2.6.4. Рекуррентная схема обработки
Наибольшее применение при решении задач обработки избыточной навигационной информации получила рекуррентная схема. Суть этой схемы заключается в том, что искомая оценка получается не в результате одновременной обработки всего набора измерений, а формируются путем последовательной обработки очередного измерения и результатов, полученных с использованием предыдущих измерений.
Идею получения такой схемы легко пояснить на простейшем примере оценивания скалярной величины по скалярным измерениям
96
yi = x + vi .
Если считать, что ошибки измерения представляют собой некоррелированные случайные величины с одинаковыми дисперсиями, то в этом случае оценка ОМНК определяется в виде
среднего арифметического накопленных измерений, т.е. xˆi = 1 ∑i y j . Записывая цепочку равенств i j=1
|
|
|
|
|
|
|
|
|
i−1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
i |
|
|
|
|
yi + ∑y j |
|
yi |
|
i −1 |
|
|
|
1 |
|
|||||
|
|
|
|
|
j=1 |
|
|
|
|
|
|
||||||||||
xˆi = |
∑y j |
= |
= |
+ |
xˆi−1 |
= xˆi−1 |
+ |
( yi − xˆi−1) , |
|||||||||||||
|
i |
|
i |
i |
|
|
i |
|
|||||||||||||
|
|
j=1 |
|
|
|
|
|
|
i |
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
получим следующую рекуррентную процедуру |
|
|
|
|
|
|
|
|
|
|
|
||||||||||
xˆi = xˆi−1 + |
1 |
( yi − xˆi−1 ) . |
|
|
|
|
|
|
|
|
|
|
(2.6.20) |
||||||||
|
i |
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
По аналогии получим рекуррентную схему применительно к рассмотренной в предыдущем подразделе задаче, полагая, что измерения от каждого датчика поступают в схему обработки последовательно. Для получения рекуррентной схемы введем оценку и матрицу ковариаций ее
ошибок, соответствующую обработке i −1 - ого измерения в виде |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
−1 |
|
i−1 |
|
|
|
т |
|
−1 |
|
|
|
−1 i−1 |
|
|
т |
|
−1 |
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
xˆi−1 (yi−1 ) = |
|
|
|
) |
+ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
, |
|
(2.6.21) |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
(P |
|
|
|
|
∑H j |
R j |
|
|
H j |
|
|
∑H j |
R j |
|
y j |
|
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
|
−1 |
|
|
i−1 |
|
|
т |
|
|
−1 |
|
|
|
|
−1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(P |
) |
|
|
|
|
|
|
|
|
|
H j |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(2.6.22) |
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
Pi−1 = |
|
|
|
+ ∑H j |
|
R j |
. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
Тогда можно записать следующую цепочку равенств |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
т |
|
|
−1 |
|
|
|
|
|
|
|
|
|
|
т |
|
|
−1 |
|
|
|
|
i−1 |
|
|
|
т |
−1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
= Pi |
|
|
|
|
|
yi |
|
|
|
|
|
|
|
|
|
= |
|
|
|
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
xˆi (yi ) = Pi |
∑H j |
R j |
|
y j |
H i |
|
Ri |
|
+ ∑H j |
R j |
|
y j |
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i−1 |
|
|
т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
т |
|
|
|
|
|
|
|
|
|
|
|
|
ˆ |
|
|
|
|
|
= |
||||||||
|
|
= |
P |
|
H |
|
R |
−1 |
y |
|
+ |
P |
−1 |
P |
|
|
|
|
|
H |
|
R |
−1 |
y |
|
= |
|
|
|
R |
−1 |
y |
|
|
+ |
|
P |
−1 |
|
|
|
(y |
|
||||||||||||||||||||||||||||
|
|
|
|
|
|
i |
i |
i |
|
|
|
|
|
|
|
|
|
|
j |
|
j |
j |
|
|
P H |
i |
|
i |
|
i |
|
|
|
|
|
x |
i |
−1 |
i−1 |
) |
|||||||||||||||||||||||||||||||
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
i−1 i−1 ∑ |
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
|
i−1 |
|
|
|
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
= |
|
|
|
т |
R |
−1 |
y |
|
+ |
P |
−1 ˆ |
|
|
(y |
|
|
|
+ |
|
P H |
т |
R |
−1 |
(H |
|
ˆ |
|
|
|
(y |
|
|
) |
− |
H |
|
ˆ |
|
|
(y |
|
|
)) |
= |
|
|
|||||||||||||||||||||||||
|
P H |
|
|
|
|
|
|
|
|
|
x |
|
|
|
|
) |
|
|
|
|
|
|
|
|
x |
|
|
|
|
|
|
x |
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||
|
i |
|
i |
|
|
i |
|
|
|
i |
|
i−1 |
|
i−1 |
|
|
|
i−1 |
|
|
|
|
|
i |
|
i |
|
|
|
|
i |
|
|
|
|
i |
|
i−1 |
|
i−1 |
|
|
|
|
|
i |
|
|
i−1 |
|
|
i−1 |
|
|
|
|
|
|
|||||||||||||
|
|
|
x |
|
−1 |
i |
т |
−1 |
−1 |
Pi = |
|
(P |
) |
|
|
||||
|
|
|
+ ∑H j |
R j |
H j |
||||
|
|
|
|
|
|
j=1 |
|
|
|
= |
P H |
т |
R |
−1 |
( y |
|
− |
H |
|
ˆ |
|
(y |
|
)) |
+ |
|
|
−1 |
+ |
H |
т |
R |
−1 |
H |
|
ˆ |
|
(y |
|
) |
= |
|
|
|
|
|
|
x |
|
|
|
P P |
|
|
|
|
x |
|
|
|
|||||||||||||
|
i |
i |
|
i |
|
i |
|
|
i |
|
i−1 |
|
i−1 |
|
|
i |
i−1 |
|
|
i |
|
i |
|
i |
|
i−1 |
|
i−1 |
|
|
|
= xˆ |
i−1 |
(y |
i−1 |
) + P H |
т |
R−1 ( y |
i |
− H |
i |
xˆ |
i−1 |
(y |
i−1 |
)) |
, |
|
|
|
|
||||
|
|
|
i |
i |
i |
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
(P |
x |
) |
−1 |
i−1 |
т −1 |
H j |
|
т |
−1 |
H i |
−1 |
|
−1 |
т −1 |
|
−1 |
||||||
= |
|
|
+ ∑H j |
R j |
+ H i |
Ri |
|
|
|
= Pi−1 |
+ H i Ri |
H i |
, |
||||||||||
|
|
|
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
из которых с очевидностью вытекают искомые рекуррентные соотношения
97
xˆ |
i |
(y |
i |
) = xˆ |
i−1 |
(y |
i−1 |
) + P H т |
R−1 |
( y |
i |
− H |
i |
xˆ |
i−1 |
(y |
i−1 |
)) , |
(2.6.23) |
||||||
|
|
|
|
|
|
|
|
i |
i |
i |
|
|
|
|
|
|
|||||||||
P |
= |
|
|
−1 |
+ H |
т |
R |
−1 |
H |
|
−1 |
|
|
|
|
|
|
|
|
|
|
(2.6.24) |
|||
P |
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
|||||||||
|
i |
|
|
i−1 |
|
|
i |
|
|
i |
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
Важно подчеркнуть, что приведенные соотношения являются рекуррентными как для оценок, так и для соответствующих этим оценкам матрицам ковариаций их ошибок.
Если ввести матрицу
|
|
K |
i |
= P H |
т |
R−1 , |
|
|
|
|
|
|
|
|
|
|
|
|
(2.6.25) |
||||||
|
|
|
|
i |
|
|
i |
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
то выражение для оценки можно представить как |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
xˆi (yi ) = xˆi−1(yi −1) + Ki ( yi − Hi xˆi −1(yi−1)) . |
|
|
|
|
|
(2.6.26) |
|||||||||||||||||||
Матрицу Ki обычно называют матрицей коэффициентов усиления |
Ki . |
Принимая во |
|||||||||||||||||||||||
внимание выражения (1.6.25), (1.6.27), матрицу ковариаций ошибок оценивания Pi |
и матрицу Ki |
||||||||||||||||||||||||
можно вычислять как |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
P |
= P |
|
− P |
H |
i |
т (H |
i |
P |
|
H |
т |
+ R )−1 H |
P |
= (E − K |
H |
i |
)P |
|
, (2.6.27) |
||||||
i |
i−1 |
|
|
i−1 |
|
|
|
|
i−1 |
|
i |
|
i |
i i−1 |
i |
|
i−1 |
|
|||||||
|
|
K |
i |
= P |
−1 |
H |
т (H |
i |
P |
H |
т |
+ R )−1 . |
|
|
|
|
|
(2.6.28) |
|||||||
|
|
|
|
i |
|
|
i |
|
|
i−1 |
|
i |
i |
|
|
|
|
|
|
|
|||||
Как будет показано в следующей главе, фактически это есть соотношения фильтра Калмана для рассматриваемой здесь задачи оценивания постоянного вектора.
2.6.5 Разностная схема обработки.
При решении задач обработки навигационной информации нередко приходится сталкиваться с задачами, отличительная особенность которых заключается в том, что ошибки используемых измерений содержат одинаковую для всех систематическую составляющую. При решении задач такого рода обычно используют разностную схему обработки, суть которой заключается в преобразовании исходных измерений таким образом, чтобы исключить эту составляющую ошибки. Типичным примером здесь является задача определения координат места по СНС, измерения дальностей в которых содержат систематическую составляющую (см задачу 2.6.7). Проанализируем возможные пути решения этой задачи с использованием рассмотренных в предыдущих разделах методов и сопоставим получающиеся при этом алгоритмы с теми, которые применяются на практике. С этой целью рассмотрим следующую задачу достаточно общего вида.
Будем полагать, что требуется найти оценку n - мерного вектора x по измерениям |
|
yi = si (x) + εi , |
(2.6.29) |
в которых ошибки |
|
εi = d + vi |
(2.6.30) |
98
представляют собой сумму центрированной гауссовской случайной величины с дисперсией σ2d
и независимых между собой и от d центрированных гауссовских случайных величин с одинаковыми дисперсиями ri2 = r 2 , i =1.m .
Найдем решение этой задачи, соответствующее методу максиму правдоподобия. Принимая во внимание результаты решения задачи 2.4.2, в частности, учитывая, что матрица ковариаций
ошибок для вектора ε и обратная ей матрица могут быть представлены в виде |
|
|
|
|
|
|
|||||||||||||||||||||||||
|
ε |
|
2 |
|
|
|
|
2 |
|
ε |
|
−1 |
|
1 |
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
R |
= r |
E + σ |
I , (R |
) |
= |
|
E − |
|
|
σd |
|
|
|
|
I |
|
, |
|
|
||||||||||||
|
|
d |
|
|
r |
2 |
|
|
|
2 |
+ r |
2 |
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
mσd |
|
|
|
|
|
|
|
||||||
нетрудно получить следующее представление для ln f ( y / x) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
1 |
|
|
|
m |
|
|
|
|
|
|
2 |
|
|
|
|
2 |
|
|
|
m |
|
|
|
2 |
||
ln f ( y / x) = |
|
|
|
∑ ( yi − si (x)) |
− |
|
|
σd |
|
|
|
|
∑ |
( yi − si (x)) |
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
||||||||||||||||||
2r |
2 |
|
|
mσ |
2 |
+ r |
2 |
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
d |
|
|
i=1 |
|
|
|
||||||||
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
Таким образом, для нахождения оценки, соответствующей МФП, необходимо минимизировать
критерий вида |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
мфп |
|
|
|
|
1 |
|
|
m |
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
2 |
|
|
|
m |
|
|
|
|
|
|
2 |
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
σd |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
J |
|
|
(x) = |
|
|
|
|
∑ ( yi − si (x)) |
|
|
− |
|
|
|
|
|
|
|
|
∑ |
( yi − si (x)) |
|
|
.(2.6.31) |
||||||||||||||||||
|
|
|
|
|
|
|
2r |
2 |
|
|
mσ |
2 |
+ r |
2 |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
d |
|
i=1 |
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
Будем |
далее полагать |
выполненным условие |
σ2 |
|
>> r 2 , |
означающее, |
что |
|
априорной |
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
d |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
σ2 |
|
|
|
||
информацией о величине d |
можно пренебречь. В этом случае множитель |
|
|
|
d |
может быть |
||||||||||||||||||||||||||||||||||||||||
|
mσd2 |
+ r 2 |
|
|||||||||||||||||||||||||||||||||||||||||||
заменен на |
|
1 |
|
. С учетом сделанного предположения, а также того факта, что |
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||
|
m |
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
m |
|
|
|
|
|
|
|
|
|
1 |
|
|
m |
|
|
|
|
|
|
|
|
|
|
2 |
|
m |
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
∑ |
( yi − si (x)) − |
|
|
∑ ( y j |
− s j (x)) |
|
|
= ∑ ( yi − si (x))2 − |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
m |
|
|
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
||||||||
|
|
|
|
|
|
2 |
m |
|
|
|
|
|
|
|
2 |
|
m |
|
|
|
|
|
|
m |
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
− |
|
|
|
∑ ( yi |
− si (x)) |
+ ∑ |
|
|
|
|
2 |
|
|
∑ ( y j |
− s j (x)) |
|
= |
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
m i=1 |
|
|
|
|
|
|
|
|
|
|
i=1 |
|
m |
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
m |
|
|
|
|
|
|
|
1 |
m |
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
= |
∑ |
( yi − si (x))2 − |
|
|
|
( yi |
− si (x)) |
|
|
, |
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
m ∑ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
критерий J мфп(x) можем представить в виде |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
мфп |
|
|
1 |
|
|
m |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
m |
|
|
|
|
|
|
2 |
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
J |
|
|
(x) = |
|
|
|
∑ |
|
( yi |
− si (x)) − |
|
|
|
∑ |
( yi − si (x)) |
|
|
, |
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
2r |
2 |
|
|
|
|
|
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
m i=1 |
|
|
|
|
|
|
|
|
||||||
или
99
|
|
|
|
|
|
1 |
m |
|
|
J мфп(x) = |
|
∑ (( yi − ym ) − (si (x) − sm (x)))2 , |
(2.6.32) |
||||||
2 |
|||||||||
|
|
|
|
|
|
2r |
i=1 |
|
|
где |
|
|
|
|
|
|
|
||
|
1 |
|
m |
|
|
|
|
||
ym = |
∑yi , |
|
(2.6.33) |
||||||
m |
|
||||||||
|
|
i=1 |
|
|
|
|
|||
|
|
|
|
|
|
|
|||
|
|
|
1 |
|
|
m |
|
|
|
sm (x) = |
|
∑si (x) . |
(2.6.34) |
||||||
|
m |
||||||||
|
|
|
i=1 |
|
|
||||
|
|
|
|
|
|
|
|||
Анализ выражения (2.6.32) показывает, что решение исходной задачи с точностью до сделанного предположения эквивалентно решению задачи оценивания x по измерениям вида
~ ~ |
|
|
|
|
|
|
|
|
(2.6.35) |
|
|
|
|
|
|
|
|
||
yi = si (x) + vi , i =1.m , |
|
||||||||
в которых |
|
|
|
|
|
|
|
|
|
~ |
|
|
1 |
m |
|
|
|
|
|
si (x) = si (x) − |
|
∑ |
si |
(x) , |
(2.6.36) |
||||
m |
|||||||||
|
i=1 |
||||||||
|
|
|
|
|
|
|
|
||
~ |
1 |
m |
|
|
|
|
|
|
|
yi ≡ yi − |
|
∑yi , |
|
|
|
(2.6.37) |
|||
m |
|
|
|
||||||
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
а ошибки измерения не содержат систематической составляющей и представляют собой
центрированные гауссовские случайные величины |
v |
i |
с одинаковыми дисперсиями |
r 2 |
= r 2 , |
||
|
|
|
|
|
i |
|
|
i = |
|
. |
|
|
|
|
|
1.m |
|
|
|
|
|
||
Таким образом, для нахождения оценки вектора |
x , |
соответствующей МФП, по измерениям |
|||||
(2.6.29), содержащим систематическую составляющую ошибки, можно сначала с целью исключения этой составляющей сформировать разностное измерение в виде (2.6.37), а затем вместо исходной задачи решить задачу оценивания вектора x по измерениям (2.6.35).
Ясно, что с |
точностью до сделанного |
|
предположения ( σ2 |
>> r 2 ) оба решения будут |
|
|
|
d |
|
одинаковыми. |
|
|
|
|
Любопытно отметить, что при выполнении условия |
|
|||
|
m |
|
|
|
|
∑si (x) = 0 |
, |
|
(2.6.38) |
|
i=1 |
|
|
|
~ |
совпадет с исходной si (x) , |
и, таким образом, можно говорить о значительном |
||
функция si (x) |
||||
совпадении алгоритмов вычисления оценки и соответствующих им дисперсий, получаемых в предположении наличия и отсутствия постоянной составляющей ошибки. Отличия будут заключаться в том, что в одном случае (при отсутствии систематической составляющей ошибки) на вход алгоритма будут поступать исходные измерения, а в другом – разностные измерения
(2.6.37).
На практике обычно используется другой прием при решении рассматриваемой задачи оценивания x по измерениям (2.6.29). Этот прием основан на использовании разностных
100
измерений, формируемых путем вычитания каждого измерения из некоторого опорного измерения. Так, принимая в качестве опорного - последнее - m - ое измерение, можем записать
~ ~ |
~ |
|
|
(2.6.39) |
|
|
|
||||
yi = si (x) + vi , i =1.m −1 , |
|||||
в которых |
|
|
|
|
|
~ |
|
− sm (x) , |
(2.6.40) |
||
si (x) = si (x) |
|||||
~ |
|
, |
|
|
(2.6.41) |
yi ≡ yi − ym |
|
|
|||
~ |
− vm . |
|
|
|
(2.6.42) |
vi ≡ vi |
|
|
|
||
Здесь следует обратить внимание на два обстоятельства. Во-первых, число измерений стало на
~ |
~ |
~ |
~ |
т |
стали |
одно меньше, а во-вторых, компоненты вектора ошибок измерения v |
= (v1 |
, v2 |
,...vm−1) |
|
между собой зависимыми. Нетрудно убедиться, что матрица ковариаций для этого вектора имеет следующий вид
~ |
+ I m−1) , |
(2.6.43) |
Rv = r 2 (Em−1 |
где Em−1, I m−1 - единичная матрица и матрица, составленная из единичек. При решении этой задачи важно правильно учесть наличие появившейся статистической зависимости между компонентами вектора ошибок разностных измерений. Принимая во внимание результаты решения задачи 1.5.2 для матрицы, обратной (2.6.41), можем записать равенство
|
~ |
|
−1 |
|
1 |
|
1 |
|
v |
|
|
|
|
||||
R |
|
|
|
= |
|
(Em−1 − |
|
I m−1) , |
|
|
r 2 |
m |
|||||
|
|
|
|
|
|
|
с использованием которого нетрудно получить логарифмическую функцию правдоподобия для
задачи оценивания x по измерениям (2.6.39), определяемую как |
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
m−1 |
|
|
|
|
m−1 |
|
|
2 |
|
|
~ |
1 |
|
|
~ ~ |
2 |
|
1 |
~ ~ |
|
|
|
|||
|
|
|
|
|
|
|
||||||||
ln f ( y / x) = |
|
|
|
∑ |
( yi − si (x)) |
|
− |
|
∑ |
( yi − si (x)) |
|
|
|
.(2.6.44) |
2r |
2 |
|
|
|
||||||||||
|
|
i=1 |
|
|
|
m i=1 |
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Возникает вопрос о соотношении оценок, получаемых с использованием преобразованных и исходных измерений. Разумно предположить, что эти оценки эквивалентны, в чем можно убедиться путем преобразования критерия (2.6.44) к виду (2.6.31). Но эта эквивалентность может быть установлена и из иных соображений, если использовать следующее весьма полезное и достаточно очевидное свойство.
Оценки МФП не зависят от линейных невырожденных преобразований по отношению к используемым измерениям.
Убедимся в этом на примере решения нелинейной гауссовской задачи оценивания вектора x по измерениям (2.1.21). Введем вместо (2.1.21) преобразованное измерение
~ |
~ |
~ |
y |
=Ty =Ts(x) +Tv = s (x) + v , |
|
в котором T - квадратная m × m невырожденная матрица.
101
Для доказательства сформулированного утверждения следует убедиться в том, что функции
правдоподобия |
|
|
~ |
|
|
f ( y / x) |
совпадают. Что достаточно очевидно, поскольку |
|
|
||||||||||||||
|
f ( y / x) и |
|
|
||||||||||||||||||||
|
( y − s(x)) |
т |
R |
−1 |
( y |
− s(x)) = |
( y − s(x)) |
т |
(T |
т −1 |
T |
т |
R |
−1 |
−1 |
|
~ ~ |
(x)) |
т |
~ −1 |
~ ~ |
||
|
|
|
|
) |
|
TT |
|
( y − s(x)) = ( y − s |
|
R |
( y − s (x)) , |
||||||||||||
~ |
=TRT |
т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
~ |
преобразованных измерений. |
|||||
где R |
|
- матрица ковариаций для вектора ошибок v |
|
||||||||||||||||||||
Возвращаясь к вопросу об эквивалентности оценок, введем вектор преобразованных измерений
в виде |
|
|
|
|
|
|
|
|
|
|
|
|
y |
− y |
m |
|
1 0 . . |
−1 |
y |
|
|
||
|
1 |
|
|
|
− |
|
|
1 |
|
|
|
|
y2 − ym |
0 1 . . |
1 |
y2 |
|
(2.6.45) |
|||||
|
|
. |
|
|
= . . . . |
. |
|
. |
. |
||
|
|
|
|
|
|
− |
|
|
|
|
|
ym−1 − ym |
0 0 . 1 |
1 ym−1 |
|
|
|||||||
|
|
|
|
|
|
1 |
|
ym |
|
|
|
|
|
ym |
0 0 . |
|
|
|
|||||
Это преобразование не вырождено, причем (m −1) -одна компонента преобразованного вектора
совпадет с вектором измерений (2.6.39), а последнее измерение ym = sm (x) + vm + d
не используется. Это измерение может рассматриваться как измерение величины
η= (sm (x) + vm ), фигурирующей в правой части каждой компоненты преобразованного вектора
~ |
, |
yi ≡ si (x) − η+ vi |
|
с ошибкой измерения, равной d , т.е. |
|
~ |
|
ym ≡ ym = η+ d . |
|
Поскольку дисперсия этой ошибки предполагается значительной (условие σ2d >> r 2 можно
заменить на предположение о бесконечно большой дисперсии σ2d ), при решении задачи это измерение можно не учитывать.
Из сказанного следует, что решение задачи с использованием исходных измерений (2.6.29) можно рассматривать как решение задачи с использованием разностных измерений (2.6.39), полученных из исходных измерений путем невырожденного преобразования (2.6.45). Отсюда и следует совпадение получаемых оценок.
Выше было показано, что решение исходной задачи совпадает также с решением другой задачи
с использованием измерений (2.6.36), которые |
тоже |
можно рассматривать как |
измерения, |
|||
|
|
|
1 |
|
|
|
полученные с помощью преобразования |
T = Em − |
|
I m . Возникает вопрос: |
почему при |
||
m |
||||||
|
|
|
|
|
||
использовании таким образом преобразованных измерений допустимо исходить из предположения о независимости ошибок измерения? Очевидно, что на самом деле при таком преобразовании появляется зависимость для компонент вектора ошибок преобразованных измерений. Объясняется это тем, что рассмотренное преобразование является вырожденным, т.е. в результате его применения появятся линейно зависимые компоненты, исключение которых и
102
приведет в результате к алгоритму, соответствующему использованию измерений (2.6.35). В этом смысле можно отметить, что использование разностных измерений в виде (2.6.35) оказывается предпочтительнее в вычислительном плане, по сравнению со случаем использования измерений (2.6.39), поскольку не требуется обращения матрицы ковариаций.
Все рассуждения в настоящем разделе были приведены для случая оценок, соответствующих МФП в предположении заданной ф.п.р.в. f (v) . Если снять требования о гауссовском характере ошибок и считать заданными только их первые два момента, то полученные выводы будут справедливыми для оценок, соответствующих ОМНК. С другой стороны, если дополнительно ввести в рассмотрение совместную плотность f (x, v) , то эти выводы будут также справедливы применительно и к оптимальным байесовским оценкам.
Проиллюстрируем сказанное на примере, который можно рассматривать как линеаризованный вариант задачи 2.4.2. Сформулируем эту задачу следующим образом. Требуется найти оценку скалярной величины x по измерениям, записываемым как
|
|
|
|
|
|
|
|
|
|
|
|
|
|
yi = hi x + εi , |
(2.6.46) |
|
|
где ошибки измерения задаются в виде (2.6.30). |
|
|
|||||||||||||
|
С |
|
учетом |
выражений (2.4.19), (2.4.20), вида матрицы |
H т = (h , h ,...h ) |
и |
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 2 m |
|
|
ε |
|
−1 |
|
1 |
|
|
|
2 |
|
|
|
|
|
|
|
(R |
) |
= |
|
E − |
σd |
|
I |
|
для искомой оценки МФП и соответствующей ей дисперсии можем |
|||||||
|
|
r |
2 |
|
2 |
+ r |
2 |
|
||||||||
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
mσd |
|
|
|
|
|
|
||
получить следующие соотношения
σ2
Заменяя d mσ2d + r 2
также тот факт, что
получим
xˆ мфп |
= |
m |
|
− |
|
σ2 |
|
|
|
m |
2 −1 |
1 |
m |
|
|
− |
|
σ2 |
|
|
|
m |
|
|
,(2.6.47) |
|||||||||||||||
∑h2 |
|
|
2 |
d |
|
|
2 |
∑h |
|
|
2 |
∑h |
y |
i |
|
2 |
d |
|
2 |
∑ y |
|
|||||||||||||||||||
|
|
|
i |
|
|
|
+ r |
i |
i |
|
r |
|
|
i |
|
|
|
|
+ r |
i=1 |
i |
|
|
|
||||||||||||||||
|
|
|
i=1 |
|
|
mσd |
|
=1 |
|
i=1 |
|
|
|
|
mσd |
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
мфп |
|
|
|
|
|
m |
|
|
σ2 |
|
|
|
m |
|
|
2 |
|
−1 |
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
P |
|
|
|
= r |
2 |
|
|
∑hi2 − |
2 d |
|
2 |
|
∑hi |
|
|
|
|
, |
|
|
|
|
|
|
|
|
|
(2.6.48) |
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
i=1 |
|
|
mσd + r |
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
m |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
m |
∑ |
|
|
|
|
|
|
|
|
m |
∑ |
|
|
|
на |
1 |
и принимая во внимание обозначения y |
m |
= |
1 |
m y |
i |
, |
|
h |
m |
= |
1 |
m h |
, а |
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
i=1 |
i |
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
m |
|
|
|
|
|
|
|
m |
|
2 |
m |
|
|
|
|
|
|
|
m |
|
|
|
|
|
m )2 , |
|
|
|
|
|
|||||||
|
|
|
∑hi2 − |
1 |
|
|
∑hi |
|
= ∑hi2 − mh |
m2 = |
∑(hi − |
|
|
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
h |
|
|
|
|
|
|||||||||||||||||||||||||||||||
|
|
|
m |
|
|
|
|
|
||||||||||||||||||||||||||||||||
|
|
|
i=1 |
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
m
∑hm (yi − ym )= hm mym − mhm ym = 0 , i=1
103
m
∑hi (yi − ym )
xˆмфп = i=1
∑m (hi − hm )2
|
|
|
i=1 |
||
P |
мфп |
= |
r 2 |
||
|
∑m (hi − |
|
m )2 |
||
|
|
|
h |
||
|
|
|
i=1 |
||
|
|
m |
|
|
|
|
|
|
|
|
|
|
|
∑(hi − |
|
m )(yi − ym ) |
|
||||||
|
h |
|
|||||||||
= |
i=1 |
|
|
|
|
|
, |
(2.6.49) |
|||
|
|
|
|
|
|
||||||
|
|
∑m |
(hi |
− |
|
m )2 |
|
||||
|
h |
|
|||||||||
|
|
i=1 |
|
|
|
|
|
|
|
|
|
= |
|
r 2 |
|
|
|
|
. |
|
|
(2.6.50) |
|
|
m |
|
|
|
|
|
|||||
|
∑hi2 − mh |
m2 |
|
||||||||
i=1
Как и следовало |
ожидать, полученный |
алгоритм |
соответствует |
задаче |
оценивания x по |
|||||||||||
~ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
− ym )= hi x − hm x + vi , |
i =1.m , с независимыми и равноточными ошибками |
|||||||||||||||
измерениям yi ≡ (yi |
||||||||||||||||
измерения с дисперсией r 2 . |
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
m |
|
|
|
|
|
|
|
|||
Условие (2.6.38) сведется здесь к условию ∑hi = 0 , |
при выполнении которого полученные |
|||||||||||||||
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|||
соотношения могут быть представлены в виде |
|
|
|
|
|
|
|
|||||||||
|
|
|
|
m |
|
|
|
|
|
|
|
|
|
|
|
|
|
xˆмфп = |
∑hi ( yi − ym ) |
|
мфп = |
|
r 2 |
|
|||||||||
|
i=1 |
, |
P |
|
. |
|||||||||||
|
|
|
|
|
||||||||||||
|
|
|
|
|
m |
|
|
|
|
m |
||||||
|
|
|
|
|
∑hi2 |
|
|
|
|
∑hi2 |
||||||
|
|
|
|
|
i=1 |
|
|
|
|
i=1 |
||||||
m |
m |
|
|
|
|
|
|
|
|
|
|
|
||||
Поскольку ∑hi ym = ym ∑hi = 0 , то для оценки будет справедливо и следующее соотношение |
||||||||||||||||
i=1 |
i=1 |
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
m |
|
|
|
|
|
|
|
||
|
|
|
|
xˆмфп = |
∑hi yi |
|
|
|
|
|
|
|
||||
|
|
|
|
i=1 |
|
. |
|
|
|
|
|
|||||
m
∑hi2
i=1
m
Отсюда фактически вытекает, что при выполнении условия ∑hi = 0 алгоритм, при получении i=1
которого не предусматривалось наличие систематической составляющей ошибки, тем не менее вырабатывает «хорошую» оценку и в тех условиях, когда такая составляющая появляется.
Следует заметить, что в случае, когда hi = h , i =1.m , т.е. все значения hi одинаковы,
выражение для оценки становится неопределенным, поскольку числитель в (2.6.49) обращается в ноль. В то же время выражения для оценки x и соответствующей ей дисперсии в этой задачи в
|
σd2 |
1 |
|
|
условиях, когда не вводится предположения |
|
≈ |
|
, могут быть получены с |
mσd2 + r 2 |
m |
|||
использованием соотношений (2.6.47), (2.6.48). При этом понятно, что эти выражения совпадут с выражениями (3), (4), соответствующими ОМНК из задачи 2.2.9 (см. задачу 2.6.7).
104
2.6.6 Итерационная схема обработки.
При решении нелинейных задач оценивания вектора x по измерениям (2.1.20) с использованием алгоритмов, основанных на линеаризации, необходимо помнить об их приближенном характере. Эффективность таких алгоритмов существенным образом зависит от
точности приближения (2.1.22) функции s(x) в |
области априорной |
неопределенности |
оцениваемого вектора. «Размер» этой области определяется разностью |
∆ = x − x л между |
|
возможным истинным значением оцениваемого вектора |
x и выбранной точкой линеаризации. В |
|
частности, при решении задачи определения координат по точечным ориентирам, как отмечалось ранее, погрешность приближения δ, обусловленная линеаризацией, может быть оценена с помощью соотношения (2.1.32). Из этого выражения следует, что при уменьшении ∆ по отношению к дальности до точечного ориентира, ошибка, обусловленная линеаризацией, существенно снижается. Обсудим один из возможных приемов уменьшения этой ошибки, считая, для определенности, что после проведения линеаризации для нахождения оценки используется описанный в разделе 2.3 алгоритм (2.3.10), (2.3.13), полученный в предположении о случайном характере векторов оцениваемых параметров и ошибок измерения, для которых считаются заданными математические ожидания x , v = 0 и матрицы ковариаций P x и R , а сами векторы полагаются некоррелированными между собой векторами. Суть приема заключается в многократной повторной обработке измерений и может быть пояснена следующим образом.
Выбрав начальную точку линеаризации x л |
и используя приближение |
|
|
|||||||||||||||||||||||||
|
|
|
|
s(x) ≈ s(x л) + |
ds |
|
|
|
|
|
(x − x л) = y − s(x л) + H (x л)(x − x л) , |
|||||||||||||||||
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
dx т |
|
x=xл |
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
формируют первоначальную оценку искомого вектора с помощью соотношения |
|
|||||||||||||||||||||||||||
|
|
|
|
ˆ(1) = |
x |
+ |
K (x |
л |
|
− |
|
|
л |
) |
− |
H |
(1) |
(x |
л |
)(x |
− |
x |
л |
)] |
, |
(2.6.51) |
||
|
|
|
|
x |
|
|
)[y s (x |
|
|
|
|
|
|
|
|
|||||||||||||
в котором H (1) (x л) = |
ds |
|
|
, а K (xл) |
вычисляется в соответствии с (2.3.16). |
|
||||||||||||||||||||||
|
|
|||||||||||||||||||||||||||
dx т |
|
|
||||||||||||||||||||||||||
|
|
x=xл |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
Далее повторно обрабатывают измерение с использованием соотношения (2.6.51), в котором точка линеаризации x л заменяется на значение полученной оценки xˆ(1) . Такая операция повторяется до тех пор, пока значение оценки не перестает меняться. В общем виде описанный алгоритм, получивший наименование итерационного алгоритма (iterated algorithm), или
алгоритма с локальными итерациями [2, 10], может быть записан как
ˆ(γ+1) |
= |
x |
+ |
|
ˆ |
(γ) |
|
|
− |
|
ˆ |
(γ) |
) |
− |
H |
(γ) |
ˆ |
(γ) |
− ˆ (γ) |
)] |
, |
(2.6.52) |
||||
x |
|
|
K (x |
|
|
)[y s |
(x |
|
|
|
|
(x |
|
)(x |
x |
|
|
|
||||||||
K(xˆ |
(γ) ) = P(xˆ |
(γ) )H т(xˆ |
(γ) )R−1, |
|
|
|
|
|
|
|
|
(2.6.53) |
||||||||||||||
ˆ |
(γ) |
) |
= |
((P |
x |
) |
−1 |
+ |
H |
т |
|
ˆ (γ) |
)R |
−1 |
|
|
ˆ |
(γ) |
−1 |
. |
|
|
(2.6.54) |
|||
P(x |
|
|
|
|
|
|
|
(x |
|
|
|
H(x |
|
)) |
|
|
||||||||||
105
γ =0,1,2.., xˆ (0) = x .
Условная блок схема, соответствующая итерационному алгоритму, представлена на Рис. 2.6.5.
y |
|
xˆ(γ +1) |
|||||
Алгоритм |
|||||||
|
|
|
|
||||
|
|
|
|
вычисления |
|
|
|
|
|
|
|
|
|
||
|
|
|
|
оценки |
|
|
|
|
|
|
|
|
|
|
|
s(xˆγ ), ds(x) xˆγ dx
x
Рис. 2.6.5 Блок схема итерационного алгоритма оценивания.
Несмотря на то, что при получении оценки на начальных итерациях дополнительная ошибка, обусловленная линеаризацией, может быть значительной, в целом описанный алгоритм оказывается эффективным при решении ряда прикладных задач. В частности, такая схема широко используется при решении задачи определения координат по точечным ориентирам. Ее эффективность обусловлена существенным снижением отношения ∆/ D при повторных
итерациях. Так, к примеру, в задаче определения координат по данным СНС при уровне априорной неопределенности даже в 100 км, можно ожидать снижения величины ошибки определения координат до уровня, соизмеримого с сотней метров. Ясно, что повторная обработка с использованием скорректированной точки линеаризации позволит существенно повысить точность определения координат за счет снижения ошибки, обусловленной линеаризацией.
Важно подчеркнуть, что получаемый в результате алгоритм перестает быть линейным относительно измерений, поскольку появляется нелинейная зависимость от измерений используемой в (2.6.54) матрицы K (xˆ (γ) ) = K (xˆ (γ) ( y)) .
Следует также иметь в виду, что хотя итерационная схема и позволяет в ряде случаев существенно повысить точность основанных на линеаризации алгоритмов, область их применения при решении нелинейных задач ограничена. Это объясняется тем, что такие алгоритмы могут быть эффективными лишь в случае, когда минимизируемый критерий или апостериорная плотность являются унимодальными. В тех ситуациях, в которых это условие не выполняется, что,
как правило, обусловлено существенно нелинейным характером функций s (x) , необходимо использовать алгоритмы, позволяющие в полной мере учитывать нелинейный, многоэкстремальный характер задачи. Для их решения разрабатываются специальные алгоритмы. В частности, в рамках байесовского подхода, как отмечалось в подразделе 2.5.3, получение таких
106
