
- •2.1 Примеры и постановки задач оценивания постоянных параметров при обработке навигационной информации.
- •2.1.1 Оценивание коэффициентов полинома.
- •2.1.3 Постановка линейной задачи оценивания.
- •2.1.4 Определение временного запаздывания реализаций.
- •2.1.6 Определение координат и скорости по спутниковым данным.
- •2.1.7 Постановка нелинейной задачи оценивания и ее линеаризация.
- •2.1.8 Задача комплексной обработки избыточных измерений.
- •2.2 Алгоритмы оценивания на основе минимизации наблюдаемых критериев. Метод наименьших квадратов.
- •2.2.1 Основные положения и постановка задачи метода наименьших квадратов.
- •2.2.3 Точность оценивания метода наименьших квадратов.
- •2.3 Оптимальные в среднеквадратическом смысле линейные алгоритмы оценивания.
- •2.3.1 Постановка задачи получения оптимальных линейных оценок.
- •2.3.5 Задачи к разделу 2.3.
- •2.3.6 Вопросы к разделу 2.3.
- •2.4 Небайесовский метод оценивания.
- •2.4.1 Основные положения и постановка задачи.
- •2.4.6 Задачи к разделу 2.4.
- •2.4.7 Вопросы к разделу 2.4.
- •2.5. Байесовский метод оценивания.
- •2.5.1.Основные положения и постановка задачи.
- •2.5.2 Свойства оптимальных оценок.
- •2.5.3 Решение нелинейной гауссовской задачи.
- •2.5.8 Вопросы к разделу 2.5.
- •2.6.3 Централизованная и децентрализованная схемы обработки.
- •2.6.7 Задачи к разделу 2.6.
- •2.6.8 Вопросы к разделу 2.6.
приближение mσ2d + r 2 ≈ mσ2d , то отношение становится неопределенным.
Задача 2.6.8. Сформулируйте линеаризованную постановку задачи определения координат по спутниковым измерениям (2.1.11) с использованием разностных измерений, полагая, что имеются измерения псевдодальностей до m спутников, в качестве опорного взято m -ое измерение, а
исходные ошибки измерения представляют собой некоррелированные с.в. с одинаковыми дисперсиями.
2.6.8.Вопросы к разделу 2.6.
1.На примере обработки данных от двух измерителей поясните суть инвариантного алгоритма. Приведите соответствующую ему схему обработки измерений. Какова его связь с алгоритмом ОМНК и МФП?
2.Поясните, в чем особенность неинвариантного алгоритма Приведите соответствующую ему схему обработки измерений. Обсудите достоинства и недостатки этого алгоритма по сравнению с инвариантным алгоритмом.
3.Поясните, в чем особенность централизованной и децентрализованной схем обработки данных от нескольких измерителей.
4.Поясните, каким образом могут быть получены рекуррентные алгоритмы оценивания в задаче оценивания вектора постоянных параметров.
5.Как изменится алгоритм оценивания, соответствующий методу МФП, в котором используются измерения, полученные из исходных измерений с помощью линейного невырожденного преобразования?
6.Почему при использовании разностных измерений в задаче оценивания неизвестного вектора при наличии систематической составляющей ошибки с большим уровнем ее дисперсии не происходит потери в точности, несмотря на то, что число разностных измерений на одно меньше по сравнению с исходным их количеством?
112
2.7Заключение главы 2.
Взаключение главы резюмируем вкратце основные особенности рассмотренных подходов и соответствующих им алгоритмов, которые в значительной степени были обусловлены объемом привлекаемой априорной информации. Важно отметить, что для всех методов была использована одинаковая априорная информация об известном виде функциональной зависимости измерений от оцениваемых параметров и их ошибок, задаваемой соотношениями (2.1.11) в линейном случае или (2.1.21) – в нелинейной случае. Отличительные же черты каждого подхода в значительной степени обусловлены характером используемой статистической информации об оцениваемом векторе и ошибках измерения.
Первыми из рассмотренных были подходы, основанные на минимизации наблюдаемых критериев, характеризующих меру близости между измеряемыми величинами и их вычисленными значениями. В рамках этого подхода были получены алгоритмы, соответствующие методу наименьших квадратов и его модификациям. Их основная отличительная особенность заключалась в том, что не вводилось какой-либо априорной статистической информации об оцениваемом векторе и ошибках измерения, и при отыскании оценок считалось, что они представляют собой неизвестные неслучайные (детерминированные) векторы. В общем случае нахождение оценок, обеспечивающих минимум выбранных критериев, которые могут иметь многоэкстремальный характер, является достаточно сложной проблемой. Для линейной задачи минимизируемые критерии представляют собой квадратичные формы, что и обеспечило возможность получения достаточно простых алгоритмов вычисления искомых оценок.
Тот факт, что априорная информация статистического характера в методе наименьших квадратов не привлекалась, с одной стороны, является его достоинством, но с другой - затрудняет анализ свойств ошибок оценивания. Этот недостаток при решении линейных задач был преодолен путем введения предположения о случайном характере ошибок измерения (для обобщенного метода наименьших квадратов) и оцениваемых параметров (для модифицированного метода наименьших квадратов) и задания для них первых двух моментов -математического ожидания и матриц ковариаций. Это позволило в линейном случае получить необходимые при анализе точности выражения для матриц ковариаций ошибок оценивания.
Использование предположения о случайном характере оцениваемого вектора и ошибок измерения не только для анализа точности, но уже на этапе постановки, позволило по иному сформулировать задачу:– найти такие оценки, которые обеспечили бы заданные свойства ошибок оценивания, а не минимизацию некоторого наблюдаемого критерия, выбираемого, вообще говоря, достаточно произвольно из некоторых эвристических соображений.
Так были получены оптимальные (в среднеквадратическом смысле) линейные алгоритмы, обеспечивающие минимизацию следа матрицы ковариаций ошибок оценивания, и соответствующие им характеристики точности. Это было сделано при использовании информации
113
о первых двух моментах оцениваемого вектора и ошибок измерения. Введение такой информации только об ошибках измерения в принципе позволило сформулировать аналогичную задачу при фиксированном значении вектора оцениваемых параметров (см. задачу 2.3.4).
Ограничение на линейный класс оценок, используемых при минимизации среднеквадратического критерия, удалось снять за счет привлечения наиболее полной информации, задаваемой с помощью совместной ф.п.р.в. для ошибок и оцениваемых параметров. Таким образом, была получена оптимальная в среднеквадратическом смысле байесовская оценка в виде условного математического ожидания (2.5.2), обладающая рядом полезных свойств.
Несмотря на принципиальное отличие свойств оценок, получаемых на основе минимизации наблюдаемых критериев, и оценок, получаемых при использовании критериев, обеспечивающих их заданные свойства, между ними существуют определенная взаимосвязь. Эта связь была установлена на основе сопоставления наблюдаемых критериев с показателями функции правдоподобия и совместной ф.п.р.в. В наиболее полном объеме она проявилась для линейной гауссовской задачи. Таким образом, было показано, что одни и те же оценки при определенных условиях могут быть получены с использованием различных подходов, что нередко оказывается весьма полезным при решении задач прикладного характера.
114

2.8Задачи для моделирования с использованием Matlab.
1.С использованием средств MatLab промоделируйте m измерений в соответствии с соотношениями
yi |
|
= x0 +vi , |
i = |
1.m |
, |
|
|
|
|
|
|
(вариант а) |
||||
yi |
= x0 + x1ti |
+vi , |
i = |
|
, |
|
|
(вариант b) |
||||||||
1.m |
||||||||||||||||
y |
|
= x |
|
+ x t |
+ x |
|
t 2 |
+ v |
|
, i = |
|
, |
(вариант c) |
|||
i |
0 |
2 |
i |
1.m |
||||||||||||
|
|
1 i |
|
|
i |
|
|
|
|
|
|
в которых x j , j =0,1,2 - независимые между собой, центрированные гауссовские случайные
величины с дисперсиями σ2j , |
j =0,1,2 , |
vi , |
|
|
|
- независимые между собой и от x j , |
j =0,1,2 , |
||||||||||
i = 1.m |
|||||||||||||||||
центрированные гауссовские |
случайные |
величины |
с дисперсиями |
r 2 , |
|
|
; t |
|
= ∆t(i −1) , |
||||||||
i = 1.m |
i |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
- время от начала наблюдения; |
∆t = |
T |
- интервал проведения измерений, |
|
T |
- время |
|||||||||
i = 1.m |
|
||||||||||||||||
m |
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
проведения измерений. Зафиксируйте |
полученные |
значения x j , j =0,1,2 .Численные |
значения |
||||||||||||||
параметров см. в таблице вариантов. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2.Найдите коэффициенты полинома с использованием:
•метода наименьших квадратов;
•метода обобщенных наименьших квадратов, положив x =0 , Q = R −1 ;
•метода максимума функции правдоподобия;
•байесовского метода при квадратичной функции потерь.
3.Вычислите значения ошибок ε j = x j − xˆ kj и соответствующие им диагональные элементы
матриц ковариаций |
P k ( j +1, j +1) |
, |
где P k ( j +1, j +1) |
- для каждого из рассматриваемых |
методов оценивания, j =0,1,2 , k = мнк, омнк, мфп, опт . Сопоставьте эти значения. |
||||
4. На одном и том |
же рисунке |
|
постройте графики |
yi и yˆik = xˆ0k + xˆ1k ti + xˆ2k ti2 , где |
k
k = мнк, омнк, мфп, опт , а yi - вычисленные значения полинома при подстановке соответствующих оценок. Прокомментируйте полученный результат.
115

Таблица вариантов.
N |
|
σ0 |
σ1 |
σ2 |
ri = r , |
T , с |
m |
||
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
i = 1.m |
|
|
||
|
|
|
|
|
|
|
|
|
|
1 |
1 |
|
1 |
1 |
1 |
|
|
5 |
50 |
|
|
|
|
|
|
|
|
|
|
1.1 |
1 |
|
1 |
1 |
2 |
|
|
5 |
50 |
|
|
|
|
|
|
|
|
|
|
2 |
2 |
|
1 |
3 |
2 |
|
|
5 |
50 |
|
|
|
|
|
|
|
|
|
|
2.1 |
2 |
|
1 |
3 |
2 |
|
|
20 |
200 |
|
|
|
|
|
|
|
|
|
|
3 |
3 |
|
2 |
1 |
2 |
|
|
25 |
25 |
|
|
|
|
|
|
|
|
|
|
3.1 |
3 |
|
2 |
1 |
2 |
|
|
25 |
1 |
|
|
|
|
|
|
|
|
|
|
4 |
5 |
|
1 |
2 |
2 |
|
|
5 |
50 |
|
|
|
|
|
|
|
|
|
|
4.1 |
5 |
|
1 |
2 |
2 |
|
|
100 |
100 |
|
|
|
|
|
|
|
|
|
|
5 |
10 |
|
5 |
1 |
1 |
|
|
1 |
100 |
|
|
|
|
|
|
|
|
|
|
5.1 |
10 |
|
5 |
1 |
10 |
|
|
10 |
100 |
|
|
|
|
|
|
|
|
|
|
6 |
10 |
|
5 |
1 |
90 |
|
|
50 |
50 |
|
|
|
|
|
|
|
|
|
|
6.1 |
10 |
|
5 |
1 |
10 |
|
|
100 |
100 |
|
|
|
|
|
|
|
|
|
|
Результаты оформите в редакторе Word как работу, включающую:
•Название работы, исполнитель и номер варианта.
•Описание задания с исходными данными для указанного варианта.
•Последовательное изложение решения: формулировка вопроса и решение по каждому пункту.
•Необходимый комментарий по каждому пункту, в том числе и объяснение поведения графиков.
•Как приложение – распечатку программы Matlab с соответствующими комментариями.
Дополнительные задачи для контроля знаний
1. Найдите оценку неизвестной скалярной величины x с помощью обычного и обобщенного методов наименьших квадратов при диагональной весовой матрице с использованием измерений вида
yi = x + vi , i =1.m .
Запишите измерения и алгоритм решения в матричной форме. При каких предположениях в этой задаче можно получить выражение для дисперсии ошибки оценки?
2. Найдите оценку неизвестной скалярной величины x с помощью метода максимума функцию правдоподобия с использованием измерений вида
116

yi = x + vi , i =1.m ,
вкоторых vi - представляют независимые между собой центрированные гауссовские
случайные величины с дисперсиями ri2 , i =1.m .
Запишите измерения, алгоритм решения и выражение для дисперсии ошибки оценки в матричной форме.
3. Найдите оптимальную в среднеквадратическом смысле байесовскую оценку гауссовской случайной величины x с использованием измерений вида
yi = x + vi , i =1.m ,
вкоторых vi - являются независимыми между собой центрированными гауссовскими
случайными величинами с дисперсиями ri2 , i =1.m , а x - гауссовская случайная величина,
независимая от vi , с математическим ожиданием x и дисперсией σ02 .
Запишите измерения, алгоритм решения и выражение для дисперсии ошибки оценки в матричной форме.
4.Запишите выражения для оценок коэффициентов полинома при наличии измерений вида
yi |
= x0 + x1ti |
+vi , |
i = |
1.m |
, |
|
(вариант а) |
||||||
y |
|
= x |
|
+ x t |
+ x |
|
t 2 |
+ v |
|
, i = |
|
(вариант б) |
|
i |
0 |
2 |
i |
1.m |
|||||||||
|
|
1 i |
|
i |
|
|
|
|
|
при решении задачи методом наименьших квадратов.
5. Запишите выражения для оценок коэффициентов полинома и матрицы ковариаций их ошибок при наличии измерений вида
yi |
= x0 + x1ti |
+vi , |
i = |
1.m |
, |
|
|
(вариант а) |
||||||
y |
|
= x |
|
+ x t |
+ x |
|
t 2 + v |
|
, i = |
|
|
(вариант б) |
||
i |
0 |
2 |
i |
1.m |
||||||||||
|
|
1 i |
|
i |
|
|
|
|
|
|||||
при решении задачи методом максимума |
функции |
правдоподобия в условиях, когда vi |
являются независимыми между собой центрированными гауссовскими случайными величинами с
дисперсиями ri2 , i =1.m .
6. Запишите выражения для оптимальных в среднеквадратическом смысле байесовских оценок коэффициентов полинома и матрицы ковариаций их ошибок при наличии измерений вида
|
yi |
= x0 + x1ti |
+vi , |
i = |
1.m |
, |
|
|
|
|
|
|
|
(вариант а) |
||||||
|
y |
|
= x |
|
+ x t |
+ x |
|
t 2 |
+ v |
|
, i = |
|
|
, |
|
|
(вариант б) |
|||
|
i |
0 |
2 |
i |
1.m |
|
|
|||||||||||||
|
|
|
1 i |
|
i |
|
|
|
|
|
|
|
|
|
|
|
||||
в условиях, когда vi - |
являются независимыми между собой центрированными гауссовскими |
|||||||||||||||||||
случайными величинами |
с |
дисперсиями |
|
r 2 |
, i = |
|
, а |
|
x =(x |
|
, x ) - гауссовский случайный |
|||||||||
|
1.m |
|
0 |
|||||||||||||||||
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
|
|
1 |
|
вектор, независимый от vi , с математическим ожиданием x |
и матрицей ковариаций P0 . |
117

7. Запишите выражение для оценки n -мерного вектора x и соответствующей ей матрицы ковариций при решении задачи методом максимума функции правдоподобия с использованием измерений
y1 = x + v1,
y2 = x + v2 ,
вусловиях, когда v1 , v2 − независимые между собой гауссовские векторы с плотностями
распределения f (vi ) = N (vi ;0, Ri ), Ri > 0, i =1,2.
8.Запишите инвариантный алгоритм получения оценки n -мерного вектора x по измерениям
y1 = x + v1,
y2 = x + v2 ,
вусловиях, когда v1 , v2 − независимые между собой гауссовские векторы с плотностями
распределения f (vi ) = N (vi ;0, Ri ), Ri > 0, i =1,2. Нарисуйте блок-схему, соответствующую этому
алгоритму.
9. Запишите выражение для оптимальной в среднеквадратическом смысле байесовской оценки n -мерного вектора x и соответствующей ей матрицы ковариаций при использовании измерений вида
y1 = x + v1,
y2 = x + v2 ,
вусловиях, когда v1 , v2 − независимые между собой гауссовские векторы с плотностями
распределения |
f (vi ) = N (vi ;0, Ri ), Ri >0, i =1,2 , а |
x - гауссовский вектор |
с плотностью |
распределения |
f (x) = N (x; x, P0 ) , не зависящий от v1 |
и v2 . |
|
10. Запишите инвариантный алгоритм получения оценки n -мерного вектора |
x по n и m - |
мерным измерениям
y1 = x + v1
y2 = Hx + v2 ,
вусловиях, когда v1 , v2 − независимые между собой гауссовские векторы с плотностями
распределения |
f (v1 ) = N (vi ;0, Ri ), Ri > 0, i =1,2. Нарисуйте блок-схему, соответствующую этому |
||||||||||
алгоритму. |
|
|
|
|
|
|
|
|
|||
11. |
Запишите |
основанный |
на линеаризации алгоритм нахождения координат объекта |
||||||||
x =(x , x |
2 |
)T , |
соответствующий |
методу наименьших квадратов при использовании измерений |
|||||||
1 |
|
|
|
|
|
|
|
|
|
|
|
дальностей вида |
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
yi = si (x) + vi = (x1 − x1i )2 + (x2 − x2i )2 + vi , i = |
|
, |
|
|
|
|
|
|
|
|
|
1.m |
||
в которых |
xi |
, xi |
, i = |
|
известные координаты ориентиров. |
||||||
1.m |
|||||||||||
|
|
|
|
1 |
2 |
|
|
|
|
|
|
Поясните в чем суть итерационного алгоритма.
118

12. |
Запишите |
|
основанный на линеаризации алгоритм |
нахождения координат |
объекта |
||||||||||
x =(x , x |
2 |
)T , |
соответствующий методу максимума функции правдоподобия при использовании |
||||||||||||
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
измерений дальностей вида |
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
yi = si (x) + vi = (x1 − x1i )2 + (x2 − x2i )2 + vi , i = |
|
, |
|
|||||
|
|
|
|
|
1.m |
|
|||||||||
где |
xi |
, xi , |
i = |
|
|
известные координаты ориентиров; v |
|
, |
i = |
|
- независимые между собой |
||||
1.m |
i |
1.m |
|||||||||||||
|
1 |
2 |
|
|
|
|
|
|
|
|
|
|
|
||
центрированные гауссовские случайные величины с одинаковыми дисперсиями r 2 . |
Запишите |
выражение для матрицы ковариаций ошибок оценок. Поясните в чем суть итерационного
алгоритма. |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
13. |
Запишите |
основанный |
на линеаризации |
алгоритм нахождения |
координат объекта |
||||||||||||||
x =(x , x |
2 |
)T , соответствующий |
байесовскому методу при квадратичной |
функции |
потерь |
при |
|||||||||||||
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
использовании измерений дальностей вида |
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
yi = si (x) + vi = (x1 − x1i )2 + (x2 − x2i )2 + vi , i = |
|
, |
|
|
|
|||||||
|
|
|
|
|
|
|
1.m |
|
|
|
|||||||||
где |
xi |
, xi |
, i = |
|
|
известные координаты ориентиров; v |
|
, i = |
|
- независимые между собой |
|||||||||
1.m |
i |
1.m |
|||||||||||||||||
|
1 |
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
центрированные гауссовские случайные величины с одинаковыми дисперсиями r 2 ; |
x =(x , x |
2 |
) - |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
центрированный гауссовский случайный вектор, |
независимый от vi , с матрицей |
ковариаций |
|||||||||||||||||
P x |
=σ02 E . Запишите выражение для матрицы ковариаций ошибок оценок. Поясните в чем суть |
||||||||||||||||||
итерационного алгоритма. |
|
|
|
|
|
|
|
|
|
|
|
|
119
2.9Литература.
1.Ван Трис Г. Теория обнаружения оценок и модуляции. Т. 1. Теоpия обнаpужения, оценок и линейной модуляции. - М.: Сов. радио, 1972. - 744 с.
2.Левин Б.Р. Теоретические основы статистической радиотехники. Т 2. - М.: Сов.
радио, 1966.
3.Медич Дж. Статистически оптимальные линейные оценки и управление. - М.:
Энеpгия, 1973. - 440 с.
4.Сейдж Э., Мелс Дж. Теория оценивания и ее применение в связи и управлении. - М.:
Связь, 1976.
5.Энциклопедия. Вероятность и математическая статистика. Научное издательство «Большая Российская энциклопедия». Москва, 1999.
Дополнительная литература.
6.Беллман Р. Введение в теорию матриц. Москва. Наука. 1969.
7.Брайсон А.Е., Хо Ю Ши. Прикладная теория оптимального управления. - М.: Мир, 1972. - 544 с.
8.Болдин В. А., Зубинский В. И., Зурабов Ю. Г. и др. Глобальная спутниковая радионавигационная система. ГЛОНАСС.− М.: ИПРЖР, 1998.− 400 с.
9.Лившиц Н.А., Виноградов В.Н., Голубев Г. А. Корреляционная теория оптимального управления многомерными процессами. - М.: Сов. радио, 1972.
10.Gelb A. Applied Optimal Estimation. M.I.T. Press, Cambridge, MA, 1992.
11.Степанов О.А. Применение теории нелинейной фильтрации в задачах обработки навигационной информации. ГНЦ РФ ЦНИИ Электроприбор. С. Петербург 1998, 370с.
12.Анучин О.Н., Емельянцев Г.И. Под общей редакцией Пешехонова В.Г. Интегрированные системы ориентации и навигации для морских подвижных объектов. ГНЦ РФ ЦНИИ Электроприбор. С. Петербург, 1999, 370с.
13.Химмельблау Д. Прикладное нелинейное программирование. - М.: Мир, 1975.
14.Ярлыков М.С. Статистическая теория радионавигации. - М.: Радио и связь, 1985.
15.Аоки М. Оптимизация стохастических систем. – М.: Наука, 1971.-424
16.Груздев Н.М. Оценка точности морского судовождения. М. Транспорт 1989, 191с.
120
2.10 Предметный указатель
алгоритм итерационный –105 алгоритм обработки инвариантный – 89
алгоритм обработки неинвариантный – 91 алгоритм оценивания рекуррентный - 97 алгоритм с локальными итерациями – 105 вектор наблюдаемый – 26 дисперсия ошибок оценивания апостериорная – 31
дисперсия ошибок оценивания априорная – 31 задача анализа точности – 11 задача выставки – 9 задача калибровки прибора – 8
задача комплексной обработки избыточных данных – 19 задача корреляционно-экстремальной навигации – 12 задача навигации по геофизическим полям – 12
задача определение координат и скорости по спутниковым данным – 14 задача определение координат по измерениям дальностей до точечных ориентиров – 13 задача определения временного запаздывания – 11 задача определения фазы – 11 задача оценивания коэффициентов полинома – 7 задача оценивания линейная – 10 задача оценивания нелинейная – 16 задача синтеза алгоритма – 11
задача слежения за подвижным объектом – 22 задача совместной обработки – 19 задача траекторного измерения - 22 изолиния положения – 13 критерий наблюдаемый – 24 критерий среднеквадратический – 44 линеаризация – 16 линия положения – 18
матрица информационная Фишера -58 матрица ковариаций ошибок оценивания апостериорная - 31
матрица ковариаций ошибок оценивания априорная - 31 матрица ковариаций ошибок оценивания безусловная – 69 матрица ковариаций ошибок оценивания условная – 69
121
матрица коэффициентов усиления – 98 матрица нижней границы в рамках байесовского подхода - 72
матрица нижней границы в рамках небайесовского подхода - 58 метод максимума функции правдоподобия – 59 метод наименьших квадратов - 24 метод наименьших квадратов взвешенных - 25
метод наименьших квадратов модифицированный - 26 метод наименьших квадратов обобщенный - 25 метод небайесовский – 56 метод оценивания байесовский – 68
метод оценивания классический - 56 метод оценивания небайесовский – 56 невязка измерений – 24
неравенство Рао-Крамера в рамках байесовского подхода - 70 неравенство Рао-Крамера в рамках небайесовского подхода - 58 ортогональность ошибки – 51, 70 оценка линейная оптимальная в среднеквадратическом смысле - 46 оценка максимально правдоподобная – 59 оценка несмещенная байесовская – 69 оценка несмещенная небайесовская – 57
оценка несмещенная небайесовская с минимальной дисперсией – 57 оценка несмещенная с минимальной дисперсией небайесовская – 57 оценка оптимальная в среднеквадратическом смысле - 44 оценка оптимальная в среднеквадратическом смысле байесовская - 68
оценка оптимальная в среднеквадратическом смысле линейная - 46 оценка с минимальной дисперсией – 44 оценка состоятельная – 57 оценка эффективная байесовская - 71
оценка эффективная небайесовская – 58 ошибка оценки - 11 параметр мешающий – 14 подход байесовский - 68 подход небайесовский - 56
потери средние байесовские - 68 расширение оцениваемого вектора – 14 риск байесовский - 68
свойство ортогональности линейной оптимальной оценки– 51 свойство ортогональности оптимальной оценки – 70
122
система нормальных уравнений – 25 схема обработки децентрализованная - 96 схема обработки инвариантная - 89 схема обработки итерационная - 105 схема обработки неинвариантная - 91 схема обработки разностная - 98 схема обработки рекуррентная - 96 схема обработки централизованная - 95 точность оценивания потенциальная - 71
точность оценивания предельно достижимая в рамках байесовского подхода – 71 точность оценивания предельно достижимая в рамках небайесовского подхода – 58 уравнение правдоподобия - 59 условие наблюдаемости – 26 условие ортогональности – 51 фактор геометрический - 32
функции правдоподобия логарифмическая – 59 функция потерь - 44 функция потерь квадратичная - 44 функция правдоподобия – 59
2.11 Английские термины
augmentation – расширение оцениваемого вектора – 14 complementary filter – фильтр инвариантный - 89
least squares method – метод наименьших квадратов – 24
weighted least squares method – обобщенный (взвешенный) метод наименьших квадратов – 25 maximum likelihood estimate - оценка максимального правдоподобия - 59
minimum variance estimate - минимальная в среднеквадратичном смысле оценка – 44 iterated algorithm – итерационный алгоритм – 105
Position Dilution of Precision (PDOP) - пространственный геометрический фактор – 32
2.12 Аббревиатуры
ИНС – инерциальная навигационная система ММНК – модифицированный метод наименьших квадратов МНК – метод наименьших квадратов МФП – максимум функции правдоподобия
ОМНК – обобщенный метод наименьших квадратов С.в. – случайная величина
123
Ф.п.р.в. – функция плотности распределения вероятностей
PDOP - Position Dilution of Precision
124