книги / Основы теории оценивания с приложениями к задачам обработки навигационной информации. Ч. 1 Введение в теорию оценивания
.pdfm-1 |
2 |
2 |
|
|
(/77 — l) |
2 |
(т-1 |
Л2Л |
||
|
. |
|
|
I |
, . |
|
||||
/=1 |
— |
4 у,,,2>.У/ + ^ т т "24Уш— |
! > |
|
||||||
|
/и |
/=1 |
т |
т V /=1 |
У |
|
||||
|
т-1 |
|
|
|
Vm-i |
л2 |
т-1 |
\ \ |
|
|
|
]ГДу,2 +Ду*---- ^АУ/ |
+ 2Ду„,£Ду,.+Ду,; |
|
|||||||
|
|
|
|
|
|
|
Е |
|
|
|
\ |
/=, |
|
|
?П |
V /=1 |
У |
/=1 |
|
УУ |
|
т |
|
-J // |
т |
\2Л 1 |
( т |
|
1 // т |
. 2Л |
||
î > |
, 2 - |
- |
£ |
дл |
= -J |
E U |
-* д *))2 - - |
E U |
-*.(*)) |
|
м |
|
m v w |
у |
J |
^/=i |
|
m Vi=i |
|
Раскрывая скобки в (1), нетрудно убедиться в его совпадении с J*
Задача 2.6.7. Сформулируйте линеаризованную постановку за дачи определения координат по спутниковым измерениям (2.1.18) с использованием разностных измерений, полагая, что имеются измерения псевдодальностей до т спутников, в качестве опорного взято /и-е измерение, а исходные ошибки измерений (2.1.18) представляют собой некоррелированные с.в. с одинаковыми дис персиями.
Контрольные вопросы1
1.На примере обработки данных от двух измерителей поясните суть инвариантного алгоритма. Приведите соответствующую ему схему обработки измерений. Какова его связь с алгорит мом ОМНК и МФП?
2.Поясните, в чем особенность неинвариантного алгоритма. Приведите соответствующую ему схему обработки измерений. Обсудите достоинства и недостатки этого алгоритма по срав нению с инвариантным алгоритмом.
3.Поясните, в чем особенность централизованной и децентрали зованной схем обработки данных от нескольких измерителей.
4.Поясните, каким образом могут быть получены рекуррентные алгоритмы оценивания в задаче оценивания вектора постоян ных параметров.
5.Поясните, в чем идея построения разностной схемы обработки данных. Приведите пример.
6.Почему при использовании разностных измерений в задаче оценивания неизвестного вектора при наличии систематиче ской составляющей ошибки с большим уровнем ее дисперсии не происходит потери в точности, несмотря на то что число разностных измерений на одно меньше по сравнению с исход ным их количеством?
2.7.Задания для моделирования с использованием Matlab
1.Промоделируйте т измерений в соответствии с соотноше ниями:
вариант а) |
y t = х 0 + v(. ; |
вариант б) |
V,- = х0 + л:1// + v, ; |
вариант в) |
= xg + xjt, + xjtf + vt-, /' = 1 .m , |
в которых Xj , j =0 ,1 ,2 |
- независимые между собой, центрирован- |
|
'у |
ные гауссовские случайные величины с дисперсиями crÿ, j = 0 ,1 ,2 ;
v,-, / = 1 .m - независимые между собой и от |
х;-, j = 0 ,1 ,2 ; центри- |
|||
рованные |
гауссовские |
„ |
величины |
2 |
случайные |
с дисперсиями 77 , |
|||
/ = 1 .m ; |
tj = At(i -1 ), |
1 = 1 .m - |
время от |
начала наблюдения; |
Т |
интервал проведения измерений; (Т-Д7) - время проведе- |
|||
At= — - |
||||
m |
|
|
|
|
ния измерений. Зафиксируйте полученные значения х •, j = 0 ,1 , 2 .
Задайте численные значения |
, / = 0,1,2 |
в пределах 1-10; |
|
;; =/•, |
/ = 1 .m в пределах 1 -2 , Г в пределах 1 - 1 0 0 |
с и m в пределах |
|
20- 200. |
|
|
|
2. |
Составьте программу и для выбранных значений найдите |
коэффициенты полинома с использованием обычного метода наи меньших квадратов; метода обобщенных наименьших квадратов, положив Q~R~l , где R - матрица ковариаций вектора ошибок из-
мерения; модифицированного метода обобщенных наименьших
квадратов, положив 3с = 0, Q= R~l и D= (P*)~l, где Рх - матрица
ковариаций оцениваемого вектора коэффициентов полинома; оп тимального байесовского алгоритма.
3. Вычислите значения ошибок г. - х. - хк и соответствую
щие им диагональные элементы матриц ковариаций |
+ |
, |
где Pk(j + l,j + l) - для каждого из рассматриваемых методов оце
нивания, j = 0,1,2, к= МНК, ОМНК, ММНК, opt.
Сопоставьте эти значения.
4. На одном и том же рисунке постройте графики у, и
у к = JC* + xkt. + хкГ , где к = мнк, омнк, ммнк, opt, а у к - вы
численные значения полинома при подстановке соответствующих оценок. Прокомментируйте полученный результат.
5. Поясните, как будут связаны оценки, полученные с использова нием описанных алгоритмов, с оценками, соответствующими ме тоду максимума функции правдоподобия?
Пример выполнения задания
clear; close all;
%Исходные данные s0=1;
s1=1;
s2=1;
r=2;
m=50;
T=5;
dt=T/m; %интервал дискретизации Н=гл2*еуе(т);°/оматрица ковариаций ошибок измерений
%Формирование вектора оцениваемых параметров xO=random('Normar.O,sO);
x1=random('Normar,0,s1 ); x2=random(,Normar,0,s2); х=[х0; х1; х2];
“/сформирование измерений
t=0:dt:T-dt; %моменты получения измерений H=[ones(m,1) t' t'.A2]; %матрица наблюдений v=normmd(0,rlml1); %вектор ошибок измерений y=H*x+v; %вектор измерений
%Расчет оценок %МНК Kmnk=(H,*H)A-1*H';
Pmnk=(H'*H)A-1 *H'*R*H*(H'*H )л-1 ; хтп к=К тп к*у sigma=sqrt(diag(Pmnk)) ymnk=H*xmnk;
%ОМНК Q = R M ;
Pomnk=(H'*Q*H)M;
Komnk=Pomnk*H’*Q;
xomnk=Komnk*y
sigma=sqrt(diag(Pomnk))
yomnk=H*xomnk;
%MMHK
P=diag([sOA2 s1A2 s2A2]); Pmmnk=(PA-1 + H'*Q*H)A-1 ; Kmmnk=Pmmnk*H'*Q; xmmnk=Kmmnk*y sigma=sqrt(diag(Pmmnk)) ymmnk=H*xmmnk;
% Построение графиков
figure; plot(t,ymnk); hold on; plot(t,y,,r-'); xlabel('t,c,);ylabel('y_M_H_K');
figure; plot(t,yomnk); hold on; plot(t,y,'r—*); xlabel(,t,c');ylabel('y_0_M_H_K');
figure; plot(t,ymmnk); hold on; plot(t,y,'r--'); xlabel('t,c');ylabel('y_M_M_H_K');
Заключение к главе 2
1.Сформулированы прикладные задачи обработки навигационной информации, сводящиеся к оцениванию неизвестного вектора по измерениям другого, связанного с ним вектора. При этом рассмотрены линейные и нелинейные задачи.
2.Выделены следующие алгоритмы, подразделяющиеся в зависи мости от уровня привлекаемой априорной статистической .ин формации об оцениваемом векторе и ошибках измерения:
- алгоритмы, основанные на методе наименьших квадратов и
получаемые в рамках детерминированного подхода, не тре бующего введения предположения о случайном характере оцениваемого вектора и ошибок измерения;
-алгоритмы, получаемые в рамках небайесовского подхода в предположении о случайном характере лишь ошибок измере ния;
-оптимальные байесовские линейные алгоритмы, направлен ные на минимизацию среднеквадратического критерия в клас се линейных оценок и получаемые в предположении о слу чайном характере оцениваемого вектора и ошибок измерения и заданных их первых двух моментов;
-оптимальные байесовские алгоритмы, направленные на ми нимизации среднеквадратического критерия без ограничения на класс используемых оценок при наличии информации о функции плотности распределения вероятностей.
3.Проанализирована взаимосвязь алгоритмов, получаемых на ос нове различных подходов, и обсуждены условия их совпадения при решении ряда задач.
4.Подробно рассмотрены линейные оптимальные алгоритмы в линейных задачах оценивания и обсуждена возможность их применения для решения нелинейных задач.
5.Обсуждена связь задачи оценивания с задачей регрессии, в ча стности с задачей линейной регрессии, решаемой с использова
нием простейшего варианта уравнения Винера-Хопфа.
6.Акцентировано внимание на наличие двух подзадач, решение которых важно при обработке навигационной информации - задачи синтеза алгоритма и задачи анализа точности.
7.Рассмотрены основные подходы к построению различного рода упрощенных (субоптимальных) алгоритмов решения нелиней ных задач и описана методика проверки их эффективности.
8.Обсуждены получившие наибольшее распространение при об работке навигационной информации различные схемы по
строения вычислений при реализации алгоритмов - инвариант ная и неинвариантная, централизованная, децентрализованная, разностная и рекуррентная.
9.По ходу изложения полученные результаты проиллюстрирова ны как на чисто методических примерах, так и применительно к сформулированным в начале главы задачам обработки навига ционной информации.
ГЛАВА 3
ОСНОВЫ ТЕОРИИ ФИЛЬТРАЦИИ СЛУЧАЙНЫХ ПОСЛЕДОВАТЕЛЬНОСТЕЙ
Цель главы - изложить основы теории фильтрации случайных последовательностей и показать возможность ее применения при решении задач обработки навигационной информации.
В предыдущей главе основные положения теории статистичес кого оценивания были рассмотрены применительно к простей шему случаю оценивания постоянного вектора. Ясно, что при ре шении задач прикладного характера приходится сталкиваться с более общей ситуацией, когда компоненты оцениваемого вектора не являются постоянными, а зависят от времени. В рамках стохас тического подхода речь должна идти о случайных процессах. Во просы, связанные с теорией случайных процессов и их оценивани ем, будут обсуждаться во второй части книги. Здесь же рассматри ваются основные положения теории оценивания применительно к частному случаю - случайным процессам с дискретным временем или случайным последовательностям. Несмотря на то что все за дачи носят непрерывный характер, их решение, как правило, осу ществляется с использованием средств вычислительной техники путем перехода к дискретному времени. Таким образом, фактиче ски на практике реализуются алгоритмы, соответствующие оцени ванию дискретных последовательностей. В связи с этим представ ляется целесообразным, прежде чем рассматривать вопросы, свя занные с оцениванием случайных процессов, обсудить их приме нительно к случайным последовательностям. В пользу такого по рядка изложения можно также провести следующие соображения.
При получении алгоритмов для случайных последова тельностей достаточно прозрачно просматривается взаимосвязь с задачей оценивания постоянного вектора. Это позволяет уста новить преемственность с методами и алгоритмами, рассмотрен ными в предыдущей главе, что облегчает усвоение излагаемого материала.
Обоснование основных результатов теории оценивания приме нительно к случайным последовательностям требует привлечения более сложного математического аппарата, который необходим при их строгом получении для случая непрерывного времени. Вместе с тем некоторые результаты для непрерывного времени могут быть достаточно просто обоснованы путем предельного пе рехода от дискретного времени к непрерывному.
В настоящей главе, как и в предыдущих главах, предусмотрена возможность дифференцированного изучения материала.
Знакомство с основами теории оценивания случайных последо вательностей и возможностью их использования при обработке навигационной информации предполагает изучение следующих подразделов: 3.1, 3.2.2, 3.2.3. В них речь идет о решении линейных задач при линейном характере самих алгоритмов. В этом случае привлекается информация только о первых двух моментах - мате матических ожиданиях и корреляционных функциях.
Другой более углубленный уровень направлен на изучение возможности построения оптимальных байесовских алгоритмов, в том числе и при решении нелинейных задач применительно к слу чайным последовательностям. Здесь используется информация о совместных ф.п.р.в. (подразделы 3.2.1,3.2.4-3.2.7,3.3). Кроме того, при углубленном изучении рекомендуется раздел 3.4, посвящен ный задаче сглаживания.
Примеры постановок задач обработки навигационной информа ции, соответствующие первому и второму уровням изучения, рас сматриваются в подразделах 3.5.1, 3.5.2 и 3.5.3-3.5.5.
Следует подчеркнуть, что в данной главе все обсуждаемые ал горитмы получаются в предположении о случайном характере оцениваемой и измеряемой последовательностей, и отличия за ключаются лишь в уровне привлекаемой априорной информации об их статистических свойствах. Имеется в виду либо полное опи сание с использованием ф.п.р.в., либо описание, ограничиваю щееся заданием математических ожиданий и корреляционных функций. В заключение обсуждается их связь с алгоритмами, по лучаемыми в рамках детерминированного подхода на основе ме тода наименьших квадратов.
Пусть je,, i = 1,2.. - случайная последовательность. Если за фиксировать, например, два произвольных момента времени tt и
/у , то в результате можно сформировать двухмерный случайный
вектор, компонентами которого являются две случайные величины Xj и X j. Совместные статистические свойства этого вектора в
наиболее полном объеме, как следует из раздела 1.2, можно опре делить либо с помощью ф.р.в. (1.2.1), либо с помощью ф.п.р.в. (1.2.2). Аналогичные функции можно ввести и для вектора, вклю чающего большее число значений последовательности. Ясно, что описание случайной последовательности будет полностью задан ным, если будут определены функции плотности распределения вероятности / (.v,,,т2 дг,- ) для любого конечного набора значений последовательности в произвольно выбранные моменты времени
При решении прикладных задач нередко ограничиваются зада нием некоторых характеристик случайной последовательности, наиболее важными из которых являются математическое ожида ние и дисперсия случайной последовательности. Располагая для произвольного i -то момента времени ф.п.р.в. /(*,•), эти характе ристики можно определить:
(3.1.1)
(3.1.2)
Если считать известной совместную функцию плотности рас пределения вероятности /(* ,,.г; ) для значений последовательно
сти в произвольные моменты времени, то можно ввести еще одну весьма важную характеристику
называемую корреляционной функцией случайной последова тельности.
Аналогичная характеристика для двух разных последователь ностей называется взаимно корреляционной функцией.
Функция (3.1.3) задает значения коэффициента корреляции ме жду случайными величинами, соответствующими / -му и / -му моментам времени. В силу соотношения (1.4.1)
f(Xj ,Л'j ) = f(Xj / X j )f(Xj ),
где / (х,- / Xj ) - условная плотность для значений последователь ности в i -й момент при условии, что значение в j -й момент за фиксировано.
Поскольку при / = j , / (х,- / Xj ) =8(xf - xy- ), т.е. переходная плотность представляет собой дельта-функцию, ясно, что
k(i,i) = aj, |
(3.1.4) |
т.е. дисперсия последовательности в фиксированный момент вре мени совпадает с величиной корреляционной функции при совпа дающих значениях аргумента i = j
Случайные последовательности могут быть не только скаляр ными, но и векторными. Под случайной /i-мериой векторной по следовательностью понимают последовательность, значения ко торой представляют собой п -мерный случайный вектор.
Пусть х,-, / = 1,2..- /г-мерная случайная последовательность.
Заметим, что здесь и далее для указания дискретного момента вре мени, которому соответствует вектор, так же, как и для обозначе ния его компонент, используется нижний индекс.
Если требуется одновременное указание момента времени и номера компоненты, то используется двойная индексация, т. е.
Xj =(х,|,...,х,„)т, причем на первом месте всегда будет стоять
индекс, соответствующий времени, а на втором - индекс, соот ветствующий номеру компоненты.
Все приведенные выше определения могут быть обобщены на случай векторной последовательности. В частности, корреляцион ная функция будет представлять собой корреляционную матри цу, определяемую как
KUS) = J J (Л7 “ */)(*; ~ ^ j f f{xi,xj)dxidXj . (3.1.5)
При одинаковых значениях аргумента / = j корреляционная матрица совпадает с ковариационной матрицей, т.е.
k(U) = Pj = { (л,- - Xj)(Xj - x,)T f(Xj )dXj |
(3.1.6) |