Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Основы теории оценивания с приложениями к задачам обработки навигационной информации. Ч. 1 Введение в теорию оценивания

.pdf
Скачиваний:
39
Добавлен:
19.11.2023
Размер:
26.49 Mб
Скачать

m-1

2

2

 

 

(/77 — l)

2

-1

Л2Л

 

.

 

 

I

, .

 

/=1

4 у,,,2>.У/ + ^ т т "24Уш

! >

 

 

/=1

т

т V /=1

У

 

 

т-1

 

 

 

Vm-i

л2

т-1

\ \

 

 

]ГДу,2 +Ду*---- ^АУ/

+ 2Ду„,£Ду,.+Ду,;

 

 

 

 

 

 

 

 

Е

 

 

 

\

/=,

 

 

V /=1

У

/=1

 

УУ

 

т

 

-J //

т

\2Л 1

( т

 

1 // т

. 2Л

î >

, 2 -

-

£

дл

= -J

E U

-* д *))2 - -

E U

-*.(*))

м

 

m v w

у

J

^/=i

 

m Vi=i

 

Раскрывая скобки в (1), нетрудно убедиться в его совпадении с J*

Задача 2.6.7. Сформулируйте линеаризованную постановку за­ дачи определения координат по спутниковым измерениям (2.1.18) с использованием разностных измерений, полагая, что имеются измерения псевдодальностей до т спутников, в качестве опорного взято /и-е измерение, а исходные ошибки измерений (2.1.18) представляют собой некоррелированные с.в. с одинаковыми дис­ персиями.

Контрольные вопросы1

1.На примере обработки данных от двух измерителей поясните суть инвариантного алгоритма. Приведите соответствующую ему схему обработки измерений. Какова его связь с алгорит­ мом ОМНК и МФП?

2.Поясните, в чем особенность неинвариантного алгоритма. Приведите соответствующую ему схему обработки измерений. Обсудите достоинства и недостатки этого алгоритма по срав­ нению с инвариантным алгоритмом.

3.Поясните, в чем особенность централизованной и децентрали­ зованной схем обработки данных от нескольких измерителей.

4.Поясните, каким образом могут быть получены рекуррентные алгоритмы оценивания в задаче оценивания вектора постоян­ ных параметров.

5.Поясните, в чем идея построения разностной схемы обработки данных. Приведите пример.

6.Почему при использовании разностных измерений в задаче оценивания неизвестного вектора при наличии систематиче­ ской составляющей ошибки с большим уровнем ее дисперсии не происходит потери в точности, несмотря на то что число разностных измерений на одно меньше по сравнению с исход­ ным их количеством?

2.7.Задания для моделирования с использованием Matlab

1.Промоделируйте т измерений в соответствии с соотноше­ ниями:

вариант а)

y t = х 0 + v(. ;

вариант б)

V,- = х0 + л:1// + v, ;

вариант в)

= xg + xjt, + xjtf + vt-, /' = 1 .m ,

в которых Xj , j =0 ,1 ,2

- независимые между собой, центрирован-

 

ные гауссовские случайные величины с дисперсиями crÿ, j = 0 ,1 ,2 ;

v,-, / = 1 .m - независимые между собой и от

х;-, j = 0 ,1 ,2 ; центри-

рованные

гауссовские

величины

2

случайные

с дисперсиями 77 ,

/ = 1 .m ;

tj = At(i -1 ),

1 = 1 .m -

время от

начала наблюдения;

Т

интервал проведения измерений; (Т-Д7) - время проведе-

At= — -

m

 

 

 

 

ния измерений. Зафиксируйте полученные значения х •, j = 0 ,1 , 2 .

Задайте численные значения

, / = 0,1,2

в пределах 1-10;

;; =/•,

/ = 1 .m в пределах 1 -2 , Г в пределах 1 - 1 0 0

с и m в пределах

20- 200.

 

 

2.

Составьте программу и для выбранных значений найдите

коэффициенты полинома с использованием обычного метода наи­ меньших квадратов; метода обобщенных наименьших квадратов, положив Q~R~l , где R - матрица ковариаций вектора ошибок из-

мерения; модифицированного метода обобщенных наименьших

квадратов, положив 3с = 0, Q= R~l и D= (P*)~l, где Рх - матрица

ковариаций оцениваемого вектора коэффициентов полинома; оп­ тимального байесовского алгоритма.

3. Вычислите значения ошибок г. - х. - хк и соответствую­

щие им диагональные элементы матриц ковариаций

+

,

где Pk(j + l,j + l) - для каждого из рассматриваемых методов оце­

нивания, j = 0,1,2, к= МНК, ОМНК, ММНК, opt.

Сопоставьте эти значения.

4. На одном и том же рисунке постройте графики у, и

у к = JC* + xkt. + хкГ , где к = мнк, омнк, ммнк, opt, а у к - вы­

численные значения полинома при подстановке соответствующих оценок. Прокомментируйте полученный результат.

5. Поясните, как будут связаны оценки, полученные с использова­ нием описанных алгоритмов, с оценками, соответствующими ме­ тоду максимума функции правдоподобия?

Пример выполнения задания

clear; close all;

%Исходные данные s0=1;

s1=1;

s2=1;

r=2;

m=50;

T=5;

dt=T/m; %интервал дискретизации Н=гл2*еуе(т);°/оматрица ковариаций ошибок измерений

%Формирование вектора оцениваемых параметров xO=random('Normar.O,sO);

x1=random('Normar,0,s1 ); x2=random(,Normar,0,s2); х=[х0; х1; х2];

“/сформирование измерений

t=0:dt:T-dt; %моменты получения измерений H=[ones(m,1) t' t'.A2]; %матрица наблюдений v=normmd(0,rlml1); %вектор ошибок измерений y=H*x+v; %вектор измерений

%Расчет оценок %МНК Kmnk=(H,*H)A-1*H';

Pmnk=(H'*H)A-1 *H'*R*H*(H'*H )л-1 ; хтп к=К тп к*у sigma=sqrt(diag(Pmnk)) ymnk=H*xmnk;

%ОМНК Q = R M ;

Pomnk=(H'*Q*H)M;

Komnk=Pomnk*H’*Q;

xomnk=Komnk*y

sigma=sqrt(diag(Pomnk))

yomnk=H*xomnk;

%MMHK

P=diag([sOA2 s1A2 s2A2]); Pmmnk=(PA-1 + H'*Q*H)A-1 ; Kmmnk=Pmmnk*H'*Q; xmmnk=Kmmnk*y sigma=sqrt(diag(Pmmnk)) ymmnk=H*xmmnk;

% Построение графиков

figure; plot(t,ymnk); hold on; plot(t,y,,r-'); xlabel('t,c,);ylabel('y_M_H_K');

figure; plot(t,yomnk); hold on; plot(t,y,'r—*); xlabel(,t,c');ylabel('y_0_M_H_K');

figure; plot(t,ymmnk); hold on; plot(t,y,'r--'); xlabel('t,c');ylabel('y_M_M_H_K');

Заключение к главе 2

1.Сформулированы прикладные задачи обработки навигационной информации, сводящиеся к оцениванию неизвестного вектора по измерениям другого, связанного с ним вектора. При этом рассмотрены линейные и нелинейные задачи.

2.Выделены следующие алгоритмы, подразделяющиеся в зависи­ мости от уровня привлекаемой априорной статистической .ин­ формации об оцениваемом векторе и ошибках измерения:

- алгоритмы, основанные на методе наименьших квадратов и

получаемые в рамках детерминированного подхода, не тре­ бующего введения предположения о случайном характере оцениваемого вектора и ошибок измерения;

-алгоритмы, получаемые в рамках небайесовского подхода в предположении о случайном характере лишь ошибок измере­ ния;

-оптимальные байесовские линейные алгоритмы, направлен­ ные на минимизацию среднеквадратического критерия в клас­ се линейных оценок и получаемые в предположении о слу­ чайном характере оцениваемого вектора и ошибок измерения и заданных их первых двух моментов;

-оптимальные байесовские алгоритмы, направленные на ми­ нимизации среднеквадратического критерия без ограничения на класс используемых оценок при наличии информации о функции плотности распределения вероятностей.

3.Проанализирована взаимосвязь алгоритмов, получаемых на ос­ нове различных подходов, и обсуждены условия их совпадения при решении ряда задач.

4.Подробно рассмотрены линейные оптимальные алгоритмы в линейных задачах оценивания и обсуждена возможность их применения для решения нелинейных задач.

5.Обсуждена связь задачи оценивания с задачей регрессии, в ча­ стности с задачей линейной регрессии, решаемой с использова­

нием простейшего варианта уравнения Винера-Хопфа.

6.Акцентировано внимание на наличие двух подзадач, решение которых важно при обработке навигационной информации - задачи синтеза алгоритма и задачи анализа точности.

7.Рассмотрены основные подходы к построению различного рода упрощенных (субоптимальных) алгоритмов решения нелиней­ ных задач и описана методика проверки их эффективности.

8.Обсуждены получившие наибольшее распространение при об­ работке навигационной информации различные схемы по­

строения вычислений при реализации алгоритмов - инвариант­ ная и неинвариантная, централизованная, децентрализованная, разностная и рекуррентная.

9.По ходу изложения полученные результаты проиллюстрирова­ ны как на чисто методических примерах, так и применительно к сформулированным в начале главы задачам обработки навига­ ционной информации.

ГЛАВА 3

ОСНОВЫ ТЕОРИИ ФИЛЬТРАЦИИ СЛУЧАЙНЫХ ПОСЛЕДОВАТЕЛЬНОСТЕЙ

Цель главы - изложить основы теории фильтрации случайных последовательностей и показать возможность ее применения при решении задач обработки навигационной информации.

В предыдущей главе основные положения теории статистичес­ кого оценивания были рассмотрены применительно к простей­ шему случаю оценивания постоянного вектора. Ясно, что при ре­ шении задач прикладного характера приходится сталкиваться с более общей ситуацией, когда компоненты оцениваемого вектора не являются постоянными, а зависят от времени. В рамках стохас­ тического подхода речь должна идти о случайных процессах. Во­ просы, связанные с теорией случайных процессов и их оценивани­ ем, будут обсуждаться во второй части книги. Здесь же рассматри­ ваются основные положения теории оценивания применительно к частному случаю - случайным процессам с дискретным временем или случайным последовательностям. Несмотря на то что все за­ дачи носят непрерывный характер, их решение, как правило, осу­ ществляется с использованием средств вычислительной техники путем перехода к дискретному времени. Таким образом, фактиче­ ски на практике реализуются алгоритмы, соответствующие оцени­ ванию дискретных последовательностей. В связи с этим представ­ ляется целесообразным, прежде чем рассматривать вопросы, свя­ занные с оцениванием случайных процессов, обсудить их приме­ нительно к случайным последовательностям. В пользу такого по­ рядка изложения можно также провести следующие соображения.

При получении алгоритмов для случайных последова­ тельностей достаточно прозрачно просматривается взаимосвязь с задачей оценивания постоянного вектора. Это позволяет уста­ новить преемственность с методами и алгоритмами, рассмотрен­ ными в предыдущей главе, что облегчает усвоение излагаемого материала.

Обоснование основных результатов теории оценивания приме­ нительно к случайным последовательностям требует привлечения более сложного математического аппарата, который необходим при их строгом получении для случая непрерывного времени. Вместе с тем некоторые результаты для непрерывного времени могут быть достаточно просто обоснованы путем предельного пе­ рехода от дискретного времени к непрерывному.

В настоящей главе, как и в предыдущих главах, предусмотрена возможность дифференцированного изучения материала.

Знакомство с основами теории оценивания случайных последо­ вательностей и возможностью их использования при обработке навигационной информации предполагает изучение следующих подразделов: 3.1, 3.2.2, 3.2.3. В них речь идет о решении линейных задач при линейном характере самих алгоритмов. В этом случае привлекается информация только о первых двух моментах - мате­ матических ожиданиях и корреляционных функциях.

Другой более углубленный уровень направлен на изучение возможности построения оптимальных байесовских алгоритмов, в том числе и при решении нелинейных задач применительно к слу­ чайным последовательностям. Здесь используется информация о совместных ф.п.р.в. (подразделы 3.2.1,3.2.4-3.2.7,3.3). Кроме того, при углубленном изучении рекомендуется раздел 3.4, посвящен­ ный задаче сглаживания.

Примеры постановок задач обработки навигационной информа­ ции, соответствующие первому и второму уровням изучения, рас­ сматриваются в подразделах 3.5.1, 3.5.2 и 3.5.3-3.5.5.

Следует подчеркнуть, что в данной главе все обсуждаемые ал­ горитмы получаются в предположении о случайном характере оцениваемой и измеряемой последовательностей, и отличия за­ ключаются лишь в уровне привлекаемой априорной информации об их статистических свойствах. Имеется в виду либо полное опи­ сание с использованием ф.п.р.в., либо описание, ограничиваю­ щееся заданием математических ожиданий и корреляционных функций. В заключение обсуждается их связь с алгоритмами, по­ лучаемыми в рамках детерминированного подхода на основе ме­ тода наименьших квадратов.

3.1. Случайные последовательности

Поскольку материал настоящей главы предназначен для изло­ жения теории оценивания применительно к случайным последова­ тельностям, целесообразно предварительно ввести основные опре­ деления, связанные с понятием случайных последовательностей, и обсудить методы их описания и свойства. В целях упрощения да­ лее для случайных последовательностей и их возможных значе­ ний, как и в главе 2, будем использовать одинаковые обозначения, т.е. вместо х/ будем использовать х{.

3.1.1. Определение случайной последовательности и ее описание

Рассмотрим последовательность скалярных величин х-[,х1,х3,.... Xj,.... Последовательность называется случайной, если каждая из входящих в нее величин xt является случайной. На рис. 3.1.1 приведен пример реализаций случайной последователь­ ности. Если полагать, что нижний индекс соответствует значениям времени , то в этом случае будем говорить о временной случай­ ной последовательности. В англоязычной литературе для случай­ ной последовательности используется термин random sequence [109]. В дальнейшем речь будет идти о временных случайных по­ следовательностях, и нижний индекс будет трактоваться как зна­ чение дискретного времени.

Рис. 3.1.1. Пример набора реализаций случайной последовательности

Пусть je,, i = 1,2.. - случайная последовательность. Если за­ фиксировать, например, два произвольных момента времени tt и

/у , то в результате можно сформировать двухмерный случайный

вектор, компонентами которого являются две случайные величины Xj и X j. Совместные статистические свойства этого вектора в

наиболее полном объеме, как следует из раздела 1.2, можно опре­ делить либо с помощью ф.р.в. (1.2.1), либо с помощью ф.п.р.в. (1.2.2). Аналогичные функции можно ввести и для вектора, вклю­ чающего большее число значений последовательности. Ясно, что описание случайной последовательности будет полностью задан­ ным, если будут определены функции плотности распределения вероятности / (.v,,,т2 дг,- ) для любого конечного набора значений последовательности в произвольно выбранные моменты времени

При решении прикладных задач нередко ограничиваются зада­ нием некоторых характеристик случайной последовательности, наиболее важными из которых являются математическое ожида­ ние и дисперсия случайной последовательности. Располагая для произвольного i -то момента времени ф.п.р.в. /(*,•), эти характе­ ристики можно определить:

(3.1.1)

(3.1.2)

Если считать известной совместную функцию плотности рас­ пределения вероятности /(* ,,.г; ) для значений последовательно­

сти в произвольные моменты времени, то можно ввести еще одну весьма важную характеристику

называемую корреляционной функцией случайной последова­ тельности.

Аналогичная характеристика для двух разных последователь­ ностей называется взаимно корреляционной функцией.

Функция (3.1.3) задает значения коэффициента корреляции ме­ жду случайными величинами, соответствующими / -му и / -му моментам времени. В силу соотношения (1.4.1)

f(Xj 'j ) = f(Xj / X j )f(Xj ),

где / (х,- / Xj ) - условная плотность для значений последователь­ ности в i -й момент при условии, что значение в j -й момент за­ фиксировано.

Поскольку при / = j , / (х,- / Xj ) =8(xf - xy- ), т.е. переходная плотность представляет собой дельта-функцию, ясно, что

k(i,i) = aj,

(3.1.4)

т.е. дисперсия последовательности в фиксированный момент вре­ мени совпадает с величиной корреляционной функции при совпа­ дающих значениях аргумента i = j

Случайные последовательности могут быть не только скаляр­ ными, но и векторными. Под случайной /i-мериой векторной по­ следовательностью понимают последовательность, значения ко­ торой представляют собой п -мерный случайный вектор.

Пусть х,-, / = 1,2..- /г-мерная случайная последовательность.

Заметим, что здесь и далее для указания дискретного момента вре­ мени, которому соответствует вектор, так же, как и для обозначе­ ния его компонент, используется нижний индекс.

Если требуется одновременное указание момента времени и номера компоненты, то используется двойная индексация, т. е.

Xj =(х,|,...,х,„)т, причем на первом месте всегда будет стоять

индекс, соответствующий времени, а на втором - индекс, соот­ ветствующий номеру компоненты.

Все приведенные выше определения могут быть обобщены на случай векторной последовательности. В частности, корреляцион­ ная функция будет представлять собой корреляционную матри­ цу, определяемую как

KUS) = J J (Л7 “ */)(*; ~ ^ j f f{xi,xj)dxidXj . (3.1.5)

При одинаковых значениях аргумента / = j корреляционная матрица совпадает с ковариационной матрицей, т.е.

k(U) = Pj = { (л,- - Xj)(Xj - x,)T f(Xj )dXj

(3.1.6)

Соседние файлы в папке книги