Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Скворцов, М. И. Теория и практика решения задач кораблевождения с учетом влияния систематических ошибок учебник

.pdf
Скачиваний:
8
Добавлен:
19.10.2023
Размер:
6.54 Mб
Скачать

Это позволяет,

разложив

функцию

 

Ф,

( £ ь

 

5,„)

в ряд Тейлора,

заменить

уравнение

(1.24) эквивалентным

ему (с точностью до величин второго порядка

малости)

линейным уравнением, которое

принято

называть у р а в ­

н е н и е м п о п р а в о к:

 

 

 

 

 

 

 

апхг

+

... +

а-чх}

+ ... +

almxZ

-

/, =

v,.

(1.26)

где

 

 

 

 

 

 

 

 

 

 

aV =

 

Щ

 

при %l =

n p ,

Ij

=

 

 

=

£ у

IIp> •••!

=

^ffl Пр>

 

 

(1-27)

 

=

 

Ф/в п р ) . . . , е У п Р ,

. . . , е « „ Р ) .

 

0-28)

Величина а-,) называется коэффициентом при искомой величине Л'3- в i-м уравнении поправок, величина U — сво­ бодным членом. 1-го уравнения поправок.

Величины 5i, 5j, • •., Sm> входящие в уравнения (1.21) и (1.23), в общем случае являются случайными величина­ м и — случайными функциями времени и некоторых других параметров. Задачей обработки наблюдений следует счи­ тать оценивание математических ожиданий этих случай­ ных величин. Поэтому условимся, что символами %\, ... ,

kj, • 5m нами обозначены оценки математических ожида­ ний случайных величин £ь ... , ?j, ... , U - Все последующие

выводы будут

справедливы и в том частном

случае,

когда

lj,

... ,

U — не случайные

величины.

Но при

этом

надо полагать, что М {i1) = i1,

... ,

М (£.) = L

М (£,„) -

Введем

обозначения:

 

 

 

 

 

 

Mity-bj^Xj-,

 

 

(1.29)

 

 

е . - Ж ( £ . )

= Д ш .

(L30)

Тогда вместо уравнения (1.23) можно рассматривать'экви­ валентное ему- (с точностью до величин второго порядка малости) уравнение, которое принято, называть у р а в н е ­ н и е м о ш и б о к:

h - ( « , Л + ••• + atJXj + ... + ашхт) = Д„ (1.31)

20

где

Д; = д : - л ; +

д;";

(1.32)

 

А Г — ап\т

+ ». +

+

... +• a«mA( 0 m .

(1-33)

В описаниях

способа

наименьших

квадратов

величи­

ну Ai иногда называют истинной

остаточной ошибкой /-го

измерения. Но в действительности она имеет более слож­

ную структуру:

помимо собственно ошибки измерения

А!

ее слагаемыми

являются

также ошибка

А- аппроксима­

ции измеряемой

величины

функцией

и ошибка

А^

возникающая вследствие случайных отклонений величин^,

... , Sj, ..., jj„, от их математических ожиданий. Каждая из них может быть представлена в виде суммы элементарных ошибок, которые в зависимости от того, какая совокуп­ ность измерений рассматривается, могут проявлять свой­ ства систематических или случайных ошибок.

Пусть п — число

подлежащих

обработке

результатов

измерений,

причем

каждому

измерению

соответствуют

свои

уравнение

поправок

(1.26)

и

уравнение

ошибок

(1.31).

Введем

обозначения:

 

 

 

 

 

 

 

£ =

||^||т1— вектор

случайных величин ?ь ... ,

^пр == Uj пр L i вектор

произвольных

приближенных

 

 

 

 

значений

искомых

величин;

 

 

X — \Х] \\т1 — вектор

 

разностей

математических

 

 

 

 

ожиданий

и

произвольных

прибли­

 

 

 

 

женных

значений

-искомых

величин;

£ = [[£..|[т 1 —вектор оценок искомых величин;

X = \\Xj\\ml — вектор оценок поправок к произволь-

'ным приближенным значениям иско­

мых величин;

 

 

 

 

Д = IJ Д/1|„] — вектор

истинных' остаточных

ошибок

А• • •> Дь

• •>

A n !

 

 

£ = ll^/ILiвектор

свободных

членов

уравнений

поправок;

 

 

 

 

V— \vitn\—вектор

отклонений

результатов изме­

рений

от

их

уравновешенных

значе­

ний;

 

 

 

 

 

 

-4 1ai)\nm ~ матрица

коэффициентов при

неизве­

стных

в

системе уравнений

поправок.

21

Тогда система из п уравнении поправок (1.26) может быть записана в виде одного матричного уравнения

AX-L

=

V,

(1.34)

а выражениям (1.25), (1.29) и

(1.31)

будут соответство­

вать матричные равенства:

 

 

 

Г = 5 п р

+

й

(1.35)

М®

= ^р

+ Х;

(1.36)

L =

AX+\.

(1.37)

Рассмотрим выражение (1.29). В левой

его

части

стоят

не случайные величины

(математическое

ожидание

любой

случайной величины не

является случайной

вели­

чиной, не является таковой и величина ^ П р, которую при обработке наблюдений выбирают произвольно, исходя из

удобства вычислений). Следовательно, не

случайна

и ве­

личина

Xj, не

является

 

случайным

вектор ,Y=||.^||.

Учтем, кроме того, что не

является

случайной

и

матри­

ца А. Значит, из равенства

(1.37)

следует

важный

вывод

о корреляционной

матрице

KL

вектора L свободных

чле­

нов

 

уравнений

поправок:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

KL

= K„

 

-

 

(1.38)

где

КА—корреляционная

 

матрица

вектора А.

 

 

Дальнейшие выводы основываются' на предположении,

что

выполнены

следующие

условия:

 

 

 

 

 

 

— математическое ожидание любой остаточной

ошиб­

ки

равно

нулю, т. е.

 

 

 

 

 

 

 

 

 

 

 

 

 

М ( Д ) =

[|М(Л; )|и =

О п 1 Г

 

 

(1.39)

матрица

КА

— неособенная

и

известна

хотя

бы с

точностью до

постоянного

множителя;

 

 

 

 

— ранг матрицы КА

не меньше числа

т искомых ве­

личин (для этого необходимо, чтобы

число п

измерений

или,

что

равнозначно, число

п уравнений

поправок,

со­

ставленных по их результатам, было не. меньше числа m искомых величин);

— ранг матрицы А коэффициентов при неизвестных в уравнениях поправок равен числу m искомых величин.

22

Если второе условие выполнено, то может быть най­

дена матрица

 

 

 

 

Р

= \\Ри.\\„п = ^

- К , у 1 ,

(1.40)

где

—дисперсия ошибки

измерения,

вес которого

принят

равным

единице.

 

 

К вектору $ оценок искомых величин

предъявляются

следующие требования:

 

 

— компоненты вектора должны быть несмещенными оценками искомых величин, т. е. должно выполняться ра­ венство

 

 

М$) = М{Ь)\

 

(1.41)

дисперсии оценок искомых

величин

(т. е. диагональ­

ные

элементы

корреляционной

матрицы

К~

вектора £)

должны быть минимальны (такие оценки

принято назы­

вать

эффективными).

 

 

 

До сих пор мы не ограничивали себя какими-либо пред­

положениями о

распределениях

вероятностей

рассматри­

ваемых нами ошибок. Все выводы этого и предыдущего параграфов справедливы при любых распределениях этих ошибок, если только их дисперсии конечны. Теперь же возникла необходимость в таком предположении, посколь­ ку способ удовлетворения второго из перечисленных тре­ бованийсущественно зависит от того, каковы распреде­ ления вероятностей ошибок hi. В теории способа наимень­ ших квадратов доказывается, что в частном (но имеющем наибольшее практическое значение) случае, когда эти рас­ пределения нормальны, второе требование удовлетворяет­

ся, если вектор X отыскивается из матричного

уравнения

ArPAX = ArPL*

(1.42)

Нетрудно показать, что при этом удовлетворяется и первое требование. Действительно,, из выражения (1.42) следует, что

X={ArPA)-lATPL,

(1.43)

23

откуда, учитывая равенства (1.37), (1.39), (1.35) и (1.36), получим

М (X) =

( Л Т А 4 ) - 1 Л Т Я Ж

(L) = (Ат РА)'1

Я

PAX

= X;

(1.44)

 

^ ( Г ) = 6 „ р +

ЛГ(^) = 6п р +

^

=

^ ( 6 ) .

' (1.45)

Из

выражений (3.32),

(1.43),

(1.38)

и

(1.40),

учиты­

вая также, что матрицы

Р, Р~\

А^ РА,

тРА)'1

и КА

симметрические, а вектор £пр не случаен, следует, что кор­ реляционная матрица К~ вектора % оценок искомых ве­ личин равна

К~ = К- =

ТРА)~1 АТРКА

[ ( / Г Л 4 ) - 1 АТР\Г'=

 

= [А'РАУ'А'РА

{£РА)-1РКЬ

=

Т А4)~"1 РР-1

=

 

= а ? 1 ) ( Д 7 М ) - ' .

 

(1.46)

Если в выражение (1.46) подставляется величина (дисперсия ошибки измерения, вес которого принят рав­ ным единице), оцененная при обработке некоторых преды­ дущих измерений, то формула (1.46) выражает действие, которое называется априорным (от латинского а priori — изначально, до опыта) оцениванием корреляционной ма­ трицы К~. Но может быть выполнено и апостериорное (от

латинского а posteriori — из последующего, после опыта)

оценивание этой матрицы. Для этого вычисляется

вели­

чина о 2 ] } апостериорная

оценка

дисперсии измерения,

вес которого принят равным единице:

 

а-

VTPV

 

(1.47)

 

 

Апостериорная оценка

матрицы

К~ считается

рав­

ной

 

 

 

^ г = а ? „ . ( Л т Р / 1 ) - 1 .

(1.48)

Отклонения Vi результатов измерений от уравновешен­ ных значений характеризуют разброс, разногласие в ре-

24

зультатах измерений. Если они невелики (величина мала), говорят о хорошем внутреннем согласии результа­ тов измерений, в противном случае — о плохом согласии.

Поэтому апостериорное оценивание величины о( 1 ) часто называют также оцениванием точности измерений по их внутреннему согласию. Его частным случаем является оценивание точности непосредственных измерений иско­ мой величины по отклонениям их результатов от среднего арифметического значения.

Выше мы говорили, что изучение функций /г (а, |3 . . . ) , т. е. -характера функциональных зависимостей системати­ ческих ошибок от параметров, характеризующих условия измерений, является необходимым условием повышения

точности измерений. Заметим, что единственную

возмож­

ность

экспериментального исследования этих

зависимо­

стей

представляет рассмотрение отклонений о,-. Далее в тех

случаях, когда функции /г (а, (3 ... ) изучаются по сличению

результатов- исследуемых измерений с результатами бо­ лее.точных (эталонных) измерений, разности этих резуль­ татов, условно именуемые наблюденными значениями ис­

тинных ошибок, по существу тоже

являются отклонения­

ми уравновешенных значений от

результатовизмерений

(у эталонных измерений эти отклонения условно можно считать равными нулю).

Формулы (1.40), (1.43), (1.46) — (1.48) представляют собой матричную запись алгоритма так называемого обоб­ щенного способа наименьших квадратов, при нормальном распределении ошибок измерений дающего эффективные оценки искомых величин как в тех случаях, когда эти ошибки являются взаимно независимыми случайными ве­ личинами, так и в тех, когда они взаимно зависимы. При его обосновании используется только часть условий Гаус­ саКолмогорова (условия нормальности распределений, равенства нулю математических ожиданий всех остаточ­ ных ошибок и конечности их дисперсий). Если, кроме того, полагается удовлетворенным и условие взаимной некор­ релированности двух любых остаточных ошибок (предпо­ лагается, что систематические ошибки отсутствуют, т. е. остаточные ошибки случайны и, следовательно, корреля­ ционная матрица АГД днагональна), то этот алгоритм принимает .вид своего частного случая — классического

25

способа наименьших квадратов, преимуществами которого являются однообразие и удобство вычислении, а также возможность постоянного контроля их правильности. Эти преимущества и то обстоятельство, что обнаружить недиагональность матрицы , т. е. несоблюдение одного из

условий Гаусса — Колмогорова, обычно очень трудно, при­ вели к тому, что способ наименьших квадратов в его клас­ сическом виде нередко применяется и в тех случаях, когда условия, на котсрых зиждется его обоснование, не выпол­ нены.

Коль скоро матрица /Сд диагональна, ее обращение

существенно упрощается. Как следует из выражений (1.40) и (3.23), в этом случае матрица Р также диагональна (она называется матрицей весов уравнений поправок). Ее г'-й

диагональный

(отличный

от нуля)

элемент, находящийся

в i-й строке

и в г'-м столбце (он

называется в е с о м

f-ro уравнения

поправок),

равен

 

 

 

 

(1.49)

Значительно облегчается и составление системы урав­ нений ("1.42). Взамен ранее применявшихся введем новые обозначения коэффициентов при искомых величинах в уравнениях поправок:

 

an

= al;

ai2 = bl;

alm = fii;

 

(1.50)

обозначим также i-ю

контрольную сумму

 

 

 

 

 

a, +

b,

+

... + h l - l l = s l .

 

(1,51)

Воспользуемся обозначением сумм по Гауссу:

 

 

[раа] = р1а\ +

р2а\

+

... + рр]

+ ...

+

 

 

 

[рад] = p1a1bl

+ р2а2Ь2

+

... +

piaibi

+

 

...+рпапЬп;

 

 

. . . .

.

 

 

 

 

 

 

 

 

 

[pah] = pialhi

+ p2a2h2

+

... +

рр^ц

+

... +

pnanhn\

 

 

[pal]

=

+ p2a2l2

+

... +

platlt

+

... +

pnajn;

[pas] = А « 1 5 1

+ / W

2

+

-

 

+

... +

pnans,;,

K '

'

[pbb] = pxb\ +

p2b\

+

... H-Plb\

+ ... +

pjfy

 

 

 

[pbh]

= plbihx

+ p2b2h2

+

... +

plbihl

+

... -b pabahn\

 

 

26

[phk]

= Plh\ + p2h\ +

... + Piiq + ... +

pjil;

[phi]

^-pji^

+ p2h2l2

4- ... - f pfi-h

- f

... + p„hjn) .

[phs]

=/?1 A1 51

+ p2h2s2

4- ... 4- plhisl

4- ... 4-p„h„sn .

Тогда матричному уравнению (1.42) будет соответст­ вовать система из т линейных уравнений с т неизвестны­

ми, которая

 

называется

с и с т е м о й

н о р м а л ь н ы х

у р а в н е н и й :

 

 

 

 

 

[раа] х{

+

[pab] х2 +

... + [pah] хт

[pal] = 0 ;

[pab] ~х, +

[pbb] х2+...

+

[рЩ хт -

[рЫ\ =

0; (1.53)

[pah] хх

4- [pbh] х2 4- ... 4

- [phh] х,„ — [phi] =

0.

Наиболее удобно решение системы нормальных урав­ нений по схеме Гаусса. При этом одновременно произво­ дится обращение матрицы АТ РА> т - е - вычисление эле­ ментов матрицы т РА)-1 • Контрольные суммы

[pas] =/? 1 « 1 s 1 4- / W ? 2 + ••• + / W ? n ;

'. (1-54)

[phs] = p^Sj 4- p2h2s2 4- ... -4- pnhnsn

служат для контроля правильности вычислений. Полученные при решении системы нормальных уравне­

ний оценки хи Хо, .... x-j xm искомых величин подстав­ ляются в уравнения поправок (1.26): вычисляются откло­

нения Vi результатов

измерений от их уравновешенных зна­

чений, затем

вычисляется

сумма

 

 

VTPV = [pvv] =Plv\

+ p2vl

+ ... - f p~v\ +

... 4-p„vl,41-55)

по формулам

(1.47)

и (1.48) находятся

оценки

о(э1} дис­

персии измерения, вес которого принят

равным

единице,

ц корреляционной матрицы К~ . Пример этих вычислений

приведен в §

3.4.

£

Исторически

сложилось

так, что в кораблевождении

свободный член уравнения поправок вычисляется по фор­ муле (1.28) как разность измеренного (исправленного всеми учитываемыми поправками) и вычисленного (исходя

27"

из приближенных значений искомых величин) значений измеряемой величины. В общепринятых схемах решения нормальных уравнений свободному члену приписывается противоположный знак. Поэтому впредь будем обозна­ чать

пр>? 2 пр> •••> %j пр> •••» пр). (1.56)

Алгоритм последовательного уточнения оценок иско­ мых величин представляет собой одну из разновидностей способа двухгруппового решения систем нормальных урав­ нений, разработанного Бесселем по идее Гаусса. Иногда этот алгоритм называется также объединением распреде­ лений [16], линейным динамическим фильтром или комплексированием измерений. Но выражение «последова­ тельное уточнение оценокискомых величин» лучше отра­ жает его сущность.

Пусть измерения выполнялись группами. Сначала вы­

полнено п? измерений

первой

группы, затем а" измерений

второй группы, по результатам

каждого

измерения состав­

лено свое

уравнение

поправок

(1.26).

Предположим, что

истинные

остаточные

ошибки

/'-го измерения первой груп­

пы и i" - r o измерения

второй

группы при любых V и I" яв­

ляются взаимно некоррелированными случайными величи­

нами, так что корреляционная

матрица

вектора

истинных

остаточных

ошибок

измерении

имеет

вид

 

 

 

 

 

 

 

(1.57)

где

К: — корреляционная

матрица

вектора

Д( 1 ) ис­

 

 

тинных остаточных ошибок измерений пер­

 

 

вой

группы;

 

 

 

 

Кг

— корреляционная

матрица

вектора

4( 2 ) ис­

 

 

тинных остаточных ошибок измерений вто­

 

 

рой

группы;

 

 

 

оп'п">

п п

нулевые матрицы.

 

 

Будем

считать матрицы К\ и /Сг .неособенными. Тогда

из правила (3.25) обращения квазидиагональной

матрицы

следует,

что

 

 

 

 

 

 

 

 

 

 

(1.58)

 

 

 

а (1)

 

 

 

28

где

 

•к,

- 1

(1.59)

^ 2 =

 

5 (D

°(D.

 

 

Обозначим символом Л блочную матрицу коэффициен­ тов при неизвестных, символом L — блочную матрицу сво­ бодных членов совокупной системы уравнений поправок:

 

 

А

=

 

 

 

 

 

U

 

 

 

(1.60)

 

 

 

 

 

 

 

 

 

 

 

 

 

где Ах

\ai4

U •

• матрица

коэффициентов

при

неизве­

 

 

 

стных

в

уравнениях

поправок

(1.26)

 

 

 

первой

группы;

 

 

 

 

4 l = | K v l U » '

•то

же,

в

уравнениях

 

поправок вто­

 

 

 

рой

группы;

 

 

 

 

 

 

 

 

 

•вектор свободных членов (1.28) урав­

 

 

 

нений

поправок

первой

группы;

 

U

 

n'l

-то

же,

в

уравнениях

поправок

второй

 

 

группы.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Если результаты измерений первой и второй групп об­

рабатываются

совместно, то «а основании

правила

(3.16)

с учетом

соотношения

 

(1.58)

мы

придем

к

следующей

записи равенств (1.43),

 

(1.35)

и

(1.48):

 

 

 

 

 

X =

(В, + В2)~1

(AlP.L,

+

AlP2L2);

 

(1.61)

 

 

 

 

~1 = ЪР +

Х;

 

 

 

(1.62)

 

 

/С =

^ 1

) ( 5 1 +

5 2

Г 1 ,

 

 

 

(1.63)

где

 

B^AlP^Ai

 

 

В? =

А1Р2А2.

 

 

(1.64)

 

 

 

 

 

 

Предположим теперь, что обработка результатов изме­ рений первой и"второй групп ведется раздельно. По ре­ зультатам измерений первой группы составлены нормаль­ ные уравнения, найдены вектор *.#i=='| xj^)\m\ первич­ ных поправок к приближенным значениям искомых вели­ чин и вектор £с = || ZjC \\п1 оценок, которые мы будем

29

Соседние файлы в папке книги из ГПНТБ