ЭКОНОМЕТРИКА и математическая экономика / Эконометрика. Учебник продвинутый (2005)
.pdf5.1. Первичные измерения |
183 |
5.1. Первичные измерения
Пусть имеется N измерений xi , i = 1, . . . , N , случайной величины x, т.е. N наблюдений за случайной величиной. Предполагается, что измерения проведены в неизменных условиях (факторы, влияющие на x, не меняют своих значений), и систематические ошибки измерений исключены. Тогда различия в результатах отдельных наблюдений (измерений) связаны только с наличием случайных ошибок измерения:
xi = β + εi, i = 1, . . . , N, |
(5.1) |
где β — истинное значение x, εi — случайная ошибка в i-м наблюдении. Такой набор наблюдений называется выборкой.
Понятно, что это — идеальная модель, которая может иметь место в естественнонаучных дисциплинах (в управляемом эксперименте). В экономике возможности измерения одной и той же величины в неизменных условиях практически отсутствуют. Определенные аналогии с этой моделью возникают в случае, когда некоторая экономическая величина измеряется разными методами (например, ВВП — по производству или по использованию), и наблюдениями выступают результаты измерения, осуществленные этими разными методами. Однако эта аналогия достаточно отдаленная, хотя бы потому, что в модели N предполагается достаточно большим, а разных методов расчета экономической величины может быть в лучшем случае два-три. Тем не менее, эта модель полезна для понимания случайных ошибок.
Если X и ε — вектор-столбцы с компонентами, соответственно, xi |
и εi , |
а 1N — N -мерный вектор-столбец, состоящий из единиц, то данную модель мож- |
|
но записать в матричной форме: |
|
X = 1N β + ε. |
(5.2) |
Предполагается, что ошибки по наблюдениям имеют нулевое математическое ожидание в каждом наблюдении: E (εi) = 0, i = 1, . . . , N ; линейно не зависят
друг от друга: cov (εi, εj ) = 0, i = j; а их дисперсии по наблюдениям одинаковы: var (εi) = σ2 , i = 1, . . . , N или, в матричной форме: E (εε ) = IN σ2 , где σ2 — дисперсия случайных ошибок или остаточная дисперсия, IN — единичная матрица размерности N . Это — обычные гипотезы относительно случайных ошибок.
Требуется найти b и ei — оценки, соответственно, β и εi . Для этого используется метод наименьших квадратов (МНК), т.е. искомые оценки определяются
N |
(xi |
|
b)2 |
= |
N |
= e e |
|
min!, где e вектор-столбец оценок ei . |
так, чтобы |
− |
e2 |
→ |
|||||
i=1 |
|
|
|
i=1 i |
|
|
184 |
|
|
|
|
|
|
Глава |
5. Случайные ошибки |
|
В результате, |
|
|
|
|
|
|
|
|
|
|
1 |
N |
|
|
1 |
|
|
|
|
b = x¯ = |
|
x |
= |
1 |
X, e = X |
− |
1 b, |
||
|
|
|
|||||||
|
N i=1 |
i |
|
N N |
|
N |
т.к. de e = −2 (xi − b) = 0. Кроме того, d2e e = 2N > 0, следовательно, в дан- db db2
ной точке достигается минимум, т.е. МНК-оценкой истинного значения измеряемой величины является, как и следовало ожидать, среднее арифметическое по наблюдениям, а среднее МНК-оценок остатков равно нулю:
e¯ = N1 1N (X − 1N b) = x¯ − b = 0.
Оценка b относится к классу линейных, поскольку линейно зависит от наблюдений за случайной величиной.
Полученная оценка истинного значения является несмещенной (т.е. ее математическое ожидание равно истинному значению оцениваемого параметра), что можно легко показать.
Действительно:
b = |
1 |
(5.1) |
1 |
|
|
1 |
|
|
|
|
|
xi = |
|
|
(β + εi) = β + |
|
|
εi, |
(5.3) |
||
N |
N |
N |
||||||||
|
|
β — детер- |
1 |
|
|
|
|
|
||
|
|
минировано |
E(εi )=0 |
|
|
|||||
|
E (b) = β + |
|
E (εi) = β. |
|
|
|||||
|
N |
|
|
Что и требовалось доказать.
Однако несмещенной оценкой β является и любое наблюдение xi , т.к. из (5.1) следует, что E (xi) = β.
Легко установить, что оценка b лучше, чем xi , т.к. имеет меньшую дисперсию (меньшую ошибку), то есть является эффективной. Более того, b — наилучшая в этом смысле оценка во множестве всех возможных линейных несмещенных оценок. Ее дисперсия минимальна в классе линейных несмещенных оценок и опреде-
ляется следующим образом: |
|
|
|
|
σ2 |
= |
1 |
σ2, |
(5.4) |
|
||||
b |
|
N |
|
|
|
|
|
|
|
т.е. она в N раз меньше, чем дисперсия |
xi, которая, как это следует из (5.1), |
|||
равна σ2 . |
|
|
|
|
5.1. Первичные измерения |
185 |
Действительно, множество всех линейных оценок по определению представляется |
|
следующим образом: |
|
|
N |
b = |
dixi , |
i=1
где di — любые детерминированные числа.
Из требования несмещенности,
|
|
E (b ) = β, |
|
следует, что di = 1, т.к. |
|
|
|
|
|
di — детер- |
|
E (b ) = E |
|
минировано |
di E (xi) = β di. |
dixi |
= |
||
|
|
|
←−−→ |
|
|
|
β |
Таким образом, множество всех линейных несмещенных оценок описывается так:
NN
b = dixi, |
di = 1. |
i=1 |
i=1 |
В этом множестве надо найти такую оценку (такие di ), которая имеет наименьшую дисперсию,
|
|
|
|
|
(5.1) |
|
di + diεi, |
|
|
|
|
|
||
|
|
|
b = dixi = β |
|
|
|
|
|
||||||
|
|
|
|
|
|
|
←−−→ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
=1 |
|
|
|
|
|
|
|
откуда b − β = |
diεi , и можно рассчитать дисперсию b : |
|
|
|
|
|
||||||||
var(b ) = σb2 = E (b − E(b )2 |
= |
|
|
|
2 E(εi2 )=σ2 |
|
|
|
||||||
|
|
|
= E |
|
2 |
E(εi εi )=0 |
2 |
|
2 |
2 |
||||
|
|
|
diεi |
|
= |
di |
E(εi ) = σ |
|
di . |
|||||
Минимум |
d2 |
при ограничении |
di |
= 1 достигается, если все |
di |
одинаковы |
||||||||
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
и равны |
1 |
, т.е. если b = b. Отсюда, в частности, следует, что σ2 = |
1 |
|
σ2 . |
|
||||||||
N |
N |
|
||||||||||||
|
|
|
|
|
|
|
|
b |
|
|
|
Что и требовалось доказать.
Такие оценки относятся к классу BLUE — Best Linear Unbiased Estimators.
Кроме того, оценка b состоятельна (стремится при N → ∞ к истинному значению параметра), т.к. она несмещена и ее дисперсия, как это следует из (5.4), при N → ∞ стремится к 0.
186 |
Глава 5. Случайные ошибки |
Чтобы завершить рассмотрение данного случая, осталось дать оценку остаточной дисперсии. Естественный «кандидат» на эту «роль» — дисперсия x :
s2 = |
1 |
(xi − b)2 = |
1 |
ei = |
1 |
e e, |
N |
N |
N |
— дает смещенную оценку. Для получения несмещенной оценки остаточной дисперсии сумму квадратов остатков надо делить не на N , а на N − 1 :
|
1 |
|
sˆ2 = |
N − 1 e e, |
(5.5) |
поскольку в векторе остатков e и, соответственно, в сумме квадратов остатков e e линейно независимых элементов только N − 1 (т.к. 1N e = 0). Этот факт можно доказать строго.
Если просуммировать по i соотношения (5.1) и поделить обе части полученного выражения на N , то окажется, что b = β + N1 εi . Кроме того, известно, что xi = β + εi = b + ei . Объединяя эти два факта можно получить следующее выражение:
1 |
|
|
ei = εi − N |
εi, |
(5.6) |
(т.е. оценки остатков равны центрированным значениям истинных случайных ошибок), и далее получить
|
1 |
2 |
|
2 |
|
2 |
1 |
|
|
2 |
|
|||||
|
|
|
|
|
|
|
||||||||||
e e = |
εi − |
|
εi |
= εi2 − |
|
|
εi |
+ |
|
|
|
εi |
= |
|||
N |
N |
N |
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
= |
|
εi2 |
1 |
2 |
||
|
|
|
|
|
|
|
|
|
|
|
− |
|
εi . |
|||
|
|
|
|
|
|
|
|
|
|
|
N |
|||||
Наконец: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
E (e e) |
E(εi2 )=σ2 , E(εi εi )=0 |
(N − 1) σ2, |
|
|
|
|
|||||||
|
|
|
|
= |
|
|
|
|
|
|
|
|||||
т.е. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
E |
1 |
e e = σ2. |
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
N − 1 |
|
|
|
|
|
|
|
Что и требовалось доказать.
Теперь относительно случайных ошибок вводится дополнительное предположение: они взаимно независимы (а не только линейно независимы) и распределены нормально: εi NID 0, σ2 . NID расшифровывается как normally and
5.1. Первичные измерения |
187 |
independently distributed (нормально и независимо распределенные случайные величины). Тогда становится известной функция плотности вероятности εi :
|
1 |
1 |
2 |
1 |
1 |
|
2 |
f (εi) = (2π)− |
2 σ−1e− |
|
εi = (2π)− |
2 σ−1e− |
|
(xi−β) |
, |
2σ2 |
2σ2 |
и функция совместной плотности вероятности (произведение отдельных функций плотности, так как случайные ошибки по наблюдениям взаимно независимы) (см. Приложение A.3.2):
|
N |
1 |
2 |
f (ε1, . . . , εN ) = (2π)− |
2 σ−N e− |
|
(xi−β) . |
2σ2 |
Эта функция рассматривается как функция правдоподобия L (σ, β), значения которой показывают «вероятность» (правдоподобность) появления наблюдаемых xi , i = 1, . . . , N , при тех или иных значениях σ и β. Имея такую функцию, можно воспользоваться для оценки параметров σ и β методом максимального правдоподобия (ММП): в качестве оценок принять такие значения σ и β, которые доставляют максимум функции правдоподобия (фактически предполагая, что, раз конкретные xi , i = 1, . . . , N реально наблюдаются, то вероятность их появления должна быть максимальной).
Обычно ищется максимум не непосредственно функции правдоподобия, а ее логарифма (значения этой функции при конкретных xi и конечных σ положительны, и их можно логарифмировать; эта операция, естественно, не меняет точки экстремума), что проще аналитически.
ln L (σ, β) = − |
N |
ln 2π − N ln σ − |
1 |
(xi − β)2. |
2 |
2σ2 |
Ищутся производные этой функции по σ и β, приравниваются нулю и определяются искомые оценки:
|
∂ ln L |
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
= |
|
|
|
|
(xi − β) = 0 |
β = x¯ = b, |
|
||||||
|
∂β |
σ2 |
|
|
|||||||||||
|
∂ ln L |
= − |
N |
+ |
1 |
ei2 = 0 |
σ2 = |
1 |
|
ei2 = s2. |
|||||
|
|
|
|
|
|
|
|||||||||
|
∂σ |
σ |
|
σ3 |
N |
||||||||||
Это точка минимума, поскольку матрица 2-х производных |
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
− |
N 1 |
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
s2 |
2 |
|
|
|
||
|
|
|
|
|
|
|
|
|
0 |
|
|
|
в ней отрицательно определена.
188 |
Глава 5. Случайные ошибки |
Таким образом, ММП-оценки β и εi совпадают с МНК-оценками, но ММПоценка σ2 равна не sˆ2, а s2 , т.е. является смещенной. Тем не менее, эта оценка состоятельна, т.к. при N → ∞ различия между sˆ2 и s2 исчезают.
Известно, что метод максимального правдоподобия гарантирует оценкам состоятельность и эффективность, т.е. они обладают минимально возможными дисперсиями (вообще, а не только в классе линейных несмещенных, как оценки класса
BLUE).
В рамках гипотезы о нормальности ошибок ε можно построить доверительный интервал для истинного значения параметра, т.е. интервал, в который это значение попадает с определенной вероятностью 1 − θ, где θ — уровень ошибки (аналогичен величинам sl и pv, введенным во 2-й и 4-й главах I части книги; в прикладных исследованиях уровень ошибки принимается обычно равным 0.05). Он называется (1 − θ)100-процентным (например, при θ = 0.05 — 95-процентным) доверительным интервалом.
Следствием нормальности ε является нормальность b : b N |
β, |
σ2 |
. По- |
||||||||
N |
|||||||||||
этому |
|
|
|
|
|
|
|
|
|
||
|
(b − β) |
√ |
|
|
|
|
|
|
|
|
|
|
|
N |
|
N (0, 1), |
|
|
(5.7) |
||||
|
|
|
|
|
|
||||||
|
|
σ |
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|||
и, по определению двустороннего квантиля (см. п. 2.3), |
|
|
|
||||||||
|
|
|
√ |
|
|
|
|
|
|
|
|
|
|
(b − β) |
N |
|
εˆ1 θ , |
|
|
|
|||
|
|
|
|
|
|
|
|
||||
|
|
σ |
|
|
|
|
|
||||
|
|
|
|
− |
|
|
|
где εˆ1−θ — (1 − θ)100-процентный двусторонний квантиль нормального распределения.
Откуда
|
σ |
εˆ1−θ |
(5.8) |
β |
b ± √N |
—искомый (1 − θ)100-процентный доверительный интервал.
Ксожалению, на практике этой формулой доверительного интервала воспользоваться невозможно, т.к. она предполагает знание остаточной дисперсии σ2 . Известна же только ее оценка sˆ2.
Простая замена в (5.8) σ на sˆ будет приводить к систематическим ошибкам — к преуменьшению доверительного интервала, т.е. к преувеличению точности расчета.
Чтобы получить правильную формулу расчета, необходимо провести дополнительные рассуждения.
5.1. Первичные измерения |
|
|
189 |
||
Прежде всего, доказывается, что |
|
|
|
||
|
e e |
χN2 |
−1. |
(5.9) |
|
|
σ2 |
|
Справедливость этого утверждения достаточно очевидна, поскольку, как было показано выше, сумма квадратов e e имеет N − 1 степень свободы, но может быть доказана строго.
В матричной форме выражение (5.6) записывается следующим образом:
e = Bε, |
(5.10) |
где B = IN − N1 1N 1N .
Матрица B размерности N × N :
а) вещественна и симметрична ( B = B), поэтому она имеет N вещественных корней, которые можно «собрать» в диагональной матрице Λ, и N взаимно ортогональных вещественных собственных векторов, образующих по столбцам матрицу Y . Пусть проведена надлежащая нормировка и длины этих собственных векторов равны 1. Тогда:
Y Y = IN , Y = Y −1, BY = Y Λ, B = Y ΛY ; |
(5.11) |
б) вырождена и имеет ранг N − 1. Действительно, имеется один и только один (с точностью до нормировки) вектор ξ = 0, который дает равенство Bξ = 0. Все компоненты этого единственного вектора одинаковы, т.к., как было показано выше, Bξ — центрированный ξ. В частности,
|
|
|
|
|
|
|
B1N = 0. |
|
|
|
|
|
|
|
|
|
|
|
|
(5.12) |
|||
Это и означает, что ранг B равен N − 1; |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
в) идемпотентна, т.е. B2 = B (см. Приложение A.3.2): |
|
|
|
|
|
|
|
|
|
||||||||||||||
1 |
1N 1N |
1 |
1N 1N |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
B2 = IN − |
|
IN − |
|
|
= |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
N |
N |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
1 |
|
|
1 |
1N |
1 |
+ |
1 |
1 |
|
1 |
1 |
|
1 |
= B. |
||||||
|
|
|
|
|
|
|
|
|
|
|
|
N 2 |
|
|
|||||||||
|
|
|
= IN − N 1N 1N − N |
N |
|
|
N |
N |
|
N |
N |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
←−−→ |
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
=N |
|
|
||
|
|
|
|
|
|
|
|
|
|
|
←−−−−−−−−−−−−−−−−−−→ |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
=0 |
|
|
|
|
|
|
|
Далее, пусть |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
u = |
1 |
Y ε, |
uj = |
1 |
Y ε, |
|
|
|
|
|
|
|
|
(5.13) |
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
σ |
|
σ |
j |
|
|
|
|
|
|
|
|
|
|
где Yj — j -й собственный вектор матрицы B.
190 |
|
|
|
|
|
|
Глава 5. Случайные ошибки |
||
Очевидно, что E (uj ) = 0, дисперсии uj |
одинаковы и равны 1: |
||||||||
|
|
|
= |
1 |
|
E(εε )=σ2 IN |
|
(5.11) |
|
|
|
E uj2 |
|
E Yj εε Yj |
= |
|
Yj Yj |
= 1, |
|
|
|
σ2 |
|
||||||
|
|
|
|
|
|
|
|
|
|
и u |
j |
|
|
|
|
|
|
|
|
|
взаимно независимы (при j = j ): |
|
|
|
|
||||
|
|
|
|
|
аналогично |
(5.11) |
|
||
|
|
|
E (uj uj ) = Yj Yj |
= 0. |
|
Тогда
e e (5.10)
σ2
=
1 |
|
B =B, B2 |
=B |
1 |
|
(5.11) |
1 |
|
|
(5.13) |
|
|
ε B Bε |
= |
|
|
ε Bε |
= |
|
ε Y ΛY |
ε |
= u Λu. |
(5.14) |
σ2 |
|
σ2 |
σ2 |
Собственные числа матрицы B, как и любой другой идемпотентной матрицы, равны либо 1, либо 0 ( λ — любое собственное число, ξ— соответствующий собственный вектор):
Bξ = λξ, |
|
λ2 = λ |
λ = |
0, |
Bξ = B2ξ = Bξλ = λ2ξ |
1. |
и, поскольку ранг матрицы B равен N − 1, среди ее собственных чисел имеется N − 1, равных 1, и одно, равное 0. Поэтому (5.14), в соответствии с определением случайной величины, имеющей распределение χ2 , дает требуемый результат (см. также Приложение A.3.2).
Случайные величины, определенные соотношениями (5.7, 5.9), некоррелированы, а, следовательно, и взаимно независимы по свойствам многомерного нормального распределения (см. Приложение A.3.2).
Действительно:
|
|
|
(5.3) |
1 |
1 |
|
|
|
|
|
|
|
|
b |
− |
β |
= |
|
ε, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
N N |
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
(5.10) |
1 |
|
E(εε )=σ2 IN σ2 |
(5.12) |
|||
cov(e, b) = E(e (b − β) ) = |
E(Bεε 1N |
|
) |
= |
|
B1N |
= 0. |
||||||
N |
N |
Что и требовалось доказать.
Поэтому, в соответствии с определением случайной величины, имеющей t-распределение (см. также Приложение A.3.2):
√ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(b − β) |
N |
|
|
e e |
/(N |
− |
1) |
|
t |
|
, |
σ |
|
|
σ2 |
N −1 |
|||||||
|
|
|
|
|
|
5.1. Первичные измерения |
191 |
и после элементарных преобразований (сокращения σ и замены (5.5)) получается
следующий результат: |
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
√ |
|
|
|
|
|
|
|
|
|
|
(b − β) |
N |
|
|
t |
|
. |
|
|||
|
|
|
|
N −1 |
|
|||||||
|
|
|
sˆ |
|
|
|
|
|||||
Откуда: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
sˆ |
|
ˆ |
|
|
|
(5.15) |
||
|
β |
b ± √ |
N |
tN −1,1−θ , |
||||||||
ˆ |
− θ)100-процентный двусторонний квантиль tN −1 -распреде- |
|||||||||||
где tN −1,1−θ — (1 |
||||||||||||
ления. |
|
|
|
|
|
|
|
|
|
|
|
|
Это — операциональная (допускающая расчет) форма доверительного интервала для β. Как видно, для ее получения в (5.8) надо заменить не только σ на sˆ, но
и |
εˆ1−θ на |
ˆ |
ˆ |
tN −1,1−θ . Т. к. |
tN −1,1−θ > εˆ1−θ , использование (5.8) с простой заменой |
||
σ |
на sˆ действительно преуменьшает доверительный интервал (преувеличивает |
точность расчета). Но по мере роста N (объема информации), в соответствии со свойствами t-распределения, доверительный интервал сужается (растет точность расчета), и в пределе при N → ∞ он совпадает с доверительным интервалом (5.8) (с простой заменой σ на sˆ).
Важным является вопрос содержательной интерпретации доверительных интервалов.
Понятно, что в рамках подхода объективной вероятности непосредственно утверждения (5.8, 5.15) не могут считаться корректными. Величина β — детерминирована и не может с какой-либо вероятностью 0 < 1 − θ < 1 принадлежать конкретному интервалу. Она может либо принадлежать, либо не принадлежать этому интервалу, т.е. вероятность равна либо 1, либо 0. Потому в рамках этого подхода интерпретация может быть следующей: если процедуру построения доверительного интервала повторять многократно, то (1 − θ) · 100 процентов полученных интервалов будут содержать истинное значение измеряемой величины.
Непосредственно утверждения (5.8, 5.15) справедливы в рамках подхода субъективной вероятности.
Рассмотренная модель (5.1) чрезвычайно идеализирует ситуацию: в экономике условия, в которых измеряются величины, постоянно меняются. Эти условия представляются некоторым набором факторов zj , j = 1, . . . , n, и модель «измерения» записывается следующим образом:
n
xi = zij αj + β + εi, i = 1, . . . , N ,
j=1
где zij — наблюдения за значениями факторов, αj , j = 1, . . . , n, β — оцениваемые параметры.
192 Глава 5. Случайные ошибки
Такая модель — это предмет регрессионного анализа. Рассмотренная же модель (5.1) является ее частным случаем: формально — при n = 0, по существу —
при неизменных по наблюдениям значениях факторов zij = zc |
( c — const), так |
j |
zcαj + β. |
что оцениваемый в (5.1) параметр β в действительности равен |
|
|
j |
Прежде чем переходить к изучению этой более общей модели, будут рассмотрены проблемы «распространения» ошибок первичных измерений (в этой главе) и решены алгебраические вопросы оценки параметров регрессии (следующая глава).
5.2. Производные измерения
Измеренные первично величины используются в различных расчетах (в производных измерениях), и результаты этих расчетов содержат ошибки, являющиеся следствием ошибок первичных измерений. В этом пункте изучается связь между ошибками первичных и производных измерений, или проблема «распространения» ошибок первичных измерений. Возможна и более общая трактовка проблемы: влияние ошибок в исходной информации на результаты расчетов.
Пусть xj , j = 1, . . . , n, — выборочные (фактические) значения (наблюдения, измерения) n различных случайных величин, βj — их истинные значения, εj — ошибки измерений. Если x, β, ε — соответствующие n-компонентные вектор-
строки, то x = β + ε. Предполагается, что E(ε) = 0 и ковариационная матрица ошибок E(ε ε) равна Ω.
Пусть величина y рассчитывается как f (x). Требуется найти дисперсию σy2 ошибки εy = y − f (β) измерения (расчета) этой величины.
Разложение функции f в ряд Тэйлора в фактической точке x по направлению β − x ( = −ε), если в нем оставить только члены 1-го порядка, имеет вид: f (β) =
= y − εg (заменяя « ≈ » на « = ») или εy = εg, где g — градиент f |
в точке x |
|||
(вектор-столбец с компонентами gj = |
∂f |
(x)). |
|
|
|
|
|||
|
|
∂xj |
|
|
Откуда E (εy ) = 0 и |
|
|
|
|
σy2 = E εy2 |
|
|
E(ε ε)=Ω |
(5.16) |
= E g ε εg = g Ωg. |
Это — общая формула, частным случаем которой являются известные формулы для дисперсии среднего, суммы, разности, произведения, частного от деления и др.
|
σ2 |
ω |
Пусть n = 2, Ω = |
1 |
. |
|
||
|
ω |
σ2 |
|
|
2 |