Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ЭКОНОМЕТРИКА и математическая экономика / Эконометрика. Учебник продвинутый (2005)

.pdf
Скачиваний:
512
Добавлен:
20.04.2015
Размер:
4.02 Mб
Скачать

5.1. Первичные измерения

183

5.1. Первичные измерения

Пусть имеется N измерений xi , i = 1, . . . , N , случайной величины x, т.е. N наблюдений за случайной величиной. Предполагается, что измерения проведены в неизменных условиях (факторы, влияющие на x, не меняют своих значений), и систематические ошибки измерений исключены. Тогда различия в результатах отдельных наблюдений (измерений) связаны только с наличием случайных ошибок измерения:

xi = β + εi, i = 1, . . . , N,

(5.1)

где β — истинное значение x, εi — случайная ошибка в i-м наблюдении. Такой набор наблюдений называется выборкой.

Понятно, что это — идеальная модель, которая может иметь место в естественнонаучных дисциплинах (в управляемом эксперименте). В экономике возможности измерения одной и той же величины в неизменных условиях практически отсутствуют. Определенные аналогии с этой моделью возникают в случае, когда некоторая экономическая величина измеряется разными методами (например, ВВП — по производству или по использованию), и наблюдениями выступают результаты измерения, осуществленные этими разными методами. Однако эта аналогия достаточно отдаленная, хотя бы потому, что в модели N предполагается достаточно большим, а разных методов расчета экономической величины может быть в лучшем случае два-три. Тем не менее, эта модель полезна для понимания случайных ошибок.

Если X и ε — вектор-столбцы с компонентами, соответственно, xi

и εi ,

а 1N N -мерный вектор-столбец, состоящий из единиц, то данную модель мож-

но записать в матричной форме:

 

X = 1N β + ε.

(5.2)

Предполагается, что ошибки по наблюдениям имеют нулевое математическое ожидание в каждом наблюдении: E (εi) = 0, i = 1, . . . , N ; линейно не зависят

друг от друга: cov (εi, εj ) = 0, i = j; а их дисперсии по наблюдениям одинаковы: var (εi) = σ2 , i = 1, . . . , N или, в матричной форме: E (εε ) = IN σ2 , где σ2 — дисперсия случайных ошибок или остаточная дисперсия, IN — единичная матрица размерности N . Это — обычные гипотезы относительно случайных ошибок.

Требуется найти b и ei — оценки, соответственно, β и εi . Для этого используется метод наименьших квадратов (МНК), т.е. искомые оценки определяются

N

(xi

 

b)2

=

N

= e e

 

min!, где e вектор-столбец оценок ei .

так, чтобы

e2

i=1

 

 

 

i=1 i

 

 

184

 

 

 

 

 

 

Глава

5. Случайные ошибки

В результате,

 

 

 

 

 

 

 

 

 

 

1

N

 

 

1

 

 

 

 

b = x¯ =

 

x

=

1

X, e = X

1 b,

 

 

 

 

N i=1

i

 

N N

 

N

т.к. de e = 2 (xi − b) = 0. Кроме того, d2e e = 2N > 0, следовательно, в дан- db db2

ной точке достигается минимум, т.е. МНК-оценкой истинного значения измеряемой величины является, как и следовало ожидать, среднее арифметическое по наблюдениям, а среднее МНК-оценок остатков равно нулю:

e¯ = N1 1N (X − 1N b) = x¯ − b = 0.

Оценка b относится к классу линейных, поскольку линейно зависит от наблюдений за случайной величиной.

Полученная оценка истинного значения является несмещенной (т.е. ее математическое ожидание равно истинному значению оцениваемого параметра), что можно легко показать.

Действительно:

b =

1

(5.1)

1

 

 

1

 

 

 

 

xi =

 

 

(β + εi) = β +

 

 

εi,

(5.3)

N

N

N

 

 

β — детер-

1

 

 

 

 

 

 

 

минировано

E(εi )=0

 

 

 

E (b) = β +

 

E (εi) = β.

 

 

 

N

 

 

Что и требовалось доказать.

Однако несмещенной оценкой β является и любое наблюдение xi , т.к. из (5.1) следует, что E (xi) = β.

Легко установить, что оценка b лучше, чем xi , т.к. имеет меньшую дисперсию (меньшую ошибку), то есть является эффективной. Более того, b — наилучшая в этом смысле оценка во множестве всех возможных линейных несмещенных оценок. Ее дисперсия минимальна в классе линейных несмещенных оценок и опреде-

ляется следующим образом:

 

 

 

 

σ2

=

1

σ2,

(5.4)

 

b

 

N

 

 

 

 

 

 

т.е. она в N раз меньше, чем дисперсия

xi, которая, как это следует из (5.1),

равна σ2 .

 

 

 

 

5.1. Первичные измерения

185

Действительно, множество всех линейных оценок по определению представляется

следующим образом:

 

 

N

b =

dixi ,

i=1

где di — любые детерминированные числа.

Из требования несмещенности,

 

 

E (b ) = β,

 

следует, что di = 1, т.к.

 

 

 

 

 

di — детер-

 

E (b ) = E

 

минировано

di E (xi) = β di.

dixi

=

 

 

 

←−−→

 

 

 

β

Таким образом, множество всех линейных несмещенных оценок описывается так:

NN

b = dixi,

di = 1.

i=1

i=1

В этом множестве надо найти такую оценку (такие di ), которая имеет наименьшую дисперсию,

 

 

 

 

 

(5.1)

 

di + diεi,

 

 

 

 

 

 

 

 

b = dixi = β

 

 

 

 

 

 

 

 

 

 

 

 

←−−→

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=1

 

 

 

 

 

 

 

откуда b − β =

diεi , и можно рассчитать дисперсию b :

 

 

 

 

 

var(b ) = σb2 = E (b − E(b )2

=

 

 

 

2 E(εi2 )=σ2

 

 

 

 

 

 

= E

 

2

E(εi εi )=0

2

 

2

2

 

 

 

diεi

 

=

di

E(εi ) = σ

 

di .

Минимум

d2

при ограничении

di

= 1 достигается, если все

di

одинаковы

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

и равны

1

, т.е. если b = b. Отсюда, в частности, следует, что σ2 =

1

 

σ2 .

 

N

N

 

 

 

 

 

 

 

 

 

b

 

 

 

Что и требовалось доказать.

Такие оценки относятся к классу BLUE Best Linear Unbiased Estimators.

Кроме того, оценка b состоятельна (стремится при N → ∞ к истинному значению параметра), т.к. она несмещена и ее дисперсия, как это следует из (5.4), при N → ∞ стремится к 0.

186

Глава 5. Случайные ошибки

Чтобы завершить рассмотрение данного случая, осталось дать оценку остаточной дисперсии. Естественный «кандидат» на эту «роль» — дисперсия x :

s2 =

1

(xi − b)2 =

1

ei =

1

e e,

N

N

N

— дает смещенную оценку. Для получения несмещенной оценки остаточной дисперсии сумму квадратов остатков надо делить не на N , а на N − 1 :

 

1

 

sˆ2 =

N − 1 e e,

(5.5)

поскольку в векторе остатков e и, соответственно, в сумме квадратов остатков e e линейно независимых элементов только N − 1 (т.к. 1N e = 0). Этот факт можно доказать строго.

Если просуммировать по i соотношения (5.1) и поделить обе части полученного выражения на N , то окажется, что b = β + N1 εi . Кроме того, известно, что xi = β + εi = b + ei . Объединяя эти два факта можно получить следующее выражение:

1

 

 

ei = εi N

εi,

(5.6)

(т.е. оценки остатков равны центрированным значениям истинных случайных ошибок), и далее получить

 

1

2

 

2

 

2

1

 

 

2

 

 

 

 

 

 

 

 

e e =

εi

 

εi

= εi2

 

 

εi

+

 

 

 

εi

=

N

N

N

 

 

 

 

 

 

 

 

 

 

 

=

 

εi2

1

2

 

 

 

 

 

 

 

 

 

 

 

 

εi .

 

 

 

 

 

 

 

 

 

 

 

N

Наконец:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

E (e e)

E(εi2 )=σ2 , E(εi εi )=0

(N − 1) σ2,

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

т.е.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

E

1

e e = σ2.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N − 1

 

 

 

 

 

 

 

Что и требовалось доказать.

Теперь относительно случайных ошибок вводится дополнительное предположение: они взаимно независимы (а не только линейно независимы) и распределены нормально: εi NID 0, σ2 . NID расшифровывается как normally and

5.1. Первичные измерения

187

independently distributed (нормально и независимо распределенные случайные величины). Тогда становится известной функция плотности вероятности εi :

 

1

1

2

1

1

 

2

f (εi) = (2π)

2 σ1e

 

εi = (2π)

2 σ1e

 

(xi−β)

,

2σ2

2σ2

и функция совместной плотности вероятности (произведение отдельных функций плотности, так как случайные ошибки по наблюдениям взаимно независимы) (см. Приложение A.3.2):

 

N

1

2

f (ε1, . . . , εN ) = (2π)

2 σ−N e

 

(xiβ) .

2σ2

Эта функция рассматривается как функция правдоподобия L (σ, β), значения которой показывают «вероятность» (правдоподобность) появления наблюдаемых xi , i = 1, . . . , N , при тех или иных значениях σ и β. Имея такую функцию, можно воспользоваться для оценки параметров σ и β методом максимального правдоподобия (ММП): в качестве оценок принять такие значения σ и β, которые доставляют максимум функции правдоподобия (фактически предполагая, что, раз конкретные xi , i = 1, . . . , N реально наблюдаются, то вероятность их появления должна быть максимальной).

Обычно ищется максимум не непосредственно функции правдоподобия, а ее логарифма (значения этой функции при конкретных xi и конечных σ положительны, и их можно логарифмировать; эта операция, естественно, не меняет точки экстремума), что проще аналитически.

ln L (σ, β) =

N

ln 2π − N ln σ −

1

(xi − β)2.

2

2σ2

Ищутся производные этой функции по σ и β, приравниваются нулю и определяются искомые оценки:

 

ln L

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

(xi − β) = 0

β = x¯ = b,

 

 

∂β

σ2

 

 

 

ln L

=

N

+

1

ei2 = 0

σ2 =

1

 

ei2 = s2.

 

 

 

 

 

 

 

 

∂σ

σ

 

σ3

N

Это точка минимума, поскольку матрица 2-х производных

 

 

 

 

 

 

 

 

 

 

 

 

N 1

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

s2

2

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

в ней отрицательно определена.

188

Глава 5. Случайные ошибки

Таким образом, ММП-оценки β и εi совпадают с МНК-оценками, но ММПоценка σ2 равна не sˆ2, а s2 , т.е. является смещенной. Тем не менее, эта оценка состоятельна, т.к. при N → ∞ различия между sˆ2 и s2 исчезают.

Известно, что метод максимального правдоподобия гарантирует оценкам состоятельность и эффективность, т.е. они обладают минимально возможными дисперсиями (вообще, а не только в классе линейных несмещенных, как оценки класса

BLUE).

В рамках гипотезы о нормальности ошибок ε можно построить доверительный интервал для истинного значения параметра, т.е. интервал, в который это значение попадает с определенной вероятностью 1 − θ, где θ — уровень ошибки (аналогичен величинам sl и pv, введенным во 2-й и 4-й главах I части книги; в прикладных исследованиях уровень ошибки принимается обычно равным 0.05). Он называется (1 θ)100-процентным (например, при θ = 0.05 — 95-процентным) доверительным интервалом.

Следствием нормальности ε является нормальность b : b N

β,

σ2

. По-

N

этому

 

 

 

 

 

 

 

 

 

 

(b − β)

 

 

 

 

 

 

 

 

 

 

N

 

N (0, 1),

 

 

(5.7)

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и, по определению двустороннего квантиля (см. п. 2.3),

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(b − β)

N

 

εˆ1 θ ,

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

где εˆ1−θ — (1 θ)100-процентный двусторонний квантиль нормального распределения.

Откуда

 

σ

εˆ1−θ

(5.8)

β

b ± √N

искомый (1 θ)100-процентный доверительный интервал.

Ксожалению, на практике этой формулой доверительного интервала воспользоваться невозможно, т.к. она предполагает знание остаточной дисперсии σ2 . Известна же только ее оценка sˆ2.

Простая замена в (5.8) σ на sˆ будет приводить к систематическим ошибкам — к преуменьшению доверительного интервала, т.е. к преувеличению точности расчета.

Чтобы получить правильную формулу расчета, необходимо провести дополнительные рассуждения.

5.1. Первичные измерения

 

 

189

Прежде всего, доказывается, что

 

 

 

 

e e

χN2

1.

(5.9)

 

σ2

 

Справедливость этого утверждения достаточно очевидна, поскольку, как было показано выше, сумма квадратов e e имеет N − 1 степень свободы, но может быть доказана строго.

В матричной форме выражение (5.6) записывается следующим образом:

e = Bε,

(5.10)

где B = IN N1 1N 1N .

Матрица B размерности N × N :

а) вещественна и симметрична ( B = B), поэтому она имеет N вещественных корней, которые можно «собрать» в диагональной матрице Λ, и N взаимно ортогональных вещественных собственных векторов, образующих по столбцам матрицу Y . Пусть проведена надлежащая нормировка и длины этих собственных векторов равны 1. Тогда:

Y Y = IN , Y = Y 1, BY = Y Λ, B = Y ΛY ;

(5.11)

б) вырождена и имеет ранг N − 1. Действительно, имеется один и только один (с точностью до нормировки) вектор ξ = 0, который дает равенство = 0. Все компоненты этого единственного вектора одинаковы, т.к., как было показано выше, — центрированный ξ. В частности,

 

 

 

 

 

 

 

B1N = 0.

 

 

 

 

 

 

 

 

 

 

 

 

(5.12)

Это и означает, что ранг B равен N − 1;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

в) идемпотентна, т.е. B2 = B (см. Приложение A.3.2):

 

 

 

 

 

 

 

 

 

1

1N 1N

1

1N 1N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

B2 = IN

 

IN

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

N

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

1

1N

1

+

1

1

 

1

1

 

1

= B.

 

 

 

 

 

 

 

 

 

 

 

 

N 2

 

 

 

 

 

= IN N 1N 1N N

N

 

 

N

N

 

N

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

←−−→

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=N

 

 

 

 

 

 

 

 

 

 

 

 

 

←−−−−−−−−−−−−−−−−−−→

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=0

 

 

 

 

 

 

 

Далее, пусть

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u =

1

Y ε,

uj =

1

Y ε,

 

 

 

 

 

 

 

 

(5.13)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

σ

j

 

 

 

 

 

 

 

 

 

 

где Yj j -й собственный вектор матрицы B.

190

 

 

 

 

 

 

Глава 5. Случайные ошибки

Очевидно, что E (uj ) = 0, дисперсии uj

одинаковы и равны 1:

 

 

 

=

1

 

E(εε )=σ2 IN

 

(5.11)

 

 

E uj2

 

E Yj εε Yj

=

 

Yj Yj

= 1,

 

 

σ2

 

 

 

 

 

 

 

 

 

 

и u

j

 

 

 

 

 

 

 

 

взаимно независимы (при j = j ):

 

 

 

 

 

 

 

 

 

аналогично

(5.11)

 

 

 

 

E (uj uj ) = Yj Yj

= 0.

 

Тогда

e e (5.10)

σ2

=

1

 

B =B, B2

=B

1

 

(5.11)

1

 

 

(5.13)

 

 

ε B Bε

=

 

 

ε Bε

=

 

ε Y ΛY

ε

= u Λu.

(5.14)

σ2

 

σ2

σ2

Собственные числа матрицы B, как и любой другой идемпотентной матрицы, равны либо 1, либо 0 ( λ — любое собственное число, ξ— соответствующий собственный вектор):

= λξ,

 

λ2 = λ

λ =

0,

= B2ξ = Bξλ = λ2ξ

1.

и, поскольку ранг матрицы B равен N − 1, среди ее собственных чисел имеется N − 1, равных 1, и одно, равное 0. Поэтому (5.14), в соответствии с определением случайной величины, имеющей распределение χ2 , дает требуемый результат (см. также Приложение A.3.2).

Случайные величины, определенные соотношениями (5.7, 5.9), некоррелированы, а, следовательно, и взаимно независимы по свойствам многомерного нормального распределения (см. Приложение A.3.2).

Действительно:

 

 

 

(5.3)

1

1

 

 

 

 

 

 

 

 

b

β

=

 

ε,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(5.10)

1

 

E(εε )=σ2 IN σ2

(5.12)

cov(e, b) = E(e (b − β) ) =

E(Bεε 1N

 

)

=

 

B1N

= 0.

N

N

Что и требовалось доказать.

Поэтому, в соответствии с определением случайной величины, имеющей t-распределение (см. также Приложение A.3.2):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(b − β)

N

 

 

e e

/(N

1)

 

t

 

,

σ

 

 

σ2

N −1

 

 

 

 

 

 

5.1. Первичные измерения

191

и после элементарных преобразований (сокращения σ и замены (5.5)) получается

следующий результат:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(b − β)

N

 

 

t

 

.

 

 

 

 

 

N −1

 

 

 

 

sˆ

 

 

 

 

Откуда:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sˆ

 

ˆ

 

 

 

(5.15)

 

β

b ± √

N

tN −1,1−θ ,

ˆ

θ)100-процентный двусторонний квантиль tN −1 -распреде-

где tN −1,1−θ — (1

ления.

 

 

 

 

 

 

 

 

 

 

 

 

Это — операциональная (допускающая расчет) форма доверительного интервала для β. Как видно, для ее получения в (5.8) надо заменить не только σ на sˆ, но

и

εˆ1−θ на

ˆ

ˆ

tN −1,1−θ . Т. к.

tN −1,1−θ > εˆ1−θ , использование (5.8) с простой заменой

σ

на sˆ действительно преуменьшает доверительный интервал (преувеличивает

точность расчета). Но по мере роста N (объема информации), в соответствии со свойствами t-распределения, доверительный интервал сужается (растет точность расчета), и в пределе при N → ∞ он совпадает с доверительным интервалом (5.8) (с простой заменой σ на sˆ).

Важным является вопрос содержательной интерпретации доверительных интервалов.

Понятно, что в рамках подхода объективной вероятности непосредственно утверждения (5.8, 5.15) не могут считаться корректными. Величина β — детерминирована и не может с какой-либо вероятностью 0 < 1 − θ < 1 принадлежать конкретному интервалу. Она может либо принадлежать, либо не принадлежать этому интервалу, т.е. вероятность равна либо 1, либо 0. Потому в рамках этого подхода интерпретация может быть следующей: если процедуру построения доверительного интервала повторять многократно, то (1 − θ) · 100 процентов полученных интервалов будут содержать истинное значение измеряемой величины.

Непосредственно утверждения (5.8, 5.15) справедливы в рамках подхода субъективной вероятности.

Рассмотренная модель (5.1) чрезвычайно идеализирует ситуацию: в экономике условия, в которых измеряются величины, постоянно меняются. Эти условия представляются некоторым набором факторов zj , j = 1, . . . , n, и модель «измерения» записывается следующим образом:

n

xi = zij αj + β + εi, i = 1, . . . , N ,

j=1

где zij — наблюдения за значениями факторов, αj , j = 1, . . . , n, β — оцениваемые параметры.

192 Глава 5. Случайные ошибки

Такая модель — это предмет регрессионного анализа. Рассмотренная же модель (5.1) является ее частным случаем: формально — при n = 0, по существу —

при неизменных по наблюдениям значениях факторов zij = zc

( c const), так

j

zcαj + β.

что оцениваемый в (5.1) параметр β в действительности равен

 

j

Прежде чем переходить к изучению этой более общей модели, будут рассмотрены проблемы «распространения» ошибок первичных измерений (в этой главе) и решены алгебраические вопросы оценки параметров регрессии (следующая глава).

5.2. Производные измерения

Измеренные первично величины используются в различных расчетах (в производных измерениях), и результаты этих расчетов содержат ошибки, являющиеся следствием ошибок первичных измерений. В этом пункте изучается связь между ошибками первичных и производных измерений, или проблема «распространения» ошибок первичных измерений. Возможна и более общая трактовка проблемы: влияние ошибок в исходной информации на результаты расчетов.

Пусть xj , j = 1, . . . , n, — выборочные (фактические) значения (наблюдения, измерения) n различных случайных величин, βj — их истинные значения, εj — ошибки измерений. Если x, β, ε — соответствующие n-компонентные вектор-

строки, то x = β + ε. Предполагается, что E(ε) = 0 и ковариационная матрица ошибок E(ε ε) равна Ω.

Пусть величина y рассчитывается как f (x). Требуется найти дисперсию σy2 ошибки εy = y − f (β) измерения (расчета) этой величины.

Разложение функции f в ряд Тэйлора в фактической точке x по направлению β − x ( = −ε), если в нем оставить только члены 1-го порядка, имеет вид: f (β) =

= y − εg (заменяя « » на « = ») или εy = εg, где g — градиент f

в точке x

(вектор-столбец с компонентами gj =

∂f

(x)).

 

 

 

 

 

∂xj

 

Откуда E (εy ) = 0 и

 

 

 

 

σy2 = E εy2

 

 

E(ε ε)=Ω

(5.16)

= E g ε εg = g g.

Это — общая формула, частным случаем которой являются известные формулы для дисперсии среднего, суммы, разности, произведения, частного от деления и др.

 

σ2

ω

Пусть n = 2, Ω =

1

.

 

 

ω

σ2

 

 

2