- •Линейная регрессия
- •1.2. Простая регрессия
- •6.3. Ортогональная регрессия
- •6.4. Многообразие оценок регрессии
- •6.5. Упражнения и задачи
- •Глава 7
- •Основная модель линейной регрессии
- •7.1. Различные формы уравнения регрессии
- •7.2. Основные гипотезы, свойства оценок
- •7.3. Независимые факторы: спецификация модели
- •7.4. Прогнозирование
- •7.5. Упражнения и задачи
- •Глава 8
- •Нарушение гипотез основной линейной модели
- •8.3. Автокорреляция ошибок
- •8.4. Ошибки измерения факторов
- •8.5. Метод инструментальных переменных
- •8.6. Упражнения и задачи Упражнение 1
7.2. Основные гипотезы, свойства оценок
Применение основной модели линейной регрессии корректно, если выполня- ются следующие гипотезы:
g1. Между переменными x и z существует линейная зависимость, и (7.10) является истинной моделью, т.е., в частности, правильно определен набор факторов z — модель верно специфицирована.
g2. Переменные z детерминированы, наблюдаются без ошибок и линейно независимы.
g3. E(ε) = 0.
g4. E (εεt) = σ2IN .
Гипотеза g2 является слишком жесткой и в экономике чаще всего нарушается. Возможности ослабления этого требования рассматриваются в следующей главе. Здесь можно заметить следующее: в тех разделах математической статистики, в ко- торых рассматривается более общий случай, и z также случайны, предполагается, что ε не зависит от этих переменных-регрессоров.
Основные гипотезы, свойства оценок 227
В этих предположениях a относится к классу линейных оценок, поскольку
a = LX, (7.26)
где L
(7.13)
1
и доказывается ряд утверждений о свойствах этих МНК-оценок.
a — несмещенная оценка α.
Действительно:
(7.26), g1
a = L (Zα + ε) = LZα + Lε
и
LZ=In+1
= α + Lε (7.27)
E (a)
g3
= α.
Ее матрица ковариации Ma удовлетворяет следующему соотношению:
в частности,
1 2
Ma = N σ M
−1, (7.28)
σ
σ2 1 2 2
jj
an+1
≡ σb ),
jj
Действительно:
(7.27) g4
−1 1
Ma = E ((a − α)(a − α)r)
= E (LεεrLr) = σ2LLr = σ2 (ZrZ)
= σ2M −1.
N
2
1
, и его можно получить, исполь-
z
зуя формулу (5.17) распространения ошибок первичных измерений.
zi − z¯
Действительно, a = di (xi − x¯), где di =
(zi − z¯)2
. Тогда
=
−
N
d +d = d
∂xi
N l i i l=1
←−−=−0−−→
2
σ2 2 2
(zi − z¯)2
σ 2
σ 2 1
a = σ
di = σ
(zi − z¯)2
2 = (z
= .
z
i
−
228 Глава 7. Основная модель линейной регрессии
Здесь важно отметить следующее.
Данная формула верна и в случае использования исходной или сокращенной за- писи уравнения регрессии, когда M — матрица ковариации регрессоров. Это сле- дует из (7.17). Но в такой ситуации она (эта формула) определяет матрицу ковариа- ции только оценок коэффициентов регрессии при объясняющих переменных, а дис-
N
как это следует также из (7.17).
Следует также обратить внимание на то, что несмещенность оценок при учете только что полученной зависимости их дисперсий от N свидетельствует о состоя- тельности этих оценок.
Иногда формулу (7.28) используют в другой форме:
Ma = σ2 .ZtZ.−1 . (7.29)
Несмещенной оценкой остаточной дисперсии σ2 является
sˆ2 = N
s2 = 1
ete. (7.30)
e N − n − 1 e
N − n − 1
Для доказательства этого факта сначала устанавливается зависимость МНК-оценок ошибок от их истинных значений, аналогично (5.10):
e = X − Za
g1, (7.27)
= Zα + ε − Z (α + Lε) = (IN − ZL) ε = Bε, (7.31)
и устанавливаются свойства матрицы B (аналогично тому, как это делалось в п. 5.1)
1
B = IN − ZL = IN − Z (ZrZ)−1 Zr = IN −
Эта матрица:
а) вещественна и симметрична: Br = B,
ZM −1Zr. (7.32)
N
б) вырождена и имеет ранг N − n − 1, т.к. при любом ξ ƒ= 0 выполняется BZξ = 0
(7.32)
(поскольку BZ
= 0), а в множестве Zξ в соответствии с g2 имеется точно n +1
линейно независимых векторов, в) идемпотентна: B2 = B,
г) положительно полуопределена в силу симметричности и идемпотентности:
ξrBξ = ξrB2ξ = ξrBrBξ “ 0.
Теперь исследуется зависимость остаточной дисперсии от σ2 :
1 (7.31) 1 1
s2
e = N ere =
εrBrBε = εrBε,
N N
2
E .s2. = 1 E (εrBε) g=4 σ
tr (B), (7.33)
bii
7.2. Основные гипотезы, свойства оценок 229
где tr(·)— операция следа матрицы, результатом которой является сумма ее диаго- нальных элементов.
Далее, в силу коммутативности операции следа матрицы
tr (B) = tr (IN ) − tr (ZL) = N − tr (LZ) = N − n − 1.
I
n+1
(См. Приложение A.1.2.)
Таким образом, E .s2. = N − n − 1 σ2 , и E 1
ere = σ2 .
e N
Что и требовалось доказать.
N − n − 1
Тогда оценкой матрицы ковариации Ma является (в разных вариантах расчета)
sˆ2
e M −1 =
N
ete
N (N − n − 1)
M −1 =
ete
N − n − 1
.ZtZ
.−1 , (7.34)
и, соответственно, несмещенными оценками дисперсий (квадратов ошибок) оценок параметров регрессии:
sˆ2
= ete
m−1, j = 1, . . . , n + 1 (s2
s2). (7.35)
aj N (N − n − 1) jj
an+1 ≡ b
Дисперсии a являются наименьшими в классе линейных несмещенных оце- нок, т.е. оценки a относятся к классу BLUE (см. п. 5.1). Это утверждение называ- ется теоремой Гаусса—Маркова.
Доказательство этого факта будет проведено для оценки величины crα, где c — любой детерминированный вектор-столбец размерности n + 1. Если в качестве c выбирать орты, данный факт будет относиться к отдельным параметрам регрессии.
(7.26)
МНК-оценка этой величины есть cra
= crLX , она линейна, не смещена,
т.к. E (cra) = crα, и ее дисперсия определяется следующим образом:
(7.28) σ2
var (cra) =
crM −1c. (7.36)
N
Пусть drX — любая линейная оценка crα, где d — некоторый детерминированный
вектор-столбец размерности N .
E (drX ) g=1
E (drZα + drε) g=3
drZα, (7.37)
и для того, чтобы эта оценка была несмещенной, т.е. чтобы drZα = crα, необходимо
drZ = cr. (7.38)
230 Глава 7. Основная модель линейной регрессии
Из (7.37) следует, что drX = E (drX )+ drε, и тогда
var (drX ) = E((drX − E(drX ))2) = E (drεεrd)
←−−−−dr−ε−−−→
g=4 σ2drd. (7.39)
И, наконец, в силу положительной полуопределенности матрицы B (из (7.32)):
var (drX ) − var (cra)
2
= σ drd −
2
(7.38)
=
= σ2dr
IN −
1 ZM −1Zr d
N
(7.32)
2
т.е. дисперсия МНК-оценки меньше либо равна дисперсии любой другой оценки в классе линейных несмещенных.
Что и требовалось доказать.
Теперь вводится еще одна гипотеза:
g5. Ошибки ε имеют многомерное нормальное распределение:
ε ∼ N 0, σ2IN .
(Поскольку по предположению g4 они некоррелированы, то по свойству мно- гомерного нормального распределения они независимы).
Тогда оценки a будут также иметь нормальное распределение:
a ∼ N (α, Ma) , (7.40)
в частности,
αj
aj
они совпадут с оценками максимального правдоподобия, что гарантирует их со- стоятельность и эффективность (а не только эффективность в классе линейных несмещенных оценок).
Применение метода максимального правдоподобия в линейной регрессии рас- сматривается в IV-й части книги. Здесь внимание сосредоточивается на других важных следствиях нормальности ошибок.
Поскольку
aj − αj N (0, 1), (7.41)
σaj
для αj можно построить (1 − θ)100-процентный доверительный интервал:
aj
.
± σaj
εˆ1−θ .
(7.42)
7.2. Основные гипотезы, свойства оценок 231
Чтобы воспользоваться этой формулой, необходимо знать истинное значение остаточной дисперсии σ2, но известна только ее оценка. Для получения соответ- ствующей формулы в операциональной форме, как и в п. 5.1, проводятся следую- щие действия.
Сначала доказывается, что
ete 2
σ2 ∼ χN −n−1. (7.43)
Это доказательство проводится так же, как и в пункте 5.1 для (5.9). Только теперь матрица B, связывающая в (7.31) оценки ошибок с их истинными значениями, имеет ранг N − n − 1 (см. свойства матрицы B, следующие из (7.32)), а не N − 1, как аналогичная матрица в (5.10).
Затем обращается внимание на то, что e и a не коррелированы, а значит, не коррелированы случайные величины в (7.41, 7.43).
Действительно (как и в 5.1):
a − α
и
(7.27)
= Lε
(7.31)
g4 −1
cov (a, e) = E ((a − α)er)
Что и требовалось доказать.
= E (LεεrB) = σ2 (ZrZ)
ZrB
←=−0→
= 0.
Поэтому по определению случайной величины, имеющей t-распределение:
√
σ.
ete
2 / (N − n − 1)
(7.35)
=
aj − αj
∼ tN −n−1. (7.44)
m
jj
sˆaj
Таким образом, для получения операциональной формы доверительного интер- вала в (7.42) необходимо заменить σaj на sˆaj и εˆ1−θ на tˆN −n−1,1−θ :
αj ∈ .
± sˆ t .
(7.45)
aj aj ˆN −n−1,1−θ .
Полезно заметить, что данный в этом пункте материал обобщает результаты, полученные в п. 5.1. Так, многие приведенные здесь формулы при n = 0 пре- образуются в соответствующие формулы п. 5.1. Полученные результаты можно использовать также и для проверки гипотезы о том, что αj = 0 (нулевая гипотеза).
232 Глава 7. Основная модель линейной регрессии
Рассчитывается t-статистика
tc
aj , (7.46)
sˆ
aj
которая в рамках нулевой гипотезы, как это следует из (7.44), имеет t-распреде- ление.
Проверка нулевой гипотезы осуществляется по схеме, неоднократно применя- емой в I части книги. В частности, если уровень значимости t-статистики sl (напо-
j
−n−
1,sl) не превышает θ (обычно 0.05), то нулевая
гипотеза отвергается с ошибкой (1-го рода) θ и принимается, что αj ƒ= 0. В про-
тивном случае, если нулевую гипотезу не удалось отвергнуть, считается, что j-й
фактор не значим, и его не следует вводить в модель.
Операции построения доверительного интервала и проверки нулевой гипоте- зы в данном случае в определенном смысле эквивалентны. Так, если построенный доверительный интервал содержит нуль, то нулевая гипотеза не отвергается, и на- оборот.
Гипотеза о нормальности ошибок позволяет проверить еще один тип нулевой гипотезы: αj = 0, j = 1, . . . , n, т.е. гипотезы о том, что модель некорректна и все факторы введены в нее ошибочно.
При построении критерия проверки данной гипотезы уравнение регрессии ис- пользуется в сокращенной форме, и условие (7.40) записывается в следующей форме:
. σ2 1.
a ∼ N
α, M − N
, (7.47)
где a и α — вектора коэффициентов при факторных переменных размерности n, M — матрица ковариации факторных переменных. Тогда
N .at − αt. M (a − α) ∼ χ2 . (7.48)
σ2 n
Действительно:
Матрица M −1 вслед за M является вещественной, симметричной и положительно полуопределенной, поэтому ее всегда можно представить в виде:
M −1 = CCr, (7.49)
где C — квадратная неособенная матрица.
Чтобы убедиться в этом, достаточно вспомнить (6.29) и записать аналогичные со- отношения: M −1Y = Y Λ, Y rY = YY r = In , Λ “ 0, где Y — матрица, столбцы
7.2. Основные гипотезы, свойства оценок 233
которой есть собственные вектора M −1 , Λ — диагональная матрица соответству- ющих собственных чисел. Тогда
M −1 = Y ΛY r = Y Λ0.5
Λ0.5Y r
(см. Приложение A.1.2). Вектор случайных величин u =
←−−C−→ ←−C−−r →
√N
−
σ
по построению E(u) = 0, и в силу того, что
(7.47) σ2 1
E ((a − α)(a − α)r) =
M − ,
N
− −
Следовательно, по определению χ2 случайная величина
2
(7.49)
= In.
σ ←−−M−−−→
имеет указанное распределение (см. Приложение A.3.2).
Как было показано выше, e и a не коррелированы, поэтому не коррелированы случайные величины, определенные в (7.43, 7.48), и в соответствии с определением случайной величины, имеющей F -распределение:
, ete
σ2
Отсюда следует, что при нулевой гипотезе α = 0
σ2 n ∼ Fn, N −n−1.
или
atMa (N − n − 1) (ete)
n
(7.9)
=
q (N − n − 1)
e
s2
R2 (N − n − 1) (1 − R2) n
= F c ∼ Fn, N
−n−
1. (7.50)
Сама проверка нулевой гипотезы проводится по обычной схеме. Так, если зна- чение вероятности pv статистики F c (величина, аналогичная sl для t-статистики) не превышает θ (например, 0.05), нулевая гипотеза отвергается с вероятностью ошибки θ, и модель считается корректной. В противном случае нулевая гипотеза не отвергается, и модель следует пересмотреть.
234 Глава 7. Основная модель линейной регрессии