Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Диплом / Algebra_lineynoy_regressii.docx
Скачиваний:
40
Добавлен:
24.03.2015
Размер:
2.49 Mб
Скачать

7.2. Основные гипотезы, свойства оценок

Применение основной модели линейной регрессии корректно, если выполня- ются следующие гипотезы:

g1. Между переменными x и z существует линейная зависимость, и (7.10) является истинной моделью, т.е., в частности, правильно определен набор факторов z — модель верно специфицирована.

g2. Переменные z детерминированы, наблюдаются без ошибок и линейно независимы.

g3. E(ε) = 0.

g4. E (εεt) = σ2IN .

Гипотеза g2 является слишком жесткой и в экономике чаще всего нарушается. Возможности ослабления этого требования рассматриваются в следующей главе. Здесь можно заметить следующее: в тех разделах математической статистики, в ко- торых рассматривается более общий случай, и z также случайны, предполагается, что ε не зависит от этих переменных-регрессоров.

    1. Основные гипотезы, свойства оценок 227

В этих предположениях a относится к классу линейных оценок, поскольку

a = LX, (7.26)

где L

(7.13)

1

= (ZtZ) Zt — детерминированная матрица размерности (n + 1) × N ,

и доказывается ряд утверждений о свойствах этих МНК-оценок.

      1. a — несмещенная оценка α.

Действительно:

(7.26), g1

a = L (Zα + ε) = LZα + Lε

и

LZ=In+1

= α + Lε (7.27)

E (a)

g3

= α.

      1. Ее матрица ковариации Ma удовлетворяет следующему соотношению:

в частности,

1 2

Ma = N σ M

1, (7.28)

σ

2

σ2 1 2 2

jj

aj = N m , j = 1, . . . , n + 1 (σ

an+1

≡ σb ),

jj

где m1 j-й диагональный элемент матрицы M 1.

Действительно:

(7.27) g4

1 1

Ma = E ((a − α)(a − α)r)

= E (LεεrLr) = σ2LLr = σ2 (ZrZ)

= σ2M 1.

N

2

Этот результат при n = 1 означает, что σ2 = σ

1

, и его можно получить, исполь-

z

a N s2

зуя формулу (5.17) распространения ошибок первичных измерений.

zi z¯

Действительно, a = di (xi x¯), где di =

(zi z¯)2

. Тогда

=

a 1

N

d +d = d

xi

N l i i l=1

←−−=0−−→

2

и в соответствии с указанной формулой:

σ2 2 2

(zi z¯)2

σ 2

σ 2 1

a = σ

di = σ

(zi z¯)2

2 = (z

= .

z

i

z¯)2 N s2

228 Глава 7. Основная модель линейной регрессии

Здесь важно отметить следующее.

Данная формула верна и в случае использования исходной или сокращенной за- писи уравнения регрессии, когда M — матрица ковариации регрессоров. Это сле- дует из (7.17). Но в такой ситуации она (эта формула) определяет матрицу ковариа- ции только оценок коэффициентов регрессии при объясняющих переменных, а дис-

N

персию оценки свободного члена можно определить по формуле σ2 .1 + z¯tM 1z¯.,

как это следует также из (7.17).

Следует также обратить внимание на то, что несмещенность оценок при учете только что полученной зависимости их дисперсий от N свидетельствует о состоя- тельности этих оценок.

Иногда формулу (7.28) используют в другой форме:

Ma = σ2 .ZtZ.1 . (7.29)

      1. Несмещенной оценкой остаточной дисперсии σ2 является

sˆ2 = N

s2 = 1

ete. (7.30)

e N n − 1 e

N n − 1

Для доказательства этого факта сначала устанавливается зависимость МНК-оценок ошибок от их истинных значений, аналогично (5.10):

e = X Za

g1, (7.27)

= Zα + ε − Z (α + Lε) = (IN ZL) ε = Bε, (7.31)

и устанавливаются свойства матрицы B (аналогично тому, как это делалось в п. 5.1)

1

B = IN ZL = IN Z (ZrZ)1 Zr = IN

Эта матрица:

а) вещественна и симметрична: Br = B,

ZM 1Zr. (7.32)

N

б) вырождена и имеет ранг N n − 1, т.к. при любом ξ ƒ= 0 выполняется BZξ = 0

(7.32)

(поскольку BZ

= 0), а в множестве Zξ в соответствии с g2 имеется точно n +1

линейно независимых векторов, в) идемпотентна: B2 = B,

г) положительно полуопределена в силу симметричности и идемпотентности:

ξrBξ = ξrB2ξ = ξrBrBξ “ 0.

Теперь исследуется зависимость остаточной дисперсии от σ2 :

1 (7.31) 1 1

s2

e = N ere =

εrBrBε = εrBε,

N N

2

E .s2. = 1 E rBε) g=4 σ

tr (B), (7.33)

e N N ←−−→

bii

7.2. Основные гипотезы, свойства оценок 229

где tr(·)— операция следа матрицы, результатом которой является сумма ее диаго- нальных элементов.

Далее, в силу коммутативности операции следа матрицы

tr (B) = tr (IN ) − tr (ZL) = N − tr (LZ) = N n − 1.

I

←−→

n+1

(См. Приложение A.1.2.)

Таким образом, E .s2. = N n 1 σ2 , и E 1

ere = σ2 .

e N

Что и требовалось доказать.

N n − 1

Тогда оценкой матрицы ковариации Ma является (в разных вариантах расчета)

sˆ2

e M −1 =

N

ete

N (N n − 1)

M −1 =

ete

N n − 1

.ZtZ

.1 , (7.34)

и, соответственно, несмещенными оценками дисперсий (квадратов ошибок) оценок параметров регрессии:

sˆ2

= ete

m1, j = 1, . . . , n + 1 (s2

s2). (7.35)

aj N (N n − 1) jj

an+1 b

      1. Дисперсии a являются наименьшими в классе линейных несмещенных оце- нок, т.е. оценки a относятся к классу BLUE (см. п. 5.1). Это утверждение называ- ется теоремой ГауссаМаркова.

Доказательство этого факта будет проведено для оценки величины crα, где c — любой детерминированный вектор-столбец размерности n + 1. Если в качестве c выбирать орты, данный факт будет относиться к отдельным параметрам регрессии.

(7.26)

МНК-оценка этой величины есть cra

= crLX , она линейна, не смещена,

т.к. E (cra) = crα, и ее дисперсия определяется следующим образом:

(7.28) σ2

var (cra) =

crM 1c. (7.36)

N

Пусть drX — любая линейная оценка crα, где d — некоторый детерминированный

вектор-столбец размерности N .

E (drX ) g=1

E (drZα + drε) g=3

drZα, (7.37)

и для того, чтобы эта оценка была несмещенной, т.е. чтобы drZα = crα, необходимо

drZ = cr. (7.38)

230 Глава 7. Основная модель линейной регрессии

Из (7.37) следует, что drX = E (drX )+ drε, и тогда

var (drX ) = E((drX E(drX ))2) = E (drεεrd)

←−−−−drε−−−→

g=4 σ2drd. (7.39)

И, наконец, в силу положительной полуопределенности матрицы B (из (7.32)):

var (drX ) − var (cra)

2

(7.36,7.40)

= σ drd

2

σ crM −1c N

(7.38)

=

= σ2dr

IN

1 ZM 1Zr d

N

(7.32)

2

= σ drBd “ 0,

т.е. дисперсия МНК-оценки меньше либо равна дисперсии любой другой оценки в классе линейных несмещенных.

Что и требовалось доказать.

Теперь вводится еще одна гипотеза:

g5. Ошибки ε имеют многомерное нормальное распределение:

ε ∼ N 0, σ2IN .

(Поскольку по предположению g4 они некоррелированы, то по свойству мно- гомерного нормального распределения они независимы).

Тогда оценки a будут также иметь нормальное распределение:

a N , Ma) , (7.40)

в частности,

αj

aj N

aj

, σ2 , j = 1, . . . , n + 1 (an+1 b, αn+1 ≡ β),

они совпадут с оценками максимального правдоподобия, что гарантирует их со- стоятельность и эффективность (а не только эффективность в классе линейных несмещенных оценок).

Применение метода максимального правдоподобия в линейной регрессии рас- сматривается в IV-й части книги. Здесь внимание сосредоточивается на других важных следствиях нормальности ошибок.

Поскольку

aj αj N (0, 1), (7.41)

σaj

для αj можно построить (1 − θ)100-процентный доверительный интервал:

aj

.

αj .

± σaj

εˆ1θ .

(7.42)

7.2. Основные гипотезы, свойства оценок 231

Чтобы воспользоваться этой формулой, необходимо знать истинное значение остаточной дисперсии σ2, но известна только ее оценка. Для получения соответ- ствующей формулы в операциональной форме, как и в п. 5.1, проводятся следую- щие действия.

Сначала доказывается, что

ete 2

σ2 ∼ χN n1. (7.43)

Это доказательство проводится так же, как и в пункте 5.1 для (5.9). Только теперь матрица B, связывающая в (7.31) оценки ошибок с их истинными значениями, имеет ранг N n − 1 (см. свойства матрицы B, следующие из (7.32)), а не N − 1, как аналогичная матрица в (5.10).

Затем обращается внимание на то, что e и a не коррелированы, а значит, не коррелированы случайные величины в (7.41, 7.43).

Действительно (как и в 5.1):

a − α

и

(7.27)

= Lε

(7.31)

g4 −1

cov (a, e) = E ((a − α)er)

Что и требовалось доказать.

= E (LεεrB) = σ2 (ZrZ)

ZrB

=0

= 0.

Поэтому по определению случайной величины, имеющей t-распределение:

.

σ.

(aj − αj ) N ,

ete

2 / (N n − 1)

(7.35)

=

aj αj

tN n1. (7.44)

m

−1 σ

jj

sˆaj

Таким образом, для получения операциональной формы доверительного интер- вала в (7.42) необходимо заменить σaj на sˆaj и εˆ1θ на tˆN n1,1θ :

αj .

± sˆ t .

(7.45)

aj aj ˆN n−1,1−θ .

Полезно заметить, что данный в этом пункте материал обобщает результаты, полученные в п. 5.1. Так, многие приведенные здесь формулы при n = 0 пре- образуются в соответствующие формулы п. 5.1. Полученные результаты можно использовать также и для проверки гипотезы о том, что αj = 0 (нулевая гипотеза).

232 Глава 7. Основная модель линейной регрессии

Рассчитывается t-статистика

tc

aj , (7.46)

sˆ

j =

aj

которая в рамках нулевой гипотезы, как это следует из (7.44), имеет t-распреде- ление.

Проверка нулевой гипотезы осуществляется по схеме, неоднократно применя- емой в I части книги. В частности, если уровень значимости t-статистики sl (напо-

j

минание: sl таково, что tc = tN

n

1,sl) не превышает θ (обычно 0.05), то нулевая

гипотеза отвергается с ошибкой (1-го рода) θ и принимается, что αj ƒ= 0. В про-

тивном случае, если нулевую гипотезу не удалось отвергнуть, считается, что j

фактор не значим, и его не следует вводить в модель.

Операции построения доверительного интервала и проверки нулевой гипоте- зы в данном случае в определенном смысле эквивалентны. Так, если построенный доверительный интервал содержит нуль, то нулевая гипотеза не отвергается, и на- оборот.

Гипотеза о нормальности ошибок позволяет проверить еще один тип нулевой гипотезы: αj = 0, j = 1, . . . , n, т.е. гипотезы о том, что модель некорректна и все факторы введены в нее ошибочно.

При построении критерия проверки данной гипотезы уравнение регрессии ис- пользуется в сокращенной форме, и условие (7.40) записывается в следующей форме:

. σ2 1.

a N

α, M N

, (7.47)

где a и α — вектора коэффициентов при факторных переменных размерности n, M — матрица ковариации факторных переменных. Тогда

N .at − αt. M (a − α) ∼ χ2 . (7.48)

σ2 n

Действительно:

Матрица M 1 вслед за M является вещественной, симметричной и положительно полуопределенной, поэтому ее всегда можно представить в виде:

M 1 = CCr, (7.49)

где C — квадратная неособенная матрица.

Чтобы убедиться в этом, достаточно вспомнить (6.29) и записать аналогичные со- отношения: M 1Y = Y Λ, Y rY = YY r = In , Λ “ 0, где Y — матрица, столбцы

7.2. Основные гипотезы, свойства оценок 233

которой есть собственные вектора M 1 , Λ — диагональная матрица соответству- ющих собственных чисел. Тогда

M 1 = Y ΛY r = Y Λ0.5

Λ0.5Y r

(см. Приложение A.1.2). Вектор случайных величин u =

←−−C−→ ←−C−−r

N

C1(a α) обладает следующими свойствами:

σ

по построению E(u) = 0, и в силу того, что

(7.47) σ2 1

E ((a − α)(a − α)r) =

M ,

N

− −

cov(u) = E (uur) = N C1E ((a α)(a α)r) Cr1 = C1M 1Cr1 σ2

Следовательно, по определению χ2 случайная величина

2

uru = N (ar − αr) Cr1C1 (a − α)

(7.49)

= In.

σ ←−−M−−−→

имеет указанное распределение (см. Приложение A.3.2).

Как было показано выше, e и a не коррелированы, поэтому не коррелированы случайные величины, определенные в (7.43, 7.48), и в соответствии с определением случайной величины, имеющей F -распределение:

, ete

σ2

N .at − αt. M (a − α) (N n − 1)

Отсюда следует, что при нулевой гипотезе α = 0

σ2 n Fn, N n−1.

или

atMa (N n − 1) (ete)

n

N

(7.9)

=

q (N n − 1)

e

s2

s2n Fn, N n−1,

R2 (N n − 1) (1 − R2) n

= F c Fn, N

n

1. (7.50)

Сама проверка нулевой гипотезы проводится по обычной схеме. Так, если зна- чение вероятности pv статистики F c (величина, аналогичная sl для t-статистики) не превышает θ (например, 0.05), нулевая гипотеза отвергается с вероятностью ошибки θ, и модель считается корректной. В противном случае нулевая гипотеза не отвергается, и модель следует пересмотреть.

234 Глава 7. Основная модель линейной регрессии

Соседние файлы в папке Диплом