Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

магистры Эконометр мод-е / из эконометрики / Лекция5-мультиколлинеарность

.pdf
Скачиваний:
26
Добавлен:
10.05.2015
Размер:
177.21 Кб
Скачать

1

ЛЕКЦИЯ 8 Автокорреляция остатков. Обобщенный МНК.

1. Автокорреляция остатков.

2. Обобщенный МНК.

1 Автокорреляция ошибок.

1.1 Авторегрессионный процесс первого порядка

Ранее уже упоминалось, корреляция между наблюдениями хотя бы одного фактора, которая приводит к автокорреляции остатков, возникает чаще всего в том случае, когда наблюдения факторов представляют собой ВР.

Применение обычного метода наименьших квадратов к этой системы да¼т несмещенные и состоятельные оценки параметров, однако можно показать, что оценка дисперсии оказывается смещ¼нной вниз, что может отрицательно сказать при проверке гипотез о значимости коэффициентов. Образно говоря, МНК рисует более оптимистичную картину регрессии, чем есть на самом деле.

Как и раньше, рассмотрим модель

yt = ¯1 + ¯2xt2 + ¢ ¢ ¢ + ¯mxtm + "t;

или в матричной форме

Y = XB + ":

(1)

 

Один из наиболее простых способов уч¼та коррелированности ошибок (в разные моменты времени) состоит в предложении, что случайная последовательность {"t, t=1; : : : ; n} образует авторе-

грессионный процесс первого порядка. Это означает, что ошибки удовлетворяют реккурентному

соотношению

"t = ½"1

+ ºt;

(2)

 

ãäå {ºt, t=1; : : : ; n} последовательность независимых нормально распредел¼нных случайных величин с нулевым средним и постоянной дисперсией ¾º2, à ½ некоторый параметр, называемый коэфициентом авторегрессии (j½j<1). Строго говоря, для полного описания модели надо

определить "0. Будем считать, что "0 нормальная случайная величина с нулевым средним и дисперсией ¾"2=¾º2(1¡½2), не зависящая от ºt, t=1; : : : n. Из дальнейшего станет ясно, почему

ó "0 именно такие параметры. Взяв математическое ожидание от обеих частей (2), получим M["t]=½M["1], откуда следует, что M["t]=0, t=1; : : : n. Поскольку ºt не зависит от º1; : : : ; º1, à "1 выражается через них же, то "1 è ºt независимы. Поэтому

M["2t ] = M[(½"1 + ºt)2] = ½2M["21] + M[ºt2] = ½2M["21] + ¾º2:

Легко проверяется, то если M["20]=¾º2=(1¡½2), òî

¾"2 = M["t2] = D["t] = ¾º2=(1 ¡ ½2);

t = 1; : : : ; n:

(3)

Умножая (2) на "1 и вновь пользуясь независимостью "1 è ºt, получим

 

M["

; "

1

] = Cov("

; "

1

) = ½D["

1

] = ½¾2:

(4)

t

 

t

 

 

"

 

Аналогично можно получить, что Cov("t; "t¡k)=½k¾"2, k=6t. Таким образом, последовательность f"tg образует стационарный случайный процесс (именно этим обстоятельством диктовался вы-

бор параметров начальной величины "0). На самом деле, с течением времени зависимость "t îò "0 быстро уменьшается, поэтому в большинстве книг по эконометрике проблему начальных условий для f"tg просто не рассматривают, неявно подразумевая, что процесс (2) при любом начальном значении быстро сходится к стационарному. Отметим также, что условие j½j<1 является необходимым для стационарности.

2

Из (4) следует, что

½ = Cov("t; "1)"2 = Cov("t; "1)=(D["t]1=2D["1]1=2);

ò.å ½ есть в точности коэффициент корреляции между двумя соседними ошибками. Пользуясь

выражением для коэффициента ковариации общего вида, можно выписать ковариационную матрицу случайного вектора ":

 

 

¾º2

0 ½

1

½

: : : ½21

- = 1

 

½2

B

1

½

½2

: : : ½1

 

 

:½:2:

:½: :

:1: :

:: :: :: ½:n:¡:3C

 

 

¡

 

B

 

½2 ½3

: : : 1

C

 

 

 

 

B½1

C

 

 

 

 

B

 

 

 

 

C

 

 

 

 

@

 

 

 

 

A

1.2 Оценивание в модели с авторегрессией Значение ½ известно. В этом случае для оценивания системы (1) можно применить обоб-

щ¼нный метод наименьших квадратов.

В частности, возможно применение следующих преобразований. Запишем уравнение регрессии в момент времени t:

yt = ¯1 + ¯2xt2 + ¢ ¢ ¢ + ¯mxtm + "t;

(5)

ãäå t-я компонента вектора y представляет значение зависимой переменной в момент времени t, и для момента времени 1 (t ¸ 2)

y1 = ¯1 + ¯2x1;2 + ¢ ¢ ¢ + ¯mx1;m + "1

умножим обе части последнего уравнения на ½ и вычтем почленно из (5). Тогда с уч¼том (2) получим

yt ¡ ½y1 = ¯1(1 ¡ ½) + ¯2(xt2 ¡ ½x1;2) + ¢ ¢ ¢ + ¯m(xt;m ¡ ½x1;m) + ºt;

(6)

Ïðè t=1 достаточно обе части уравнения (5) умножить на p

 

 

:

 

 

 

1 ¡ ½2

 

p

 

y1 = p

 

¯1 + p

 

x12¯2 + ¢ ¢ ¢ + p

 

x1m¯m + p

 

"1:

(7)

1 ¡ ½2

1 ¡ ½2

1 ¡ ½2

1 ¡ ½2

1 ¡ ½2

В системе (6), (7) ошибки удовлетворяют условиям уже обычной регрессионной модели. Действительно, в (6) случайные âåëè÷èíû t; t=2; : : : ; ng независимы и имеют постоянную дис-

персию ¾º2

, à2в (7) ошибка

1¡½2²1 не зависит от t; t=2; : : : ; ng и, согласно (3), также имеет

дисперсию ¾º.

p

Примечание. На практике часто опускают преобразование (7), игнорируя тем самым первое

наблюдение. С одной стороны, благодаря этому, преобразование исходной модели (1) становится

единообразным. В частности, для получения оценки параметра ¯1 достаточно оценку свободно-

го члена в (6) разделить на (1¡½). С другой стороны, отбрасывание первого наблюдения может привести к потере важной информации, особенно в выборках небольшого размера.

Значение ½ неизвестно. Ситуации, когда параметр авторегрессии ½ известен, встречаются крайне редко. Поэтому возникает необходимость в процедурах оценивания при неизвестном ½.

Как правило, они имеют итеративный характер. Опишем три наиболее употребительные. Мы не будем устанавливать сходимость этих процедур, практика их применения показала, что они достаточно эффективны.

Процедура Кохрейна-Оркатта (Cochrane-Orcutt). Начальным шагом этой процедуры является применение обычного метода наименьших квадратов к исходной системе (1) и получение соответствующих остатков e=(e1; : : : ; en)T . Далее,

3

1.в качестве приближ¼нного значения ½ бер¼тся его МНК-оценка r в регрессии et=½e1+ºt;

èнаходятся МНК-оценки ^

2.проводится преобразование (6) (или (6), (7)) при ½=r ¯ вектора

параметров ¯;

^

3. строится новый вектор остатков e=Y ¡X¯;

4. процедура повторяется,начиная с п. 1.

Процесс обычно заканчивается, когда очередное приближение ½ мало отличается от преды-

дущего. Иногда просто фиксируется количество итераций. Процедура Кохрейна-Оркатта реализована в большинстве экономических компьютерных программ. При е¼ использовании может случиться, что значение параметра ½ будет найдено неточно. Это связано с тем, что при его

оценивании может быть фактически найден локальный, а не глобальный минимум квадратов отклонений в регрессии.

Процедура Хилдрета-Лу (Hildreth-Lu). Суть процедуры достаточно проста. Из интервала (¡1; 1) возможного изменения коэффициента ½ берутся последовательно некоторые значения

(например, числа с постоянным шагом 0.1 или 0.05) и для каждого из них проводится оценивание преобразованной системы (6). Определяется то значение этого параметра, для которого сумма квадратов отклонений в (6) минимальна. Затем в некоторой окрестности этого значе- ния устраивается более мелкая сетка и процесс повторяется. Итерации заканчиваются, когда будет достигнута желаемая точность. Время работы процедуры, очевидно, сокращается,если есть априорная информация об области изменения параметра ½.

1.3 Тест Дарбина-Уотсона на наличие или отсутствие корреляции по времени

Большинство тестов на наличие корреляции по времени в ошибках системы (1) используют следующую идею: если корреляция есть у ошибок ", то она присутствует и в остатках e, ïîëó-

чаемых после применения к (1) обычного метода наименьших квадратов. Здесь мы рассмотрим только одну реализацию этого подхода. Пусть нулевая гипотеза состоит в отсутствии корреляции, т.е. H0: ½=0. В качестве альтернативной может выступать либо просто H1: "íå H0", ëèáî

односторонняя гипотеза, например, H1: ½ > 0.

Наиболее широко используется тест Дарбина-Уотсона (Durbin-Watson). Он основан на ста-

тистике

n

n

:

(8)

 

DW = tP

 

=2(et ¡ e1)2

 

 

tP

et2

=1

 

Будем считать, что постоянный член включен в число регрессоров. Тогда нетрудно проверить, что эта статистика тесно связана с выборочным коэффициентом корреляции между et è e1:

ãäå

 

 

 

DW ¼ 2(1 ¡ r);

(9)

 

 

 

P

 

 

tPn

:

r

 

 

 

 

 

 

 

 

 

n

ete1

 

n

 

 

 

 

 

 

 

 

etet¡1

 

¼

 

t=2

 

¼

=2

 

 

 

 

 

 

 

P

 

 

 

 

 

n

n 1

 

 

 

 

 

 

P

P

 

e2

 

 

 

 

 

¡

 

 

 

 

st=2 et2 t=1 et2

 

t=1

t

Понятен и содержателен смысл статистики DW : если между et è e1 имеется достаточно вы- сокая положительная корреляция, то в определенном смысле et è e1 близки друг к другу и величина статистики DW ìàëà (r ! 1). Отсутствие кореляции означает, что DW близка к 2

(статистика DW лежит в диапазоне [0; 2]). Проблема, состоит в том, что распределение DW зависит не только от числа наблюдений n и количества регрессоров m, но и от всей матрицы X, поэтому нельзя составить таблицы значений DW для различных доверительных вероятностей (нельзя же составить таблицу критических значений dW для всей матриц X!). Тем не менее, Дарбин и Уотсон доказали, что существует две границы, обычно обозначаемые du è dl, du>dl

(10) матрица независимых переменных,

4

(u = upper верхняя, l = low нижняя), которые зависят лишь от n, m и уровня значи-

мости (а следовательно, могут быть затабулированы) и обладают следующим свойством: если DW >du, òî DW > dòàáë и, значит, гипотеза H0 принимается, а если DW <dl, òî DW <dòàáë, è

гипотеза H0 отвергается в пользу H1. В случае dl<DW <du ситуация неопределенна, т.е. нельзя

высказаться в пользу той или иной гипотезы.

Наличие зоны неопределенности, конечно, представляет определенные трудности при использовании теста Дарбина-Уотсона. Ее ширина может быть довольно значительной. К примеру, при n=19, m=3 она образует интервал (0.218, 0.463). Поэтому многие дальнейшие исследо-

вания были направлены на построение таких тестов, которые сужают зону неопределенности.

2 Обобщенный МНК.

Одно из предположений классической регрессионной модели состоит в том, что случайные ошибки некоррелированы между собой и имеют постоянную дисперсию. В тех случаях, когда хотя бы одно из этих предположения нарушается, возможно использование обобщенного МНК.

Рассматрим так называемую обобщенную регрессионную модель

Y = X¯ + ";

ãäå Y n £ 1 вектор независимых переменных, X n £ k

¯k £ 1 вектор неизвестных параметров, " n £ 1 вектор случайных ошибок, причем:

1)матрица X неслучайна и имеет полный ранг;

2)M["]=0;

3)D["]=-, и матрица - положительно определена (-6=¾2En).

Иными словами, обобщенная модель отличается от классической только условием 3).

Применение обычного метод наименьших квадратов к системе (10) дает следующие резуль-

таты (их легко доказать):

 

²

оценка ^

 

¯ является несмещенной оценкой,

, получаемая при использовании обычного

² оценка матрицы ковариаций D^[¯^]=^¾2(XT X)¡1

 

 

метода наименьших квадратов, является смещенной.

²

оценка ^

 

¯ является состоятельной оценкой

 

² но не будет эффективной оценкой (оптимальной в смысле теоремы Маркова-Гаусса).

Для получения эффективной оценки надо воспользоваться так называемым обобщенным

методом наименьших квадратов (ОМНК).

В ОМНК матрица ковариаций ошибок - выступает в качестве веса при построении критерия

ÌÍÊ:

Q(¯) = eT -¡1e ) min :

 

Рассмотрим смысл этого преобразования. Т.к. матрица -n£n положительно определенная

и симметричная, то всегда можно найти разложение -¡1=P T P , ãäå Pn£n невырожденная матрица (известно из теории линейной алгебры), тогда

eT -¡1e = (Y ¡ X¯)T P T P (Y ¡ X¯) = (P Y ¡ P X¯)T (P Y ¡ P X¯):

Таким образом, вместо классической модели (10) мы МНК решаем модель

P Y = P X¯ + P ²; èëè Y ¤ = X¤¯ + "¤;

(11)

ãäå Y ¤=PY , X¤=PX, "¤=P", причем M["¤]=0 è D["¤]=P-PT =En (поскольку из определения PT =-¡1P. Кроме того, rang(X¤)=m, òàê êàê P невырождена. Это означает, что для модели (11)

выполнены условия теоремы Гаусса-Маркова и, следовательно, оптимальной в классе несмещенных и линейных по Y ¤ оценок вектора ¯ является оценка

^

¯¤ = (X¤T X¤)¡1X¤T Y ¤ = (XT PT PX)¡1XT PT PY = (XT -¡1X)¡1XT -¡1Y;

Справедлива

5

Теорема. Айткена. В классе линейных несмещенных оценок вектора ¯ для обобщенной регрес-

сионной модели оценка

¯^¤ = (X0-¡1X)¡1X0-¡1Y

(12)

 

имеет наименьшую матрицу ковариаций.

Доказательство следует из приведенных выше рассуждений. Найдем матрицу ковариаций для оценок параметров модели. Так как D[Y ]=-, то из (12) непосредственно следует, что

^

D[¯¤] = (XT -¡1X)¡1: (13)

Оценку ¯^¤ часто называот ¯^GLS (GLS, Generalized Least Squares). Нетрудно проверить, что

åñëè - = ¾

2

I

, т.е. модель является классической, то ^

^

 

¯GLS = ¯, как и следовало ожидать.

Проверять гипотезы о наличии линейных ограничений можно как непосредственно, исполь-

зуя (13), так и с помощью вспомогательной регрессии (11).

Для обобщенной регрессионной модели, в отличие от классической, коэффициент детерми-

нации

 

^

T

^

 

R2 = 1

 

 

¡

(Y ¡ X¯GLS)

 

(Y ¡ X¯GLS)

 

P(yi ¡ y¹)2

 

не может служить удовлетворительной мерой качества подгонки. В общем случае он даже не обязан лежать в интервале [0; 1], а добавление или удаление независимой переменной не

обязательно приводит к его увеличению или уменьшению.

Подчеркнем еще раз, что для применения ОМНК необходимо знать матрицу -, ÷òî íà

практике бывает крайне редко. Поэтому вполне естественным кажется такой способ: оценить (каким-нибудь образом) матрицу -, а затем использовать эту оценку в формуле (12) вместо

-. Этот подход составляет суть так называемого доступного обобщенного метода наименьших квадратов. Следует понимать, что в общем случае матрица - содержит n(n+1)=2 неизвестных

параметров (в силу ее симметричности) и, имея только n наблюдений, нет никакой надежды

получить для нее "хорошую"оценку. Поэтому для получения содержательных результатов приходится вводить дополнительные условия на структуру матрицы - (см. корректировку моделей

при гетероскедастичности и автокорреляции остатков по времени).