Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Бардасов - Эконометрика.pdf
Скачиваний:
358
Добавлен:
06.03.2016
Размер:
2.47 Mб
Скачать

рассматриваемого периода, что в свою очередь может послужить причиной автокорреляции.

§ 2. Последствия автокорреляции

При применении МНК обычно выделяются следующие последствия автокорреляции:

1.Оценки параметров, оставаясь линейными и несмещенными, перестают быть эффективными. Следовательно, они перестают обладать свойствами наилучших линейных несмещенных оценок.

2.Дисперсии оценок являются смещенными. Часто дисперсии, вычисляемые по стандартным формулам, являются заниженными, что влечет за собой увеличение t-статистик. Это может привести к признанию статистически значимыми объясняющие переменные, которые в действительности таковыми могут и не являться.

T

2

 

 

3. Оценка дисперсии регрессии S e2 =∑

et

 

является сме-

 

 

t=1 T m1

 

щенной оценкой истинного значения σ2 , во многих случаях занижая его.

4. В силу вышесказанного выводы по t- и F-статистикам, определяющим значимость коэффициентов регрессии и коэффициента детерминации, возможно, будут неверными. Вследствие этого ухудшаются прогнозные качества модели.

§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона

Истинные значения отклонений εt , t =1, 2, ..., T неизвестны.

Поэтому выводы об их независимости осуществляются на основе оценок et , t =1, 2, ..., T , полученных из эмпирического уравнения

регрессии. Рассмотрим возможные методы определения автокорреляции.

Обычно проверяется некоррелированность отклонений et , t =1, 2, ..., T , являющаяся необходимым, но недостаточным условием независимости. Причем проверяется некоррелированность сосед-

91

них величин et. Соседними обычно считаются соседние во времени (при рассмотрении временных рядов) или по возрастанию объясняющей переменной X (в случае перекрестной выборки) значения et. Для них несложно рассчитать коэффициент корреляции, назы-

ваемый в этом случае коэффициентом автокорреляции первого

порядка:

ret et1 =

T

(et M (et ))(et1M (et1))

t=2

T

(etM (et))2

T

(et1M (et1))2

t=2

 

t=2

 

T

 

 

T

 

 

 

 

T

etet1

 

etet1

 

 

etet1

t=2

 

=

t=2

 

 

t=2

T

T

 

T1

 

T

 

T

 

 

 

et2

et2

et12

 

et

2

et

2

 

t=2

t=2

 

t=2

 

t=1

 

 

t=1

 

 

 

 

 

=

(4.3)

.

При этом учитывается, что математическое ожидание остатков

M (et )=0 .

На практике для анализа коррелированности отклонений вместо коэффициента корреляции используют тесно связанную с ним статистику Дарбина–Уотсона (DW), рассчитываемую по формуле:

 

T

(e

e

)2

 

 

 

 

 

 

 

DW =

t=2

t

 

t1

.

(4.4)

 

T

 

 

 

 

 

 

et2

 

 

 

 

t=1

 

 

 

 

 

Очевидно, что при больших T

 

 

 

 

 

 

DW 2

1

retet1)

.

 

 

 

(

 

 

 

Нетрудно заметить, что если et=et-1, то retet1 =1 и DW=0 (положительная автокорреляция). Если et=-et-1, то retet1 =-1 и DW=4 (от-

рицательная автокорреляция). Во всех других случаях 0DW 4 . При случайном поведении отклоненийretet1 =0 и DW=2. Таким

образом, необходимым условием независимости случайных откло-

92

нений является близость к двойке значения статистики Дарбина– Уотсона. Тогда, если DW 2 , мы считаем отклонения от регрессии случайными (хотя они в действительности могут и не быть таковыми). Это означает, что построенная линейная регрессия, вероятно, отражает реальную зависимость. Скорее всего, не осталось неучтенных существенных факторов, влияющих на зависимую переменную. Какая-либо другая нелинейная формула не превосходит по статистическим характеристикам предложенную линейную модель. В этом случае, даже когда R2 невелико, вполне вероятно, что необъясненная дисперсия вызвана влиянием на зависимую переменную большого числа различных факторов, индивидуально слабо влияющих на исследуемую переменную, и может быть описана как случайная нормальная ошибка.

Возникает вопрос, какие значения DW можно считать статистически близкими к 2? Для ответа на этот вопрос разработаны специальные таблицы критических точек статистики Дарбина–Уотсона, позволяющие при данном числе наблюдений T (или в прежних обозначениях n), количестве объясняющих переменных m и заданном уровне значимости α определять границы приемлемости (критические точки) наблюдаемой статистики DW. Для заданных α, T , m

в таблице указываются два числа: dl нижняя граница и du — верхняя граница.

Общая схема критерия Дарбина–Уотсона следующая:

1. По построенному эмпирическому уравнению регрессии

ˆyt =b0 +b1xt1+b2 xt 2+...+bm xtm

определяются значения отклонений et = yt ˆyt для каждого на-

блюдения t, t =1, ..., T .

2.По формуле (4.4) рассчитывается статистика DW.

3.По таблице критических точек Дарбина–Уотсона определяются два числа dl и du и осуществляют выводы по правилу:

(0DW <d l ) — существует положительная автокорреляция,

(d l DW <d u ) — вывод о наличии автокорреляции не определен, (d u DW <4d u ) — автокорреляция отсутствует,

93

(4d u DW <4d l ) — вывод о наличии автокорреляции не определен,

(4d l DW 4) — существует отрицательная автокорреляция.

Не обращаясь к таблице критических точек Дарбина–Уотсона, можно пользоваться «грубым» правилом и считать, что автокорреляция остатков отсутствует, если 1,5<DW <2,5 . Для более на-

дежного вывода целесообразно обращаться к табличным значениям. При наличии автокорреляции остатков полученное уравнение регрессии обычно считается неудовлетворительным.

Отметим, что при использовании критерия Дарбина–Уотсона необходимо учитывать следующие ограничения:

1.Критерий DW применяется лишь для тех моделей, которые содержат свободный член.

2.Предполагается, что случайные отклонения εt определяются

по итерационной схеме: εt = ρεt1t , называемой авторегрессионной схемой первого порядка AR(1). Здесь νt — случайный член, для которого условия Гаусса–Маркова выполняются.

3.Статистические данные должны иметь одинаковую периодичность (не должно быть пропусков в наблюдениях).

4.Критерий Дарбина–Уотсона не применим для регрессионных моделей, содержащих в составе объясняющих переменных зависимую переменную с временным лагом в один период, т. е. для так называемых авторегрессионных моделей вида:

yt = β0 1xt12 xt 2+...m xtm yt1t .

(4.5)

В этом случае имеется систематическая связь между одной из объясняющих переменных и одним из компонентов случайного члена. Не выполняется одна из основных предпосылок МНК — объясняющие переменные не должны быть случайными (не иметь случайной составляющей). Значение любой объясняющей переменной должно быть экзогенным (заданным вне модели), полностью определенным. В противном случае оценки будут смещенными даже при больших объемах выборок.

94

Для авторегрессионных моделей разработаны специальные тесты обнаружения автокорреляции, в частности h-статистика Дарбина, которая определяется по формуле:

 

n

 

h = ρˆ

1nD(g),

(4.6)

где ρˆ — оценка коэффициента ρ авторегрессии первого порядка εt = ρεt1t ( νt — случайный член), D(g ) — выборочная дисперсия коэффициента γ при лаговой переменной yt1 , n — число наблюдений.

При большом объеме выборки h распределяется как φ(0,1),

т. е. как нормальная переменная со средним значением 0 и дисперсией, равной 1 по нулевой гипотезе отсутствия автокорреляции. Следовательно, гипотеза отсутствия автокорреляции может быть отклонена при уровне значимости 5%, если абсолютное значение h больше, чем 1,96, и при уровне значимости 1%, если оно больше, чем 2,58, при применении двухстороннего критерия и большой выборке. В противном случае она не отклоняется.

Отметим, что обычно значение ρˆ рассчитывается по формуле: ˆρ=10,5DW , а D(g ) равна квадрату стандартной ошибки S g

оценки g коэффициента γ . Поэтому h легко вычисляется на основе данных оцененной регрессии.

Основная проблема при использовании этого теста заключается в невозможности вычисления h при nD(g)>1.

Пример 4.1. Пусть имеются следующие условные данные (X — объясняющая переменная, Y — зависимая переменная, табл. 4.1).

Таблица 4.1

Исходные данные (условные, ден. ед.)

t

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

X

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

Y

3

8

6

12

11

17

15

20

16

24

22

28

26

34

31

ˆ

Линейное уравнение регрессии имеет вид: Y =2,09+2,014X .

95

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]