
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Глава 8. Оценка спроса: множественный регрессионный анализ
- •Оценочные коэффициенты и тестовая статистика
Глава 8. Оценка спроса: множественный регрессионный анализ
О тметим, что ^-критерий реализуется путем сравнения расчетных значений, выведенных на распечатку, с критическими значениями из табл. Н.
f(d)
Отвергается Hq, |
|
|
|
Отвергается h |
'о- |
||
положительная |
|
|
|
отрицательная |
|||
автокорреляция |
|
/ \ |
|
автокорреляция |
|||
существует |
Нет |
/ \ |
Нет |
существует |
|
||
|
решения |
/ \ |
решения |
|
|
||
|
|
/ Принимается \ |
|
|
|
||
|
|
' Но либо Но*, |
ч |
|
|
||
|
|
либо оба |
|
|
|
||
|
Ш |
|
|
|
|
4-d,
4-d
Примечание: Hq — нет положительной автокорреляции; Hq* - нет отрицательной автокорреляции.
Рис. 8. б. Способы решений по ^-статистике Дурбина-Ватсона
Проверка осуществляется для каждой гипотезы отдельно или в совокупности.
Но: положительной автокорреляции не существует;
Н*: отрицательной автокорреляции не существует.
Если нулевая гипотеза, #0, состоит в том, что в ряду не существует положительной корреляции, то если
d < dL: отвергаем Но;
d > dv\ принимаем Яо;
dL< d < dv: критерий ни о чем не говорит.
Если нулевая гипотеза, Но*, состоит в том, что в ряду не существует отрицательной автокорреляции, то если
d > 4 — dL: отвергаем Н*;
d < 4 — du: принимаем #0*;
4 — dv< d 4 4 - dL: критерий ни о чем не говорит.
Предположим, мы провели регрессионный анализ выборки из 30 точек для четырех независимых переменных. Для уровня значимости 0,05 находим dL = 1,14 ис^=1,74. Наша распечатка дает статистику Дурбина—Ватсона 0,98. Что можно сказать об этом?
Тестовый параметр 0,98 меньше, чем dv Следовательно, мы не имеем оснований предполагать существования положительной автокорреляции.
Далее изложен краткий обзор методов корректировки автокорреляции. Подробное их рассмотрение не входит в круг задач данной книги, но его можно найти в работах по эконометрике1.
1 См., например, Cujarati, D. Basic Econometrics, pp. 239—245.
254
Исходные предположения и специальные задачи множественного регрессионного анализа
Когда обнаружена автокорреляция, сначала надо рассчитать простую (парную) линейную регрессию для каждой переменной и определить, какая из них несет автокорреляцию. В общем случае дальнейшая корректировка требует преобразования данных для того, чтобы избежать передачи эффектов от одного наблюдения к другому. Обычно предполагают, что погрешность, |д., истинного уравнения регрессии
(24)
У, = Po + РД + uf
подчиняется схеме авторегрессии первого порядка
(25)
И, = рмм + е,, где р
— коэффициент автокорреляции; е( — погрешность регрессии.
Из уравнения (25) следует, что абсолютная величина р меньше 1 и что et имеет постоянную дисперсию и нулевое математическое ожидание и не является автокоррелированной. Если известно р, то с помощью линейной регрессии обобщенного разностного уравнения
(г, -
= po(i - р) + р.о; - Рх_х) +
(26)
можно найти р..
Проблема в том, что р обычно неизвестно и поэтому приходится искать какие-то другие способы. Один из таких способов называется методом первой разности. Метод первой разности требует допущения р = 1. При этом уравнение (26) сводится к виду
AY, =
(27)
Уравнение (27) легко использовать. Все, что здесь требуется, это рассчитать первые разности для зависимой и независимых переменных и затем использовать эти значения в регрессионном анализе. Однако, к сожалению, если предложение р = 1 неверно, то результаты построения регрессии по уравнению (27) будут отстоять от истинных значений дальше, чем в первоначальной регрессии. Лучше провести оценку р с помощью ^-статистики Дурбина—Ватсона как
(28)
где р — оценка р;
d — параметр ^-статистики.
Уравнение (28) подходит для больших выборок, но может оказаться неверным для малых. Поэтому была предложена лучшая формула1:
_
N2{\-d/2)
N2-k2
(29)
1 Н. Thief and A. L. Nagar, «Testing the Independence of Regression Disturbances», Journal of the American Statistical Association 56 (1961), pp. 793-806.
255