
- •Тема 5. Трудности эконометрических исследований План лекции
- •1. Мультиколлинеарность и ее влияние на оценки параметров модели
- •Совершенная мультиколлинеарность
- •Несовершенная мультиколлинеарность
- •План действий
- •Наиболее характерные признаки мультиколлинеарности:
- •Методы, которые могут быть использованы для смягчения мультиколлинеарности, делятся на две категории:
- •Теоретические ограничения
- •Внешние эмпирические оценки
- •2. Гетероскедастичность и ее влияние на свойства оценок параметров модели Понятие гетероскедастичности
- •Отрицательные последствия гетероскедастичности ошибок
- •Причины возникновения гетероскедастичности
- •Метод взвешенных наименьших квадратов (Взвешенный мнк)
- •Предпосылки к выбору весов
- •Замечание
- •Обобщенный метод наименьших квадратов (метод Эйткена)
- •Обнаружение гетероскедастичности
- •Обнаружение гетероскедастичности на основе графического анализа остатков
- •3. Автокорреляция остатков
- •Закономерности поведения последовательных отклонений
- •Тест Дарбина-Уотсона на наличие или отсутствие автокорреляции
- •Как в общем случае выглядят примерно критические величины статистики dw?
Тема 5. Трудности эконометрических исследований План лекции
Мультиколлинеарность и ее влияние на оценки параметров модели.
Гетероскедастичность и ее влияние на свойства оценок параметров модели.
Автокорреляция остатков.
Прежде, чем использовать построенную эконометрическую модель, важно выяснить, выполнялись ли предпосылки применения обычного МНК, поскольку от этого зависит, обладают ли оценки параметров модели нужными свойствами и справедливы ли выводы по t- и F-критериям, определяющим значимость оценок параметров регрессии и коэффициента детерминации. Особенно важно провести проверку:
на отсутствие мультиколлинеарности – некоррелированность объясняющих переменных;
на гомоскедастичность – является ли дисперсия остатков постоянной;
на отсутствие автокорреляции остатков – являются ли остатки модели независимыми.
Рассмотрим некоторые проблемы, часто возникающие при практическом использовании регрессионных моделей.
1. Мультиколлинеарность и ее влияние на оценки параметров модели
Одним из условий классической регрессионной модели является предположение о линейной независимости объясняющих переменных.
На практике нередко приходится сталкиваться с ситуацией, когда полученная регрессия является “плохой”, т.к. t-статистики оценок большинства параметров малы, что свидетельствует о несущественности соответствующих объясняющих переменных. В то же время F-статистика может быть достаточно большой, что говорит о значимости регрессии в целом. Одна из возможных причин такого явления носит название мультиколлинеарности и возникает при наличии высокой корреляции между объясняющими переменными (регрессорами).
Мультиколлинеарность – это понятие, которое используется для описания проблемы, когда нестрогая линейная зависимость между объясняющими переменными приводит к получению ненадежных оценок параметров регрессии.
Мультиколлинеарность – это коррелированность двух или нескольких объясняющих переменных в уравнении регрессии.
Проблема мультиколлинеарности характерна только для случая множественной регрессии, поскольку в парной регрессии лишь одна объясняющая переменная.
Оценка параметра регрессии может оказаться незначимой не только из-за несущественности данного фактора, но и из-за того, что трудно разграничить воздействие на зависимую переменную двух или нескольких факторов. Это бывает в том случае, когда какие-то факторы линейно связаны между собой (коррелированы) и меняются синхронно. Связь зависимой переменной с изменениями каждого из них можно определить, только если в число объясняющих переменных включается лишь один из этих факторов.
Совершенная мультиколлинеарность
Природа мультиколлинеарности нагляднее всего может быть продемонстрирована на примере совершенной мультиколлинеарности (полной коллинеарности), то есть строгой линейной связи между объясняющими переменными.
Пример 5.1.
Рассмотрим следующую регрессионную модель:
,
где
С - потребление;
S - зарплата, получаемая по месту основной работы;
N - доход, получаемый вне основного места работы;
T - полный доход.
Если с учетом равенства T=S+N переписать исходную модель в виде
,
то становится
ясно, что оценить можно лишь три
параметра
,
и
,
а не четыре исходных.
Пример 5.2.
Если в модели
, (5.1)
объясняющие
переменные
и
связаны линейным соотношением
,
то исходная модель сводится к модели парной линейной регрессии
, (5.2)
в котором могут
быть получены оценки параметров
и
.
Последнее уравнение
представляет собой одно уравнение с
двумя неизвестными
и
,
которые найдены по отдельности,
естественно, быть не могут. Следовательно,
мы не можем оценить параметры
и
,
и, соответственно, разделить вклады
переменных
и
в объяснение поведения переменной Y.
Таким образом, совершенная мультиколлинеарность не позволяет оценить параметры регрессии и разделить вклады объясняющих переменных в объяснение поведения зависимой переменной.