Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
vse_voprosy-Ekzamen!!!.doc
Скачиваний:
62
Добавлен:
20.09.2019
Размер:
3.37 Mб
Скачать

15. Мультиколлинеарность: последствия, способы обнаружения, средства устранения. Тест.

Нередко приходится сталкиваться с ситуацией, когда полученная регрессия является «плохой», т.е. t-статистика большинства оценок малы, что свидетельствует о незначимости соответствующих независимых переменных. В то же время F-статистика м.б. достаточно большой, что говорит о значимости регрессии в целом. Одна из возможных причин такого явления – мультиколлинеарность, возникающая при наличии высокой корреляции между переменными.

Мультиколлинеарность – это наличие линейной функциональной связи между независимыми переменными.

Одним из условий классической регрессионной модели является предположение о линейной независимости объясняющих переменных, что означает, что ни одна из объясняющих переменных не является строгой линейной функцией других объясняющих переменных. . Матрица (Х’Х) имеет полный ранг или определитель матрицы не равен 0: . Модель без мультиколлинеарности.

Виды мультиколлинеарности: 1) Строгая – наличие линейной функциональной связи между независимыми переменными. Матрица X’X особенная det (X’X)=0. 2) Нестрогая – наличие сильной линейной корреляционнной связи между независимыми переменными. Матрица X’X не особенная, но det (X’X) очень мал. Оценки коэф. регрессии по МНК вычисляются как . Здесь фигурирует обратная матрица . Для невырожденной матрицы А=X’X обратная матрица вычисляется как , где А*- присоединённая матрица.

Последствия:

1) Оценки коэффициентов МНК, оставаясь несмещёнными, имеют большие стандартные ошибки.

2) Вычисленные t-статистики оказываются заниженными (коэф. незначимыми). При этом модель может быть в целом значимой по F-критерию.

3) Оценки становятся очень чувствительными к изменению исходных данных. Несущественное изменение отдельных наблюдений приводит к существенному изменению модели.

4) Оценки некоторых коэф. могут иметь неправильные знаки и неоправданно большие значения.

Проблемы: 1) Корреляционная связь есть всегда. Проблема мультиколлениарности – проблема проявления корреляционных связей. 2) Однородных критериев мультикол. нет. 3) Строгая мультиколлениарность нарушает одно из основных условий Г-М и делает построение регрессии полностью невозможным. 4) Нестрогая мультикол. затрудняет работу, но не препятствует получению правильных выводов.

Источники: 1) ошибочное включение в уравнение двух или более линейно зависимых переменных. 2) В модель включается переменная, сильно коррелирующая с зависимой перемен. (доминантная). 3) Значения объясняющих переменных обычно слабо коррелированные становятся в конкретных условиях выборки сильно коррелированными.

Практически любая модель содержит мультиколлениарность. На нее не обращают внимания до появления симптомов. Только чрезмерные корреляционные связи становятся помехой.

Обнаружение: 1) Высокий коэф. детерминации при всех незначимых коэф. 2) Высокие парные коэф. корреляции (>0,7) 3)Высокий множественный коэф. детерминации между одним из факторов и некоторой группой других факторов. 4) Определитель матрицы R парных коэф. корелляции между факторами близок к нулю. 5) Определитель либо минимальное собственное значение матрицы Х’Х близко к нулю.

Тест Фаррара-Глобера: 1) Вычислить матрицу R парных коэф. корелляции между факторами. 2) Вычислить статистику FG (логарифм определителя этой матрицы) FG=ln(det R) 3) Использовать тест для проверки гипотезы мультиколлениарности: если величина FG превышает критическое значение с р=0,5*k*(k-1) степенями свободы (к - число факторов), то гипотеза мультиколлениарности отвергается.

Преодоление: 1) Исключить одну из мультиколлениарных переменных. 2) Добавить в модель важный фактор для изменения дисперсии случайного члена. 3) Изменить или увеличить выборку. 4) Преобразовать мультиколлениарные переменные - использовать нелинейные формы; - использовать агрегаты или индексы (линейные комбинации нескольких переменных) 5) Использовать первые разности вместо самих переменных.