Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ekonometrika1.doc
Скачиваний:
29
Добавлен:
23.11.2019
Размер:
3.43 Mб
Скачать

36. Мультиколлинеарность: определение, признаки и последствия.

Одним из условий МНК при оценке параметров регрессионной модели является предположение о линейной независимости объясняющих переменных. Для экономических показателей это условие выполняется не всегда. Тогда говорят о наличии мультиколлинеарности между факторами-аргументами модели. Под МУЛЬТИКОЛЛИНЕАРНОСТЬЮ понимается высокая взаимная коррелированность объясняющих переменных.

Основными последствиями мультиколлинеарности являются:

− снижение точности оцениваемых параметров;

− оценки параметров модели не являются состоятельными (небольшое увеличение количества наблюдений приводит к значительным изменениям в оценках параметров);

− экономическая интерпретация параметров уравнения регрессии затруднена, так

как некоторые из его коэффициентов могут иметь неправильные, с точки зрения экономической теории, знаки и неоправданно большие значения.

Признаки мультиколлинеарности:

− наличие высоких значений парных коэффициентов корреляции rХiХj ≥ 0,8;

− определитель матрицы XX ′ близок к нулю;

− существенное приближение коэффициента множественной корреляции к единице;

− наличие малых значений оценок параметров модели при высоком уровне коэффициента детерминации R2 и F -критерия Фишера;

− существенное изменение оценок параметров модели при дополнительном введении в нее новой объясняющей переменной;

− резкое изменение значений параметров при дополнительном увеличении

числа наблюдений.

  1. Наиболее полным алгоритмом исследования мультиколлинеарности есть алгоритм Фаррара-Глобера. С его помощью тестируют три вида мультиколлинеарности:

1. Всех факторов ( - хи-квадрат);

2.      Каждого фактора с остальными (критерий Фишера);

3.      Каждой пары факторов (критерий Стьюдента).

Алгоритм Фаррара-Глобера

1. Нормируем значения факторов

.

2.      Находим корреляционную матрицу

.

3.      Определяем значения :

,

где - количество факторов, - количество наблюдений. Сравниваем его с табличным значением при степенях свободы и уровне значимости . Если , то в векторе факторов есть мультиколлинеарность.

4.      Определяем обратную матрицу

.

5.      Вычисляем - критерии Фишера:

,

где - диагональные элементы матрицы . Рассчитанные значения критериев сравниваются с табличными при и степенях свободы и уровне значимости . Если , то -я переменная мультиколлинеарна с другими.

6.      Находим частные коэффициенты корреляции:

.

7.      Вычисляем - критерии Стьюдента:

.

Рассчитанные значения сравниваются с табличными при степенях свободы и уровне значимости . Если , то между и существует мультиколлинеарность.

Для оценки параметров модели, в которую входят мультиколлинеарные переменные используют метод главных компонентов.

 

  1. Алгоритм метода главных компонентов:

Шаг 1. Нормализация значений факторов

.

Шаг 2. Вычисление корреляционной матрицы

.

Шаг 3. Нахождение характеристических чисел матрицы из уравнения .

Шаг 4. Упорядочение собственных чисел по абсолютному вкладу главного компонента в общую дисперсию.

Шаг 5. Вычисление соответствующих собственных векторов .

Шаг 6. Нахождение главных компонентов – векторов

, .

Главные компоненты должны удовлетворять условиям:

, ,

, ,

, , .

Шаг 7. Определение параметров модели :

.

Шаг 8. Нахождение параметров модели :

.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]