Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
отчёт эконометрика.docx
Скачиваний:
4
Добавлен:
20.11.2018
Размер:
721.89 Кб
Скачать

Мультиколлинеарность

Мультиколлинеарность – совместная или множественная взаимозависимость объясняющих переменных. Выделяют:

  1. Полную мультиколлинеарность - если существует функциональная линейная зависимость между объясняющими переменными, определяется нарушением одного из требований КЛММР, а именно, требования к рангу матрицы Х .

  2. Реальная (или частичная) мультиколлинеарность возникает в случаях существования достаточно тесных линейных статистических связей между объясняющими переменными.

Последствия полной мультиколлинеарности: матрица объясняющих переменных (матрица Х) вырождена, так как ранг матрицы Х меньше к+1, что в свою очередь, приводит к вырожденности , а это значит не существует обратная к этой матрице, и следовательно невозможно оценить коэффициенты методом наименьших квадратов.

Последствия реальной мультиколлинеарности: матрица становится плохо обусловленной, следовательно вычисляется с большой погрешностью, а значит и МНК оценки вычисляются с большой погрешностью.

Внешние признаки мультиколлинеарности

  1. неправильные с экономической точки зрения знаки отдельных коэффициентов регрессии;

  2. среди коэффициентов уравнения регрессии много (может быть все) незначимы, а модель значима;

  3. стандартные отклонения велики на столько, что сравнимы или даже превосходят сами коэффициенты;

  4. доверительные интервалы для коэффициентов уравнения регрессии содержат внутри себя точку ноль.

  5. небольшие изменения исходных статистических данных приводит к существенному изменению оценок коэффициентов модели, вплоть до изменения их знаков;

  6. неоправданно большие с экономической точки зрения значения оценок коэффициентов уравнения регрессии;

Формальные признаки мультиколлинеарности

  1. среди значимых коэффициентов парной или частной корреляции объясняющих переменных есть такие, которые по абсолютной величине достаточно велики (превышают 0,75- 0,8);

  2. достаточно высокие значение множественного коэффициента корреляции (детерминации) одной из объясняющих переменных на другие ;

  3. определитель матрицы близок к нулю (необходимое условие плохой обусловленности).

  4. достаточным условием плохой обусловленности является большое значение числа обусловленности.

Анализ внешних признаков мультиколлинеарности

1. Неправильные с экономической точки зрения знаки отдельных коэффициентов регрессии

В общем знаки коэффициентов регрессии верны с экономической точки зрения.

2. Достаточно высокие значение множественного коэффициента корреляции (детерминации) одной из объясняющих переменных на другие

Проверим модель на значимость:

Оценка линейной функции множественной регрессии имеет вид:

=

(5,2565) (0,1740) (0,1294) (0,3929) (0,4391)

(0,0581) (0,0034) (0,0084) (0,0318) (0,0005)

(0,05,9,40)=2,1240 (0,05,40)=1,6838

значит модель значима, незначимых коэффициентов почти половина.

3. стандартные отклонения велики на столько, что сравнимы или даже превосходят сами коэффициенты

Есть некоторые стандартные отклонения, которые сравнимы с коэффициентами, в частности .

4. доверительные интервалы для коэффициентов уравнения регрессии содержат внутри себя точку ноль.

Нет доверительных интервалов, содержащих точку 0.

5. небольшие изменения исходных статистических данных приводит к существенному изменению оценок коэффициентов модели, вплоть до изменения их знаков;

рисунок 7 – итоги регрессии для изменённых исходных данных

Немного изменили изначальные данные – несильно поменялись оценки коэффициентов.

6. неоправданно большие с экономической точки зрения значения оценок коэффициентов уравнения регрессии;

Нет неоправданно больших с экономической точки зрения значения оценок коэффициентов уравнения регрессии.