Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
РГЗ 1 лаба.doc
Скачиваний:
1
Добавлен:
20.09.2019
Размер:
549.89 Кб
Скачать

2. Мультиколлинеарность

Линейная функции регрессии строится с помощью модели регрессии на основе статистических данных, матрицы Х типа «объект – свойства»:

и вектора результативного признака Y : .

При выполнении условия Гаусса-Маркова коэффициенты классической линейной модели множественной регрессии ищут из решения следующей системы:

(1).

В результате вектор МНК-оценок (2).

Если не существует обратной матрицы и нет возможности оценить коэффициенты МНК, то мультиколлинеарность называется полной (строгой). Она встречается достаточно редко, так как её сложно избежать на предварительной стадии анализа и отбора, множества объясняющих переменных путем исключения дублирующих признаков.

Реальная (частичная) мультиколлинеарность возникает в случае существования достаточно тесных линейных корреляционных связей между объясняющими переменными.

При сильной корреляционной связи объясняющих переменных определить матрицы будет близок к нулю.

Элементы обратной матрицы вычисляются с большой погрешностью, следовательно, и оценки МНК тоже определяются с погрешностью.

Одновременно близость определителя матрицы к нулю влечет за собой большие значения диагональных элементов ковариационной матрицы вектора оценок , что может привести к неверным статистическим выводам о значимости коэффициента.

Последствия неустранения частичной мультиколлинеарности:

  1. Не точно с грубыми ошибками находятся МНК оценки, т.к. искажены результаты

  2. При статистическом исследовании модель на адекватность с ошибками оцениваются модельные значения , следовательно с ошибками получим Qфак и Qост, которые используются для расчета статистики , а, следовательно, не верно сделаем выводы о значимости модели.

  3. При проверке отдельных коэффициентов на значимость мы используем ковариационную матрицу вектора оценок. Следовательно, элементы этой матрицы будут искажены. На диагонали ковариационной матрицы вектора оценок стоят дисперсии оценок , которые необходимы для расчета статистики , при проверке значимости отдельных коэффициентов. Следовательно, возможны, неверны статистические выводы о значимости коэффициентов.

  4. используется при построении доверительных интервалов для значимых коэффициентов, при искажении можем допустить ошибки точного характера.

2.1 Внешние и формальные признаки мультиколлинеарности

Внешние (косвенные)признаки мультиколлинеарности:

  1. не поддаются экономической интерпретации отрицательные знаки коэффициентов регрессии при .При увеличении числа зарегистрированных иностранных работников объём инвестиций увеличивается, что является неверным, т.к инвесторы предпочитают приём иностранных работников в случае малого объёма инвестиций, т.к. это дешёвая рабочая сила. Также оборот розничной торговли на душу населения не может возрастать при снижении объёма инвестиций.

  2. среди коэффициентов статически значимыми являются .

  3. превышает свой коэффициент.

Формальные признаки мультиколлинеарности:

  1. Среди коэффициентов корреляционной матрицы факторных признаков есть такие, которые по величине достаточно велики (>0,7;0,8). Это свидетельствует о возможно достаточно тесной линейной связи.

Вычислим оценки матрицы парных коэффициентов корреляции:

О наличии мультиколлинеарности свидетельствует .

2.Достаточно высокие значения множественного коэффициента детерминации одной из объясняющей переменной на другие

  1. Рассчитаем коэффициент детерминации каждой из объясняющей переменных по всем остальным переменным:

О наличии мультиколлинеарности свидетельствуют значения коэффициента детерминации: и .

3. Существование тесных линейных статистических связей между объясняющими переменными приводит к так называемой плохой обусловленности системы.

Необходимым условием плохой обусловленности системы линейных уравнений является малость определителя матрицы или малость наименьшего по модулю собственного числа.

4.Достаточным условием плохой обусловленности (мультиколлинеарности) является большое значение числа обусловленности( порядка сотни и более).

, где - собственное число матрицы .