Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Shpargalka_po_ekonometrike.docx
Скачиваний:
1
Добавлен:
01.05.2025
Размер:
514.98 Кб
Скачать

33. Мультиколлинеарность, ее разновидности, последствия и способы выявления

Под мультиколлинеарностью понимают высокую взаимную коррелируемость объясняющих переменных (факторов). Мультиколлинеарность проявляется либо в функциональных, либо в стохастических формах. В 1-ом случае по крайней мере 1 пара из объясняющих переменных, связанный линейной функциональной зависимостью и в этом случае говорят о строгой мультиколлинеарности. В матрице Х в этом случае по крайней мере 2 столбца являются линейно зависимыми. И тем самым нарушается предпосылка 6 (в матрице Х столбцы д.б. независимыми, т.е. ранг матрицы должен = р +1) и . В этом случае матрица Х’Х будет вырожденной, т.е. . И система нормальных уравнений будет неразрешима, т.к. не существует. В итоге вектор b не определяется. Геометрически это можно проиллюстрировать след. образом:

Однако, строгая мультиколлинеарность встречается редко, т.к. ее не сложно избежать на стадии предварительного отбора факторов в модель. Чаще связь между объясняющими переменными выражена в стохастической форме, когда они тесно коррелируют друг с другом. В этом случае говорят о нестрогой мультиколлинеарности. Матрица хотя и не явл-ся вырожденной, но ее

, а поскольку оценка обратно пропорциональна определителю:

, где - присоединенная матрица к , то при делении на величину получается большая неточность в определении компонентов вектора b. Дисперсии оценок получаются большими, их несмещенные оценки также становятся большими. Они имеют большой разброс относительно . В этом случае они не устойчивы, не стабильны как по величине, так и по знаку. И становятся очень чувствительными к незначительному изменению исходных данных.

О тметим следующие основные негативные последствия в мультиколлинеарности:

  1. Большие дисперсии оценок параметров приводят к большим отклонениям этих оценок от значения оцениваемых параметров. Увеличивают интервальные оценки, тем самым ухудшая их точность

  2. Уменьшаются (t-статистики) параметров, что приводит к неправильному выводу о статистической незначимости параметра и несущественном влиянии соответствующего фактора на результат у.

  3. оценки становятся очень чувствительными к незначительному изменению исходных статистических данных.

  4. Становится невозможным определить изолированное влияние отдельных факторов на результирующий показатель.

Точных количественных методов по обнаружению мультиколлинеарности не сущ-ет. Однако, есть несколько эвристических методов по ее выявлению.

1-ый из них связан с исследованием матрицы межфакторной корреляции:

Считается, что если в ней имеются коэф-ты межфакторной корреляции , то это говорит о наличии нестрогой мультиколлинеарности.

2-ой способ заключается в вычислении

Если , то мы имеем строгую мультиколлинеарность

Если , то нестрогая мультиколлинеарность

3-ий способ заключается в вычислении определителя матрицы межфакторной корреляции: .

Если

Если

мультиколлинеарность отсутствует. Для проверки гипотезы исп-ют след. статистику: , которая приблизительно имеет распределение с k = 1/2 (n-1)*n.

Вычисляют . И по таблице - распределение находят: по и k. Если , то Н0 отвергают с вероятностью ( в пользу альтернативной, т.е. наличие нестрогой мультиколлинеарности.

4-ым способом выявления мультиколлинеарности является исследование коэф-ов множественной детерминации, показывающих зависимость фактора от других объясняющих переменных модели. Например, строят регрессионную модель:

. И на основании этой модели вычисляется - коэффициент множественной корреляции. В результате получаем . Снова проверка гипотез: т.е. фактор не зависит от всех остальных (мультиколлинеарности нет).

, (F-распределение).

По таблице . Если , то отвергается и (нестрогая мультиколлинеарность.

34. методы устранения мультиколлинеарности

Единого, универсального метода устранения мулькол-ти не существует.

В зависимости от ситуации на практике используют след методы:

  1. Самый простой. Заключается в том, что из 2х факторов имеющих высокий модуль коэффициента парной корреляции, один фактор исключается из модели. Но здесь требуется осторожность, чтобы не исключить переменную, которая необходима в уравнении по своей экономической сущности

  2. Заключается в повышении объема выборки (если это возможно) по принципу: большее количество данных позволяет получить МНК оценки с меньшей дисперсией. Например-при исключении ежегодных данных, можно перейти к поквартальным данным, тогда объем выборки увеличится в 4 раза

  3. В этом методе от несмещенных оценоквычисленных в условиях мультикол-ти и дающих большую ошибку переходят к специальным оценкам на которые обладают меньшим расстоянием относительно своего мат ожидания. В частности используется так называемаяридж-регрессия: bi͂ = (X’X+i͂ Ep+1)-1X’Y

Ep+1- единичная матрица порядка р+1

  1. Метод главных компонент. При плохой обусловленности (Х’X) для оценки параметров используется метод главных компонент. Основная идея которого заключается в переходе xj ;j=1, p к новым объясняющим переменным zi; i=1,k; k≤p

При этом должно выполняться 2 условия:

  1. Переменная ziдолжны быть ортогон-ми, то есть (zkzj)=0- линейная независимость

  2. Новые переменные должны максимально содержать информацию о переменных xj

35. гетероскедастичность и ее последствия

При наименьшей гетероскедостичности метод наименьших квадратов можно применить для оценки параметров модели, но в этом случае будут след отрицательные последствия:

  1. Оценки bj модели остаются по прежнему несмещенными и состоятельными, но перестают быть эффективными, то есть они уже не имеют наименьшую дисперсию среди всех несмещенных оценок

  2. Результаты связанные с анализом точности модели оценки значимости параметров и построения интервальных оценок оказ-ся в этом случае непригодными. Это происходит потому, что стандартные ошибки mbjпараметров оказываются заниженными, а параметров оказываются заниженными, а tbj- завышенными, что говорит о неправильном выводе о статистической значимости параметров, в то время, как они таковыми не являлись

  3. При мылых объемах выборки n, оценки параметров bjмогут существенно отличаться от самих оцениваемых коэффицентов βj

36. методы обнаружения гетероскедастичности

Наиболее простым методом обнаружения гетероск-ти является визуальный способ

Для парной регрессии наличие гетероскедостичности может показать построение поля корреляции

(название диагонали: y͂=b0 +b1x)

Для линейно-множественной регрессии визуальная гетероск-ть можно обнаружить, если построить зависимость ост-в eiот расчетных значений y͂Iзависимой переменной

При наличии гетероск-ти эта зависимость выглядит след образом

Часто для визуального обнаружения гетероск-ти строят график зависимости ei2

наличие гетероск-ти

отсутствие гетероск-ти

Однако, визуально не всегда можно установить наличие или отсутствие гетероск-ти. В этом случае используют специальные тесты на гетероск-ть.

Они основаны на проверке статистической гипотезы Н0 об отсутствии гетероск-ти

Наиболее часто используется тест ранговой корреляции Спирмина

В этом тесте используется наиболее общее представление о зависимости дисперсии ошибок регрессии от значений объясняющей переменной xi

D(Ɛi)= fi(xi); i=1, n

Никаких дополнительных пред-й о виде функций tiв тесте Спирмена не делается, ткже как и о законе распределения случайных величин Ɛi

Идея теста заключается в том, что модули остатков |ei|является некоторой оценкой в случае гетероск-ти будут коррелировать со значениями объясняющей переменной xi

σi =

отсюда используют коэффициенты ранговой кор-и rxeвычисления которого предназначенно отдельно, ранжируют по возрастанию как значение xi, так и |ei|

rxe =1- (1)

di –разность между рангами значений xiи значением |ei|в итом наблюдении

доказано, что при проверке Н0: rxe=0 (отсутствие гетероск-ти)

t= (2)

имеет t распределение стюдента с k=n-2

если вычисление по формуле (2) |t|˃tкр ( ; k=n-2), то гипотеза Но отвергается и на уровне значимости α говорит о наличии гетероск-ти

в ДКР проверку выполняют только по фактору, который был отобран для парной регрессии

2й тест, который также наиболее распространен- тест Голфельда-Квандта

Он используется в том случае, когда случается возмещение Ɛi ͂N (0, σi2)

Cov(Ɛi; Ɛj)

Предполагается, что дисперсии ошибки регрессии, то есть D(Ɛi)=σi2xi2 пропорционально значению наблюдений объясняющей переменной

При чем с ростом xi дисперсия σi2может как увеличиваться, так и уменьшаться

Тест выполняется по след шагам:

  1. Значения n наблюдений объясняющей переменной xi ранжируется в порядке возрастания xi

  2. Вся упорядоченная выборка разбивается на 3 подвыборки:

  • Объем l

  • N-2l

  • e ≈ 1/3 n

  1. строится уравнение парной регрессии

y͂=b10+b11x

y͂=b20+b21x

по 1й т 3й подвыборке соответственно

для каждой модели находится сумма:

S1=

S2=

При наличии гетероскед-ти эти суммы будут существенно отличаться

  1. тестируется Н0: σ1222=…=σn2

для проверки гипотезы используется статистика

F= (S2˃S1)

K1=k2=l-p-1 (p=1)

По таблие находим Fкр (α; k1; k2)

F˃ Fкр,то фиксируется (1-α) присутствие гетероск-ти

Замечание: так же как и в тесте Спирмена для линейной множественной регрессии проверку по тесту Г.-К. можно выполнить по каждой объясняющей переменной отдельно

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]