Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Билеты по эконометрике.docx
Скачиваний:
6
Добавлен:
01.05.2025
Размер:
921.4 Кб
Скачать

32. Проблема мультиколлинеарности в моделях множественной регрессии. Признаки и последствия мультиколлинеарности

Множественная регрессия позволяет построить и проверить модель линейной связи между зависимой (эндогенной) и несколькими независимыми (экзогенными) переменными: y = f(x1,...,xр ), где у - зависимая переменная (результативный признак); х1,...,хр - независимые переменные (факторы).

Множественная линейная регрессионная модель имеет вид:

y=a+b1x1+b2x2+…+bpxp+ε

Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям:

1. быть количественно измеримы. При включении качественного фактора нужно придать ему количественную определенность

2. не должны быть коррелированы между собой и тем более и годиться в точной функциональной связи.

Включение в модель факторов с высокой интеркорреляцией, когда ryx1 < rx1x2 может повлечь за собой неустойчивость и ненадежность оценок коэффициентов регрессии.

Поскольку одним из условий построения уравнения множественной регрессии является независимость действия факторов, коллинеарность факторов нарушает это условие. Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами.

Признаки мультиколлинеарности.

1.В модели с двумя переменными одним из признаков мультиколлинеарности является близкое к единице значение коэффициента парной корреляции. Если значение хотя бы одного из коэффициентов парной корреляции больше, чем 0,8, то мультиколлинеарность представляет собой серьезную проблему.

Однако в модели с числом независимых переменных больше двух, парный коэффициент корреляции может принимать небольшое значение даже в случае наличия мультиколлинеарности. В этом случае лучше рассматривать частные коэффициенты корреляции.

2. Для проверки мультиколлинеарности можно рассмотреть детерминант матрицы коэффициентов парной корреляции |r|. Этот детерминант называется детерминантом корреляции |r| ∈(0; 1). Если |r| = 0, то существует полнаямультиколлинеарность. Если |r|=1, то мультиколлинеарность отсутствует. Чем ближе |r| к нулю, тем более вероятно наличие мультиколлинеарности.

3. Если оценки имеют большие стандартные ошибки, невысокую значимость, но модель в целом значима (имеет высокий коэффициент детерминации), то это свидетельствует о наличие мультиколлинеарности.

4. Если введение в модель новой независимой переменной приводит к существенному изменению оценок параметров и небольшому изменению коэффициента детерминации, то новая переменная находится в линейной зависимости от остальных переменных. При построении уравнения множественной регрессии может возникнуть проблема мультиколлинеарности факторов. Мультикол – это явление связано с наличием линейной зависимости между факторами Хj регрессионной модели. Одно из негативных последствий мульти заключается в том, что невозможно определить силу изолированного влияния факторов на объясняемую переменную. При построении множественной регрессии необходимо соблюдение следующего правила: факторы, включаемые в модель, должны быть сильно связаны с зависимой переменной и не должны быть связаны между собой. Мульти присутствует во всех экономических моделях, где все переменные экономических объектов должны быть взаимосвязаны между собой. Иначе экономическая система не будет существовать. Поэтому мульти была, есть и будет, бороться с ней бесполезно, но учитывать ее при построении множественных регрессионных моделей необходимо.

Признаки:

1) Коэффициент детерминации R2 достаточно высок, но все или некоторые коэффициенты уравнения регрессии статистически не значимы (низкие t-статистики);

2) Высокие парные коэффициенты корреляции.

Для проверки этого признака формируется определитель матрицы парных коэффициентов между объясняющими переменными:

R= , где

Матрица R – симметричная, причем на главной диагонали стоят единицы, т.е. =1. Приполном отсутствии корреляции между факторами =0, при , и определитель R равен 1. Если же между факторами существует полная линейная зависимость, т.е. =1, то detR = 0.

Таким образом, чем ближе к нулю detR, тем сильнее мульти. Вывод о наличии мульти делается по результатам проверки нулевой гипотезы Н0 :detR = 1, при альтернативной гипотезе Н1 : detR = 0.

Статистическая проверка гипотез:

Н0 :detR = 1;

Н1 :detR = 0

осуществляется с помощью - распределения.

Величина сравнивается с критическим значением ( ), где n – объем выборки, m – количество объясняющих переменных.

Если > , то Н0 отклоняется и делается вывод о наличии мульти.

  1. Высокие частные коэффициенты корреляции.

Частные коэффициенты корреляции – это коэффициенты корреляции между двумя факторами, «очищенные» от влияния других факторов. Например для трех факторов Х1, Х2, Х3 частный коэффициент корреляции для Х1, Х2 будет:

где - парный коэффициент корреляции между Х1 и Х2 ; - частный коэффициент корреляции между Х1 и Х2.

Последствия частичной мульти: · увеличение дисперсий оценок параметров расширяет интервальные оценки и ухудшает их точность; · уменьшение t-статистик коэффициентов приводит к неверным выводам о значимости факторов; · неустойчивость МНК-оценок и их дисперсий.

33. F-тест качества спецификации множественной регрессионной модели.

Статистикой обсуждаемого ниже критерия гипотезы H0: R2=0 (гипотеза о том что модель абсолютно плохая) против альтернативы H1: служит случайная переменная:

(1)

Здесь k— количество регрессоров в модели множественной регрессии, п— объ­ем обучающей выборки (у,X),по которой оценена МНК-модель. В ситуации, когда гипотеза H0 справедлива, а слу­чайный остаток и в модели обладает нормальным законом распределения, случайная переменная Fтест имеет распределение Фишера с количествами степеней сво­боды ν1 и ν2, где ν1=kи ν2=n-(k+1) (2)

Данное утверждение положено в основу F-теста. Вот этапы выполнения этой процедуры.

1) вычислить величину (1);

2) задаться уровнем значимости а € (0, 0,05] и при помощи функции FPACПOБPExcel при количествах степеней свободы (2) отыскать (1-α)-квантиль распределения Фишера Fкрит

3) проверить справедливость неравенства F<Fкрит(3)

Если оно справедливо, то принять гипотезу H0 и сделать вывод о неудовлетворительном качестве регрессии, т.е. об отсутствии какой-либо объясняющей способности регрессоров в рамках линейной модели.

Напротив, когда неравенство (3) несправедливо —следует от­клонить гипотезу H0 в пользу альтернативыH1.Другими словами, сделать вывод о том, что качество регрессии удовлетвори­тельно, т.е. регрессоры в рамках линейной модели обладают способностью объяснять значения эндогенной переменной у.