
- •Случайные события. Вероятность. Теоремы сложения и умножения.
- •Случайные величины. Законы распределения дискретных и непрерывных случайных величин
- •Числовые характеристики дискретных и непрерывных случайных величин
- •Системы случайных величин. Законы распределения и числовые характеристики
- •Генеральная и выборочная совокупность. Выборочные характеристики
- •21. Нелинейная парная регрессия. 2 типа нелинейных регрессий.
- •23. Индексы корреляции и детерминации в нелинейных регрессиях.
- •24. Классическая нормальная линейная модель множественной регрессии.
- •28. Коэффициенты множественной детерминации и корреляции
- •29. Оценка значимости уравнения в целом и его параметров в отдельности
- •30. Доверительный интервал для коэффициентов множественной регрессии
- •31. Доверительные интервалы для индивидуальных прогнозных значений зависимой переменной
- •32. Частные f-критерии и их использование в эконометрике
- •33. Мультиколлинеарность, ее разновидности, последствия и способы выявления
- •37. Устранение гетероскедастичности. Взвешенный метод наименьшего квадрата.
- •38. Обобщенная модель множественной регрессии.
- •39. Автокорреляция, ее виды и последствия.
- •40. Методы обнаружения автокорреляции.
- •41.Оценка параметров при наличии автокорреляции.
- •47. Общие понятия временного ряда. Его составляющие. Типы моделей
- •48. Стационарные временные ряды. Коэффициент автокорреляции. Коррелограмма
- •49. Аналитическое и механическое выравнивание временного ряда
- •50. Применение фиктивных переменных при моделировании сезонных колебаний ряда
- •51. Тесты Чоу и Гуйарата для обнаружения структурных изменений ряда
- •Вопрос 52
- •Вопрос 53
33. Мультиколлинеарность, ее разновидности, последствия и способы выявления
Под
мультиколлинеарностью
понимают высокую взаимную коррелируемость
объясняющих переменных (факторов).
Мультиколлинеарность проявляется либо
в функциональных, либо в стохастических
формах. В 1-ом случае по крайней мере 1
пара из объясняющих переменных, связанный
линейной функциональной зависимостью
и в этом случае говорят о строгой
мультиколлинеарности.
В матрице Х в этом случае по крайней
мере 2 столбца являются линейно зависимыми.
И тем самым нарушается предпосылка 6
(в матрице Х столбцы д.б. независимыми,
т.е. ранг матрицы должен = р +1) и
.
В этом случае матрица Х’Х будет
вырожденной, т.е.
.
И система нормальных уравнений
будет неразрешима, т.к.
не существует. В итоге вектор b
не определяется. Геометрически это
можно проиллюстрировать след. образом:
Однако,
строгая мультиколлинеарность встречается
редко, т.к. ее не сложно избежать на
стадии предварительного отбора факторов
в модель. Чаще связь между объясняющими
переменными выражена в стохастической
форме, когда они тесно коррелируют друг
с другом. В этом случае говорят о нестрогой
мультиколлинеарности.
Матрица
хотя и не явл-ся вырожденной, но ее
,
а поскольку оценка обратно пропорциональна
определителю:
,
где
- присоединенная матрица к
,
то при делении на величину
получается большая неточность в
определении компонентов вектора b.
Дисперсии оценок
получаются большими, их несмещенные
оценки
также становятся большими. Они имеют
большой разброс относительно
.
В этом случае они не устойчивы, не
стабильны как по величине, так и по
знаку. И становятся очень чувствительными
к незначительному изменению исходных
данных.
О
тметим
следующие основные негативные
последствия
в мультиколлинеарности:
Большие дисперсии оценок параметров приводят к большим отклонениям этих оценок от значения оцениваемых параметров. Увеличивают интервальные оценки, тем самым ухудшая их точность
Уменьшаются
(t-статистики) параметров, что приводит к неправильному выводу о статистической незначимости параметра и несущественном влиянии соответствующего фактора на результат у.
оценки становятся очень чувствительными к незначительному изменению исходных статистических данных.
Становится невозможным определить изолированное влияние отдельных факторов на результирующий показатель.
Точных количественных методов по обнаружению мультиколлинеарности не сущ-ет. Однако, есть несколько эвристических методов по ее выявлению.
1-ый из них связан с исследованием матрицы межфакторной корреляции:
Считается,
что если в ней имеются коэф-ты межфакторной
корреляции
,
то это говорит о наличии нестрогой
мультиколлинеарности.
2-ой
способ заключается в вычислении
Если , то мы имеем строгую мультиколлинеарность
Если
,
то нестрогая мультиколлинеарность
3-ий
способ
заключается в вычислении определителя
матрицы межфакторной корреляции:
.
Если
Если
мультиколлинеарность
отсутствует. Для проверки гипотезы
исп-ют след. статистику:
,
которая приблизительно имеет распределение
с k
= 1/2 (n-1)*n.
Вычисляют
.
И по таблице
-
распределение находят:
по
и k.
Если
,
то Н0
отвергают с вероятностью (
в пользу альтернативной, т.е. наличие
нестрогой мультиколлинеарности.
4-ым способом выявления мультиколлинеарности является исследование коэф-ов множественной детерминации, показывающих зависимость фактора от других объясняющих переменных модели. Например, строят регрессионную модель:
.
И на основании этой модели вычисляется
- коэффициент множественной корреляции.
В результате получаем
.
Снова проверка гипотез:
т.е. фактор не зависит от всех остальных
(мультиколлинеарности нет).
,
(F-распределение).
По
таблице
.
Если
,
то
отвергается и
(нестрогая мультиколлинеарность.
34. методы устранения мультиколлинеарности
Единого, универсального метода устранения мулькол-ти не существует.
В зависимости от ситуации на практике используют след методы:
Самый простой. Заключается в том, что из 2х факторов имеющих высокий модуль коэффициента парной корреляции, один фактор исключается из модели. Но здесь требуется осторожность, чтобы не исключить переменную, которая необходима в уравнении по своей экономической сущности
Заключается в повышении объема выборки (если это возможно) по принципу: большее количество данных позволяет получить МНК оценки с меньшей дисперсией. Например-при исключении ежегодных данных, можно перейти к поквартальным данным, тогда объем выборки увеличится в 4 раза
В этом методе от несмещенных оценоквычисленных в условиях мультикол-ти и дающих большую ошибку переходят к специальным оценкам на которые обладают меньшим расстоянием относительно своего мат ожидания. В частности используется так называемаяридж-регрессия: bi͂ = (X’X+i͂ Ep+1)-1X’Y
Ep+1- единичная матрица порядка р+1
Метод главных компонент. При плохой обусловленности (Х’X) для оценки параметров используется метод главных компонент. Основная идея которого заключается в переходе xj ;j=1, p к новым объясняющим переменным zi; i=1,k; k≤p
При этом должно выполняться 2 условия:
Переменная ziдолжны быть ортогон-ми, то есть (zkzj)=0- линейная независимость
Новые переменные должны максимально содержать информацию о переменных xj
35. гетероскедастичность и ее последствия
При наименьшей гетероскедостичности метод наименьших квадратов можно применить для оценки параметров модели, но в этом случае будут след отрицательные последствия:
Оценки bj модели остаются по прежнему несмещенными и состоятельными, но перестают быть эффективными, то есть они уже не имеют наименьшую дисперсию среди всех несмещенных оценок
Результаты связанные с анализом точности модели оценки значимости параметров и построения интервальных оценок оказ-ся в этом случае непригодными. Это происходит потому, что стандартные ошибки mbjпараметров оказываются заниженными, а параметров оказываются заниженными, а tbj- завышенными, что говорит о неправильном выводе о статистической значимости параметров, в то время, как они таковыми не являлись
При мылых объемах выборки n, оценки параметров bjмогут существенно отличаться от самих оцениваемых коэффицентов βj
36. методы обнаружения гетероскедастичности
Наиболее простым методом обнаружения гетероск-ти является визуальный способ
Для парной регрессии наличие гетероскедостичности может показать построение поля корреляции
(название
диагонали: y͂=b0
+b1x)
Для линейно-множественной регрессии визуальная гетероск-ть можно обнаружить, если построить зависимость ост-в eiот расчетных значений y͂Iзависимой переменной
При наличии гетероск-ти эта зависимость выглядит след образом
Часто для визуального обнаружения гетероск-ти строят график зависимости ei2
наличие
гетероск-ти
отсутствие
гетероск-ти
Однако, визуально не всегда можно установить наличие или отсутствие гетероск-ти. В этом случае используют специальные тесты на гетероск-ть.
Они основаны на проверке статистической гипотезы Н0 об отсутствии гетероск-ти
Наиболее часто используется тест ранговой корреляции Спирмина
В этом тесте используется наиболее общее представление о зависимости дисперсии ошибок регрессии от значений объясняющей переменной xi
D(Ɛi)= fi(xi); i=1, n
Никаких дополнительных пред-й о виде функций tiв тесте Спирмена не делается, ткже как и о законе распределения случайных величин Ɛi
Идея теста заключается в том, что модули остатков |ei|является некоторой оценкой в случае гетероск-ти будут коррелировать со значениями объясняющей переменной xi
σi
=
отсюда используют коэффициенты ранговой кор-и rxeвычисления которого предназначенно отдельно, ранжируют по возрастанию как значение xi, так и |ei|
rxe
=1-
(1)
di –разность между рангами значений xiи значением |ei|в итом наблюдении
доказано, что при проверке Н0: rxe=0 (отсутствие гетероск-ти)
t=
(2)
имеет t распределение стюдента с k=n-2
если вычисление по
формуле (2) |t|˃tкр
(
;
k=n-2), то
гипотеза Но отвергается и на
уровне значимости α говорит о наличии
гетероск-ти
в ДКР проверку выполняют только по фактору, который был отобран для парной регрессии
2й тест, который также наиболее распространен- тест Голфельда-Квандта
Он используется в том случае, когда случается возмещение Ɛi ͂N (0, σi2)
Cov(Ɛi; Ɛj)
Предполагается, что дисперсии ошибки регрессии, то есть D(Ɛi)=σi2xi2 пропорционально значению наблюдений объясняющей переменной
При чем с ростом xi дисперсия σi2может как увеличиваться, так и уменьшаться
Тест выполняется по след шагам:
Значения n наблюдений объясняющей переменной xi ранжируется в порядке возрастания xi
Вся упорядоченная выборка разбивается на 3 подвыборки:
Объем l
N-2l
e ≈ 1/3 n
строится уравнение парной регрессии
y͂=b10+b11x
y͂=b20+b21x
по 1й т 3й подвыборке соответственно
для каждой модели находится сумма:
S1=
S2=
При наличии гетероскед-ти эти суммы будут существенно отличаться
тестируется Н0: σ12=σ22=…=σn2
для проверки гипотезы используется статистика
F=
(S2˃S1)
K1=k2=l-p-1 (p=1)
По таблие находим Fкр (α; k1; k2)
F˃ Fкр,то фиксируется (1-α) присутствие гетероск-ти
Замечание: так же как и в тесте Спирмена для линейной множественной регрессии проверку по тесту Г.-К. можно выполнить по каждой объясняющей переменной отдельно