- •1)Основные причины наличия в регрессионной модели случайного отклонения.
- •2)Основные этапы регрессионного анализа.
- •3)Спецификация модели, каким образом она осуществляется?
- •4)Стандартная ошибка регрессии Sxy.
- •5)Различие между теоретическим и эмпирическим уравнениями регрессии.
- •10)Доверительный интервал для предсказания индивидуальных значений зависимой переменной.
- •11)Каким образом определяется модель множественной линейной регрессии?
- •12)Предпосылки мнк. Каковы последствия их невыполнимости?
- •1°. Математическое ожидание случайного отклонения равно нулю для всех наблюдений:
- •4°. Случайное отклонение должно быть независимо от объясняющих переменных.
- •13)Характеристика коэффициентов уравнения регрессии.
- •14)Суть мнк для построения множественного линейного уравнения регрессии.
- •15)Статистическая значимость коэффициентов регрессии.
- •16)Интервальные оценки коэффициентов регрессии
- •17)Коэффициент детерминации r2. Отличие скорректированного коэффициента детерминации от обычного.
- •18)Анализ статистической значимости коэффициента детерминации r2.
- •19)Как используется f-статистика в регрессионном анализе?(Ответ в предыдущем вопросе)
- •20)Проверка общего качества уравнения регрессию
- •21)Автокорреляцией остатков и ее виды.
- •22)Статистика Дарбина–Уотсона. Формула расчета. Суть показателя.
- •28)Определениие мультиколлинеарности. Признаки наличия мультиколлинеарности.
- •29)Методы проверки наличия мультиколлиниарности. Показатель vif – «фактор инфляции вариации»
- •30)Методы устранения мультиколлинеарности.
- •31)Гетероскедастичность. Последствия гетероскедастичности.
- •32)Методы смягчения гетероскедастичности
- •33)Автокорреляция. Основные причины автокорреляции.
- •34)Последствия автокорреляции. Основные методы обнаружения автокорреляции.
- •35)Спецификация модели
- •36)Основные признаки качественной регрессионной модели.
- •37)Основные виды ошибок спецификации.
- •1. Отбрасывание значимой переменной
- •2. Добавление незначимой переменной
- •38)Обнаружение и корректировка ошибок спецификации
- •39)Проблемы спецификации
- •40)Необходимость использования фиктивных переменных в регрессионных уравнениях
- •41)Использование фиктивных переменных для сезонного анализа
28)Определениие мультиколлинеарности. Признаки наличия мультиколлинеарности.
Мультиколлинеарность (multicollinearity) – положение, при котором одна или более независимых переменных, входящих в уравнение регрессии, являются точными линейными функциями от одной или более других независимых переменных того же уравнения.
Обнаружение мультиколлинеарности
1. Высокий R2 при всех незначимых коэффициентах.
2. Высокие парные коэффициенты корреляции
3. Высокие значения коэффициента VIF
Последствия мультиколлинеарности
1. Оценки коэффициентов остаются несмещенными
2. Стандартные ошибки коэффициентов увеличиваются
3. Вычисленные t-статистики занижены.
4. Оценки становится очень чувствительными к изменению спецификации и изменению отдельных наблюдений.
5. Общее качество уравнения, а также оценки переменных, не связанных мультиколлинеарностью, остаются незатронутыми.
6. Чем ближе мультиколлинеарность к совершенной (строгой), тем серьезнее ее последствия.
29)Методы проверки наличия мультиколлиниарности. Показатель vif – «фактор инфляции вариации»
Мультиколлинеарность - это коррелированность двух или нескольких объясняющих переменных в уравнении регрессии. В результате высококоррелированные объясняющие переменные действуют в одном направлении и имеют недостаточно независимое колебание, чтобы дать возможность модели изолировать влияние каждой переменной.
Для проверки появления мультиколлинеарности применяются 2 метода:
1) вычисление матрицы коэффициентов корреляции для всех объясняющих переменных. Если коэффициенты корреляции между отдельными объясняющими переменными очень велики, то, следовательно, они коллинеарны. Однако, при этом не существует единого правила в соответствии с которым есть некоторое пороговое значение коэффициента корреляции, после которого высокая корреляция может вызвать отрицательный эффект и повлиять на качество регрессии.
2) для измерения эффекта мультиколлинеарности используется показатель VIF – «фактор инфляции вариации»:
-
,
где
- значение коэффициента множественной
корреляции, полученное для регрессора
,
как зависимой переменной и остальных
переменных
.
При этом степень мультиколлинеарности,
представляемая в регрессии переменной
,
когда переменные
включены в регрессию, есть функция
множественной корреляции между
и
другими переменными
.
- если
,
то объясняющие переменные, коррелирующие
между собой, считаются мультиколлинеарными.
Существует еще ряд способов, позволяющих обнаружить эффект мультиколлинеарности:
- стандартная ошибка регрессионных коэффициентов близка к нулю;
- мощность коэффициента регрессии отличается от ожидаемого значения;
- знаки коэффициентов регрессии противоположны ожидаемым;
- добавление или удаление наблюдений из модели сильно изменяют значения оценок;
- значение F-критерия существенно, а t-критерия – нет.
30)Методы устранения мультиколлинеарности.
Средства от мультиколлинеарности
1. Изменить или увеличить выборку
2. Исключить одну из переменных
3. Преобразовать мультиколлинеарные переменные
- использовать нелинейные формы
- использовать агрегаты (линейные комбинации нескольких переменных
- использовать первые разности вместо самих переменных
4. Ничего не делать!
