- •2. Автокорреляция случайных возмущений: определение, причины, последствия, количественные характеристики вектора случайных возмущений в условиях автокорреляции
- •3.Алгоритм проверки адекватности множественной регрессионной модели
- •4. Алгоритм проверки значимости регрессоров в множественной регрессионной модели: выдвигаемая статистическая гипотеза, процедура ее проверки, формулы для расчета статистики
- •5. Анализ влияния факторов на зависимую переменную по модели регрессии
- •6. Анализ матрицы коэффициентов парной корреляции. Проверка значимости коэффициентов корреляции
- •7. Способы включения случайного возмущения в спецификацию нелинейной модели
- •8. Гетероскедастичность случайного возмущения: определение, причины, последствия, количественные характеристики вектора случайных возмущений в условиях гетероскедастичности
- •9. Диагностика эконометрических моделей: тестирование гетероскедастичности случайного возмущения (тест Голдфельда-Квандта)
- •10. Диагностика эконометрических моделей: тестирование гетероскедастичности случайного возмущения (тест Уайта)
- •11. Диагностика эконометрических моделей: тестирование значимости структурных изменений в экономике (тест Чоу)
- •12. Диагностика эконометрических моделей: тестирование функциональной формы (тест Рэмси reset)
- •13. Классификация эконометрических моделей для панельных данных
- •14. Классическая множественная регрессионная модель: спецификация, предпосылки
- •15. Классическая множественная регрессионная модель: числовые характеристики вектора мнк-оценок параметров.
- •16. Классическая множественная регрессионная модель: числовые характеристики вектора оценок эндогенной переменной
- •17. Классическая множественная регрессионная модель: числовые характеристики вектора ошибок прогнозов
- •19. Линейно-вероятностная модель с дискретной зависимой переменной. Спецификация модели
- •20. Матричная форма метода наименьших квадратов: спецификация множественной регрессионной модели в матричной форме, вывод оценки вектора параметров модели
- •21. Методы обнаружения мультиколлинеарности
- •22. Модели бинарного выбора. Логит и пробит модели
- •23. Модель панельных данных со случайными эффектами
- •24. Объединённая модель панельных данных
- •25. Модели для панельных данных: типы моделей
- •26. Модель бинарного выбора: Спецификация модели. Оценка параметров модели методом максимального правдоподобия
- •Линейно-вероятностная модель (lpm-Linear Probability Model)
- •27. Мультиколлинеарность и методы ее устранения
- •28. Обобщенный метод наименьших квадратов
- •29. Обобщенный метод наименьших квадратов структурных изменений в экономике: использование фиктивных переменных, тест Чоу
- •30. Определение структурных изменений в экономике: использование фиктивных переменных, тест Чоу
- •31. Основные числовые характеристики вектора остатков в классической множественной регрессионной модели. Оценка дисперсии возмущений модели множественной регрессии
- •32. Основные этапы эконометрического моделирования
- •Сбор статистической информации об объекте исследования
- •Оценка параметров модели (параметризация, настройка)
- •Проверка адекватности модели (верификация)
- •33. Оценка параметров парной регрессионной модели методом наименьших квадратов (суть метода, вывод формул для нахождения оценок коэффициентов через систему нормальных уравнений)
- •35. Показатели качества модели: коэффициент детерминации (обычный, скорректированный)
- •36. Пошаговые процедуры отбора факторов в модель регрессии
- •38. Проблема мультиколлинеарности в моделях множественной регрессии. Виды мультиколлинеарности, признаки, последствия
- •39. Проблема мультиколлинеарности в моделях множественной регрессии: полная мультиколлинеарность (определение, последствия, пример способа устранения)
- •40. Последствия и признаки частичной мультиколлинеарности
- •41. Прогнозирование на основе модели множественной регрессии
- •42. Свойства оценок мнк (определения и смысл)
- •43. Структурная и приведённая формы спецификации эконометрических моделей
- •44. Схема проведения эконометрических исследований (краткая характеристика каждого этапа)
- •46. Тест Бреуша-Годфри на наличие (отсутствие) автокорреляции случайных возмущений: предпосылки, нулевая гипотеза, тестовая статистика, алгоритм
- •47. Тест Дарбина-Уотсона на наличие (отсутствие) автокорреляции случайных возмущений: предпосылки, нулевая гипотеза, тестовая статистика, алгоритм
- •48. Тестирование мультиколлинеарности. Метод Фаррара-Глоубера
- •49. Типы нелинейности эконометрических моделей. Оценивание эконометрических моделей нелинейных по переменным
- •51. Модель Кобба-Дугласа. Оценка линеаризуемой нелинейной модели и проверка ее адекватности.
- •52. Типы переменных в эконометрических моделях. Типы экономических моделей (примеры)
- •Модели временных рядов;
- •Регрессионные модели с одним уравнением;
- •Системы одновременных уравнений
- •53. Фиктивные переменные наклона. Спецификация моделей. Примеры
- •54. Фиктивные переменные: определение, назначение, типы (спецификация, смысл параметра при фиктивной переменной)
- •55. Эконометрическое исследование: определение, задача, цель, метод. Назначение эконометрических моделей
- •56. Доступный метод взвешенных наименьших квадратов: способ корректировки переменных; числовые характеристики возмущений в преобразованной модели
- •57. Способы корректировки автокорреляции: алгоритм метода Кохрейна-Оркатта.
- •58. Способы корректировки автокорреляции: алгоритм метода Хилдрета-Лу
- •59. Способы корректировки автокорреляции: поправка Прайса-Уинстона в авторегрессионной схеме первого порядка
- •60. Методы обнаружения мультиколлинеарности. Метод дополнительных регрессий
38. Проблема мультиколлинеарности в моделях множественной регрессии. Виды мультиколлинеарности, признаки, последствия
М
ультиколлинеарностью
в моделях множественной регрессии
называется наличие линейной зависимости
между факторными переменными, включенными
в модель.
Мультиколлинеарность – нарушение одного из основных условий, лежащих в основе построения модели множественной регрессии. Мультиколлинеарность в матричном виде – ϶ᴛᴏ зависимость между столбцами матрицы факторных переменных.
Проблема мультиколлинеарности возникает, когда в уравнениях наблюдений столбца матрицы Xстановятся практически линейно зависимыми, что входит в противоречие с исходной предпосылкой Гаусса-Маркова.
Предпосылка
теоремы Гаусса–Маркова – независимость
столбцов 𝑋𝑗
,
матрицы регрессоров 𝑋:
В ситуации мультиколлинеарности оценки параметров линейной регрессионной модели становятся ненадежными
Виды:
Строгая (perfect) мультиколлинеарность - наличие линейной функциональной связи между независимыми переменными (иногда также и зависимой)
Нестрогая (imperfect) мультиколлинеарность - наличие сильной линейной корреляционной связи между независимыми переменными (иногда также и зависимой)
Признаки мультиколлинеарности:
Частичная мультиколлинеарность характеризуется коэффициентом корреляции между регрессорами Для определения степени коррелированности регрессоров определяют матрицу их взаимных корреляций:
1.
Если
Если между регрессорами имеется высокая степень корреляции, матрица 𝑋𝑇𝑋 существует, но близка к вырожденной:
2. Близость к нулю определителя матрицы 𝑋𝑇𝑋
Последствия мультиколлинеарности:
Увеличение дисперсий оценок параметров. Это расширяет интервальные оценки и ухудшает их точность
Уменьшение t-статистик коэффициентов, что приводит к неоправданным выводам о значимости регрессоров
Неустойчивость МНК-оценок параметров и их дисперсий
Возможность получения неверного с точки зрения теории знака у параметра регрессии или неоправданно большого значения
39. Проблема мультиколлинеарности в моделях множественной регрессии: полная мультиколлинеарность (определение, последствия, пример способа устранения)
Мультиколлинеарностью в моделях множественной регрессии называется наличие линейной зависимости между факторными переменными, включенными в модель.
М ультиколлинеарность – нарушение одного из основных условий, лежащих в основе построения модели множественной регрессии. Мультиколлинеарность в матричном виде – ϶ᴛᴏ зависимость между столбцами матрицы факторных переменных.
Проблема мультиколлинеарности возникает, когда в уравнениях наблюдений столбца матрицы Xстановятся практически линейно зависимыми, что входит в противоречие с исходной предпосылкой Гаусса-Маркова.
Предпосылка теоремы Гаусса–Маркова – независимость столбцов 𝑋𝑗 , матрицы регрессоров 𝑋:
В ситуации мультиколлинеарности оценки параметров линейной регрессионной модели становятся ненадежными
Последствия мультиколлинеарности:
Увеличение дисперсий оценок параметров. Это расширяет интервальные оценки и ухудшает их точность
Уменьшение t-статистик коэффициентов, что приводит к неоправданным выводам о значимости регрессоров
Неустойчивость МНК-оценок параметров и их дисперсий
Возможность получения неверного с точки зрения теории знака у параметра регрессии или неоправданно большого значения
Методы устранения мультиколлинеарности:
1. Метод дополнительных регрессий
Строятся уравнения регрессии, которые связывают каждый из регрессоров со всеми остальными
Вычисляются коэффициенты детерминации 𝑅2для каждого уравнения регрессии
Проверяется статистическая гипотеза H0:𝑅2=0 с помощью F-теста
Вывод: если гипотеза H0 не отвергается, то данный регрессор не приводит к мультиколлинеарности.
2. Метод последовательного присоединения
На первом шаге из исходного набора регрессоров выбирается переменная, имеющая наибольший по модулю коэффициент корреляции зависимой переменной 𝑦
На втором шаге учитывается результат предыдущего шага и отбирается наиболее «информативная» пара регрессоров, один из которых отобран на первом шаге. В качестве критерия отбора рассматривается максимум скорректированного 𝑅2
Скорректированный 𝑅2находится по формуле:
На третьем шаге список регрессоров включает два отобранных на предыдущих шагах и проводится поиск третьего регрессора и т.д.
Процесс присоединения регрессоров прекращается, когда значение скорректированного 𝑅2 становится меньше достигнутого на предыдущем шаге.
Каким
бы образом не осуществлялся отбор
факторов, уменьшение их числа приводит
к улучшению обусловленности матрицы
,
а, следовательно, и к повышению качества
оценок параметров модели.
