- •Эконометрика как наука: цель, задачи, предмет и метод. Понятие эконометрической модели
- •Типы данных и виды переменных в эконометрических моделях
- •Этапы эконометрического моделирования.
- •Понятие генеральной и выборочной совокупности значений случайной величины. Числовые характеристики генеральной и выборочной совокупности.
- •Зависимость (независимость) случайных величин. Функциональная и статистическая зависимости. Ковариация и корреляция св. Выборочные и теоретические коэффициенты ковариации и корреляции.
- •Основные принципы и общая схема проверки статистических гипотез. Понятие уровня значимости и числа степеней свободы. Примеры критериев статистического теста.
- •Оценивание значимости коэффициента парной корреляции с помощью t-критерия Стьюдента.
- •Корреляционно – регрессионный анализ: предпосылки и этапы проведения.
- •Модель парной линейной регрессии: спецификация, условия построения.
- •Метод наименьших квадратов. Предпосылки применения метода для оценивания регрессионной модели. Система нормальных уравнений и ее решение.
- •Вопрос 11.Методы оценивания
- •Точечные оценки параметров модели парной линейной регрессии, их свойства и экономическая интерпретация. Связь оценки коэффициента регрессии с выборочным значением коэффициента корреляции.
- •Точечные оценки параметров модели парной линейной регрессии, их свойства и экономическая интерпретация. Связь оценки коэффициента регрессии с выборочным значением коэффициента корреляции.
- •Стандартная ошибка регрессии, стандартные ошибки оценок параметров модели парной линейной регрессии, их свойства.
- •14/ Оценивание значимости коэффициентов выборочной функции парной линейно регрессии с помощью т-критерия Стьюдента.
- •15. Коэффициент детерминации и его значение. Проверка гипотез, относящихся к оценке адекватности регрессионной модели в целом.
- •16. Интервальные оценки параметров. Построение доверительных интервалов для параметров модели парной линейной регрессии.
- •Вопрос 17 Модели регрессии, нелинейные по факторным переменным
- •Модели регрессии, нелинейные по оцениваемым коэффициентам
- •18. Задача множественного корреляционно – регрессионного анализа. Спецификация эконометрической модели множественной регрессии. Условия Гаусса – Маркова для модели множественной регрессии.
- •19. Отбор факторных признаков для включения в модель множественной линейной регрессии.
- •6. Об.Переменные д.Б. Сильно коррелированны с рез. Переменной.
- •20. Явление мультиколлинеарности факторов в регрессионной модели. Способы определения наличия мультиколлинеарности и ее устранения.
- •Методы устранения мультиколлинеарности
- •2. Метод дополнительных регрессий
- •3. Метод последовательного присоединения
- •23. Проверка адекватности модели множественной регрессии
- •24. Гомоскедастичность и гетероскедастичность ряда остатков регрессионной модели.
- •Последствия гетероскедастичности
- •Обнаружение гетероскедастичности
- •Тест Голдфелда—Квандта.
- •Тест ранговой корреляции Спирмена
- •Устранение гетероскедастичности
- •25. Числовые характеристики модели множественной линейной регрессии
- •27. Задача идентифицируемости системы одновременных уравнений. Необх. И достаточ. Условие идентифицируемости уравнений системы.
- •Рассмотрим типы систем эконометрических уравнений.
- •1. Система независимых регрессионных уравнений (внешне не связанных)
- •2. Система рекурсивных уравнений
- •28. Разновидности мнк для оценивания параметров многомерных регрессионных моделей.
- •Двухшаговый метод наименьших квадратов (дмнк)
- •29. Компоненты временного ряда
- •30/ Аддитивная и мультипликативные модели временного ряда.
- •31/ Явления автокорреляции и авторегрессии временного ряда.
- •32/ Моделирование тенденции временного ряда. Основные типы трендов и их распознавание.
- •33/ Эконометрическое прогнозирование, виды прогнозов. Средняя погрешность прогнозирования.
- •34/ Прогнозирование по трендам. Качество прогноза.
Методы устранения мультиколлинеарности
1
Также, корреляционная матрица позволяет
выявить факторы, которые находятся в
тесной линейной корреляционной
взаимосвязи. Считается,
что 2 фактора коллинеарные,
если
больше 0,7.
Если факторы явно коллинеарные, то 1 из них рекомендуется исключить из регрессии. Предпочтение дается не тому фактору, который более тесно связан с рез.переменной, а тому, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами.
2. Метод дополнительных регрессий
Строятся уравнения регрессии, которые связывают каждый из регрессоров со всеми остальными
Вычисляются коэффициенты детерминации
для
каждого уравнения регрессииПроверяется статистическая гипотеза
с
помощью F-теста
Вывод:
если гипотеза
не
отвергается, то данный регрессор не
приводит к мультиколлинеарности.
3. Метод последовательного присоединения
Строится регрессионная модель с учетом всех предполагаемых регрессоров. По признакам делается вывод о возможном присутствии мультиколлинеарности
Рассчитывается матрица корреляций и выбирается регрессор, имеющий наибольшую корреляцию с выходной переменной
К выбранному регрессору последовательно добавляются каждый из оставшихся регрессоров и вычисляются скорректированные коэффициенты детерминации для каждой из моделей. К модели присоединяется тот регрессор, который обеспечивает наибольшее значение скорректированного
Процесс присоединения регрессоров прекращается, когда значение скорректированного становится меньше достигнутого на предыдущем шаге.
К
аким
бы образом не осуществлялся отбор
факторов, уменьшение их числа приводит
к улучшению обусловленности матрицы Хтр*Х,
а, следовательно, и к повышению качества
оценок параметров модели.
4. Получение доп. данных или новой выборки. Иногда для уменьш-я МК достаточно увеличить объем выборки. Однако, это связано с определенными издержками и может усилить автокорреляцию. Эти проблемы ограничивают использовать данный метод.
5. Изменение спецификации модели: либо изменяется форма модели, либо добавляются об.перем-ые, не учтенные в первоначальной модели, но существенно влияющие на завис. переменную.
23. Проверка адекватности модели множественной регрессии
Проверить значимость (качество) уравнения регрессии–значит установить, соответствует ли математическая модель, выражающая зависимость между переменными, экспериментальным данным, достаточно ли включенных в уравнение объясняющих переменных для описания зависимой переменной. Чтобы иметь общее суждение о качестве модели, по каждому наблюдению из относительных отклонений определяют среднюю ошибку аппроксимации. Проверкаадекватности уравнения регрессии (модели) осуществляется с помощью средней ошибки аппроксимации, величина которой не должна превышать 12-15% (максимально допустимое значение).
Чтобы проверить достаточно ли высока степень адаптации модели, необходимо проверить гипотезу о значимости R2:
1. Выдвигаются 2 противополож. гипотезы о коэффициенте ДЕТЕРМИНАЦИИ.
а)Но-истинность которой проверяется: Но: R2=0
б)альтернативная гипотеза: Н1: R2не равно 0
2. Рассчитаем R2, для этого вычисли суммы: Sфакт. =
Sобщ. = =>R2= Sфакт./Sобщ.
3. Вычислим выборочное значение проверочной статистики:
4. Зададим уровень значимости альфа и по таблице распределения Фишера установим критическое значение: Fкр (альфа, К1;К2) , К1=м, К2=n-m-1
Применим решающее правило: Если Выборочное значение меньше критического
, то нулевую гипотезу принимаем на уровне значимости альфа (коэффициент детерминации не существенно отличается от нуля) , если же Выборочное значение больше критического, то нулевую гипотезу отклоняем в пользу альтернативной на уровне значимости альфа (т.е.R2 имеет существенное значение и модель регрессии в целом значима на уровне значимости альфа, т.е. хорошо адаптирована к данным наблюдений).
