
- •1 Множественная линейная регрессия: задача и основные предположения.
- •Вопрос 2. Метод наименьших квадратов для множественной линейной регрессии.
- •3. Геометрическая интерпретация мнк
- •4. Статистические свойства оценок параметров, теорема Гаусса-Маркова.
- •5. Использование t-статистики для проверки статистических гипотез о параметрах регрессии.
- •6. Использование коэффициента детерминации r2 и f–критерия для проверки статистических гипотез о параметрах регрессии.
- •7. Тестирование гипотез общего линейного вида о параметрах регрессии.
- •8. Мультиколлинеарность
- •9. Искусственные (фиктивные) переменные.
- •10. Гетеро- и гомоскедастичность. Модели с безусловной и условной гетероскедастичностью.
- •12. Тест Чоу на структурную изменчивость.
- •13. Автокорреляция. Тесты на автокорреляцию остатков (критерий Дарбина-Уотсона, тест множителей Лагранжа, q-статистика Льюнга-Бокса)
- •14.Оценивание при наличии автокорреляции остатков.
- •15. Прогнозирование в регрессионных моделях
- •16. Система линейных одновременных уравнений (лоу) и ее идентификация.
- •17. Метод инструментальных переменных оценки параметров систем одновременных уравнений.
- •18. Двухшаговый метод оценки параметров систем одновременных уравнений.
- •19.Модели векторной авторегрессии
- •20. Моделирование и прогнозирование волатильности финансовых рынков.
- •21. Модели коррекции ошибок. Подход Йохансена, Подход Энгла-Грэйнджера.
- •22.Принцип отсутствия арбитражных возможностей.
- •23. Модели систем массового обслуживания
- •24. Этапы построения эконометрических моделей.
- •Типы исходных данных для построения эконометрических моделей
- •Экономическая интерпретация коэффициентов регрессионного уравнения в линейной спецификации и в модели «в логарифмах»?
- •27) Какие гипотезы проверяются с помощью критерия Стьюдента?
- •28) Какие гипотезы проверяются с помощью критерия Дарбина-Уотсона?
- •29. Что показывают коэффициенты множественной корреляции и детерминации?
- •30. Какие гипотезы проверяются с помощью критерия Фишера?
- •31. Что такое «асимптотическая несмещенность», «асимптотическая состоятельность» и «эффективность»?
- •32. Каковы основные предположения метода наименьших квадратов (мнк)?
- •33. В чем суть мнк?
- •34. Какими свойствами обладают мнк-оценки классической линейной эконометрической модели?
- •35. Перечислите свойства вектора ошибок эконометрической модели.
- •36. Каким образом проверяется наличие автокорреляции ошибок модели?
- •37. Как оценивается дисперсия истинной ошибки модели.
- •38. Каковы последствия мультиколлинеарности факторов.
- •43. Основные подходы к оценке коэффициентов эконометрической модели, содержащей лаговые зависимые переменные
- •44. Как оценивается точность прогноза?
- •45.Что представляет собой “доверительный интервал прогноза”?
- •46.Охарактеризуйте особенности прогнозирования на основе моделей авторегрессионных временных рядов.
- •47. Чем обусловлена смещенность оценок коэффициентов уравнений, полученных с использованием мнк?
- •48. Что представляют собой структурная и приведенная формы модели одновременных уравнений?
- •49. В чем состоит суть двухшагового мнк, используемых для оценки коэффициентов системы одновременных уравнений?
- •50. Тесты ранга коинтеграции.
- •51. Анализ откликов на импульсные шоковые воздействия.
1 Множественная линейная регрессия: задача и основные предположения.
Общее назначение множественной регрессии состоит в анализе связи между несколькими независимыми переменными (называемыми также регрессорами или предикторами) и зависимой переменной.
Множественная линейная регрессия является обобщением парной линейной регрессии на несколько объясняющих переменных. При выполнении предпосылок Гаусса-Маркова оценки параметров уравнения множественной линейной регрессии, полученные методом наименьших квадратов, обладают свойствами несмещенности, эффективности и состоятельности. Статистическая значимость коэффициентов и качество подбора уравнения проверяются с помощью распределений Стьюдента и Фишера. Коэффициент при объясняющей переменной показывает, на сколько единиц изменится зависимая переменная, если объясняющая вырастет на одну единицу при фиксированном значении остальных объясняющих переменных. В случае множественной регрессии дополнительно предполагается отсутствие мультиколлинеарности объясняющих переменных.
Вопрос 2. Метод наименьших квадратов для множественной линейной регрессии.
Классический подход к оцениванию параметров линейной модели множественной регрессии основан на МНК. МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака от расчетных минимальна:
Оценки коэффициентов моделей, полученные на основе МНК, не зависят от фактического закона распределения.
В отношении свойств ошибки модели выдвигаются следующие предположения:
– ошибка имеет нулевое математическое ожидание;
– ее дисперсия конечна и постоянна;
– автокорреляционные связи в ряду ошибки отсутствуют
– ряд значений ошибки статистически не связан с рядами значений независимых переменных модели.
3. Геометрическая интерпретация мнк
Идея МНК заключается в том, что функцию f (x, a1, a2,.. ak) необходимо подобрать таким образом, чтобы сумма квадратов отклонений измеренных значений уi от расчетных Уi= f (x, a1, a2, … ak) была бы наименьшей.
Геометрически
задача
МНК состоит в том, чтобы найти такой
вектор у^
из
£(Х), чтобы евклидово расстояние между
у и у^ было минимальным. Иными словами,
мы ищем среди всех линейных комбинаций
регрессоров наиболее близкую к y.
4. Статистические свойства оценок параметров, теорема Гаусса-Маркова.
Если предпосылки метода наименьших квадратов, то оценки, полученные по МНК, обладают следующими свойствами:
Оценки параметров являются несмещенными, т. е. M(b1) = β1, M(b0) = β0 (математические ожидания оценок параметров равны их теоретическим значениям). Это вытекает из того, что M(εi) = 0, и говорит об отсутствии систематической ошибки в определении положения линии регрессии.
Оценки параметров состоятельны, так как дисперсия оценок параметров при возрастании числа n наблюдений стремится к нулю D(b0) → 0, D(b1) → 0 при n → ∞ . По другому говоря, при увеличении объема выборки надежность оценок увеличивается (b1 наверняка близко к β1, b0 — близко к β0).
Оценки параметров эффективны, т. е. они имеют наименьшую дисперсию по сравнению с другими оценками данных параметров, линейными относительно величин yi.
Предпосылки МНК (Условия Гаусса-Маркова):
Математическое ожидание случайного отклонения еi равно нулю: M(еi) = 0 для всех наблюдений.
Дисперсия случайных отклонений epsiloni постоянна: D(εi) = D (εj ) = σ2 = const для любых наблюдений i и j.
Случайные отклонения εi и εj являются независимыми друг от друга для i ≠ j.
Случайное отклонение должно быть независимо от объясняющих переменных.
Модель является линейной относительно параметров.
Отсутствие мультиколлинеарности.
Случайные отклонения εi, i = 1, 2, ... , n, имеют нормальное распределение.