
- •Вопрос 1
- •Вопрос 2
- •3. Геометрическая интерпретация мнк
- •4.Теорема Гаусса-Маркова
- •5. Использование t-статистики для проверки статистических гипотез о параметрах регрессии.
- •6. Использование коэффициента детерминации r2 и f–критерия для проверки статистических гипотез о параметрах регрессии.
- •7. Тестирование гипотез общего линейного вида о параметрах регрессии.
- •8. Мультиколлинеарность
- •9. Искусственные (фиктивные) переменные.
- •10. Гетеро- и гомоскедастичность. Модели с безусловной и условной гетероскедастичностью.
- •13.Автокорреляция (последовательная корреляция) определяется
- •16) Система линейных одновременных уравнений (лоу) и ее идентификация.
- •17.Метод инструментальных переменных оценки параметров систем одновременных уравнений.
- •18.Двухшаговый метод оценки параметров систем одновременных уравнений.
- •19.Модели векторной авторегрессии
- •20.Моделирование и прогнозирование волатильности финансовых рынков.
- •23. Модели систем массового обслуживания
- •24. Весь процесс эконометрического моделирования можно разбить на шесть основных этапов:
- •Типы исходных данных для построения эконометрических моделей
- •Экономическая интерпретация коэффициентов регрессионного уравнения в линейной спецификации и в модели «в логарифмах»?
- •27) Какие гипотезы проверяются с помощью критерия Стьюдента?
- •28) Какие гипотезы проверяются с помощью критерия Дарбина-Уотсона?
- •37. Как оценивается дисперсия истинной ошибки модели.
- •38. Каковы последствия мультиколлинеарности факторов.
- •43. Основные подходы к оценке коэффициентов эконометрической модели, содержащей лаговые зависимые переменные
- •44. Оценка точности прогноза
- •45.Что представляет собой “доверительный интервал прогноза”?
- •46.Охарактеризуйте особенности прогнозирования на основе моделей авторегрессионных временных рядов.
- •50. Тесты ранга коинтеграции.
Вопрос 1
Множественная линейная регрессия является обобщением парной линейной регрессии на несколько объясняющих переменных. При выполнении предпосылок Гаусса-Маркова оценки параметров уравнения множественной линейной регрессии, полученные методом наименьших квадратов, обладают свойствами несмещенности, эффективности и состоятельности. Статистическая значимость коэффициентов и качество подбора уравнения проверяются с помощью распределений Стьюдента и Фишера. Коэффициент при объясняющей переменной показывает, на сколько единиц изменится зависимая переменная, если объясняющая вырастет на одну единицу при фиксированном значении остальных объясняющих переменных. В случае множественной регрессии дополнительно предполагается отсутствие мультиколлинеарности объясняющих переменных.
Вопрос 2
В основе метода наименьших квадратов (МНК) лежит поиск таких значений коэффициентов регрессии, при которых сумма квадратов отклонений теоретического распределения от эмпирического была бы наименьшей.
Оценки коэффициентов моделей, полученные на основе МНК, не зависят от фактического закона распределения.
В отношении свойств ошибки модели выдвигаются следующие предположения:
– ошибка имеет нулевое математическое ожидание;
– ее дисперсия конечна и постоянна;
– автокорреляционные связи в ряду ошибки отсутствуют
– ряд значений ошибки статистически не связан с рядами значений независимых переменных модели.
3. Геометрическая интерпретация мнк
Геометрически
задача МНК состоит в том, чтобы найти
такой вектор у^
из
£(Х), чтобы евклидово расстояние между
у и у^ было минимальным. Иными словами,
мы ищем среди всех линейных комбинаций
регрессоров наиболее близкую к y.
4.Теорема Гаусса-Маркова
Если предпосылки метода наименьших квадратов, то оценки, полученные по МНК, обладают следующими свойствами:
Оценки параметров являются несмещенными, т. е. M(b1) = β1, M(b0) = β0 (математические ожидания оценок параметров равны их теоретическим значениям). Это вытекает из того, что M(εi) = 0, и говорит об отсутствии систематической ошибки в определении положения линии регрессии.
Оценки параметров состоятельны, так как дисперсия оценок параметров при возрастании числа n наблюдений стремится к нулю D(b0) → 0, D(b1) → 0 при n → ∞ . По другому говоря, при увеличении объема выборки надежность оценок увеличивается (b1 наверняка близко к β1, b0 — близко к β0).
Оценки параметров эффективны, т. е. они имеют наименьшую дисперсию по сравнению с другими оценками данных параметров, линейными относительно величин yi.
Предпосылки МНК (Условия Гаусса-Маркова):
Математическое ожидание случайного отклонения еi равно нулю: M(еi) = 0 для всех наблюдений.
Дисперсия случайных отклонений epsiloni постоянна: D(εi) = D (εj ) = σ2 = const для любых наблюдений i и j.
Случайные отклонения εi и εj являются независимыми друг от друга для i ≠ j.
Случайное отклонение должно быть независимо от объясняющих переменных.
Модель является линейной относительно параметров.
Отсутствие мультиколлинеарности.
Случайные отклонения εi, i = 1, 2, ... , n, имеют нормальное распределение.