- •1. Основные задачи эконометрики. Эконометрические модели. Примеры.
- •2. Классификация переменных. Типы данных.
- •3. Типы данных, измерения в эконометрике.
- •2) Динамические данн – данн экономического показателя для какого либо объекта, собранного в последовательные моменты времени с одинаковым интервалом.
- •4. Основные этапы эконометрического моделирования на примере.
- •5. Классификация эконометрических моделей
- •6. Задачи регрессионного анализа. Виды зависимостей м-ду перем.
- •7. Способы оценивания. Свойства оценок.
- •8. Проверка статистических гипотез.
- •9. Парная регрессия. Описание метода наименьших квадратов.
- •10. Вывод формул для оценок параметров парной линейной регрессии.
- •11. Дисперсионный анализ. Оценка значимости уравнения регрессии.
- •12. Коэффициенты корреляции, детерминации Интерпретация.
- •13. Проверка гипотез относительно параметров линейного уравнения.
- •14. Интервальная оценка параметров моделей парной регрессии
- •15. Вычисление предсказ. Значений зависимой переменной. Доверительные интервалы для предсказаний. Коэф. Эластичности.
- •16. Выбор функции. Сравнение различных моделей
- •17. Предпосылки применения мнк
- •18. Нелинейная регрессия. Нелинейная модель и их линеаризация.
- •19. Преобразование случайного отклонения в моделях нелин регрессии
- •20. Модель множественной регрессии. Условия Гаусса-Маркова.
- •21. Вывод формул для оценок коэффициентов модели мр. Матричная запись. Теорема Гаусса-Маркова.
- •22. Дисперсии и стандартные ошибки коэффициентов (ковариационная матрица и ее выборочная оценка).
- •23. Интервальные оценки коэффициентов уравнения мр. Проверка статистической значимости коэффициентов.
- •24. Проверка общего качества уравнения множественной регрессии.
- •25.Коэффициент детерминации для уравнения множественной регрессии.
- •28. Использование статстики Фишера для вкл. В модель х.
- •29. Необходимость проверки предпосылок регрессионного анализа.
- •30. Спецификация ур-я мр. Тест Рамсея.
- •31. Логарифмические (лог-линейные модели). Производственная функция Кобба-Дугласа. Зависимости в банковском анализе.
- •32. Обратная модель. Ф-ция Торнквиста. Кривая Филипса.
- •33. Суть гетероскедастичности.
- •34. Выявление гетероскедастичности (Тест г-к, Тест Спирмена)
- •35. Устранение гк. Метод взвешенных нк.
- •36. Автокорреляция случайных ошибок.
- •37. Выявление автокорреляции
- •38. Методы устранения автокорреляции
- •39. Мультиколлинеарность как проблема данных. Следствия.
- •40. Обнаружение мультиколлинеарности
- •41. Борьба с мультиколлинеарностью. Гребневая регрессия.
- •42. Фиктивные переменные
- •43 Тест Чоу.
- •44. Системы эконометрических уравнений
- •48. Временные ряды. Мультипликативная и аддитивная модели.
- •49. Автокорреляционная функция
- •50. Моделирование тенденции временного ряда, сезонных и циклич. Колебаний.
28. Использование статстики Фишера для вкл. В модель х.
На практике мы сравниваем две модели:
Y = X Бэта +ZГамма+ эпселент (длинная регрессия или модель без ограничений),
Y= XБэта + эпселент (короткая регрессия или модель с ограничениями),
здесь Z - дополнительные, включаемые в модель переменные, Гамма - коэф-ты при них.
Решать какую из них предпочесть на основании коэффициента детерминации – нельзя. При включении новой объясняющей перем-ой коэф-т детерминации растет.
Значимость включаемых перем-х можно определить на основе t -статистики соответствующего коэффициента. Эквивалентный метод: использование F критерия:
F = ((RSS m - RSS m+1)/1)/ (RSS m+1 /(n-m-2)),
где RSS m - остаточная сумма квадратов отклонений для модели с m переменными, RSSm+1 - остаточная сумма квадратов отклонений для модели с m+1переменной (с дополнительно включенной переменной).
Тестируемые гипотезы в этом случае:
H0 включаемая переменная статистически незначима,
H1 – альтернативная гипотеза.
При включении группы переменных их значимость можно оценить также на основе F критерия:
F = ((RSS m - RSS m+s)/1)/ (RSS m+1 /(n-(m+s)-1))
Отклонение гипотезы H0, то есть признание группы переменных значимой, не означает значимость каждой переменной. Поэтому при включении переменных целесообразно добавлять их по одной, чтобы в результате в уравнении присутствовали значимые переменные.
Основания для включения переменной в модель.
1. Экономические предпосылки модели предполагают использование переменной в модели.
2. Переменная статистически значима на осн. F -критерия или t - статистики.
3. Скорректированный коэффициент детерминации растет при включении переменной.
4. Другие коэффициенты испытывают значительное смещение при включении новой переменной.
29. Необходимость проверки предпосылок регрессионного анализа.
Основные гипотезы лежащие в основе модели множественной регрессии – это обобщение условий Гаусса-Маркова для модели парной регрессии.
1. Спецификация модели: Y= ХБэта+эпселент.
2. Мат ожидание случ-го отклонения = 0 для всех наблюдений: М(eps i) = 0.
В матричной форме М(эпселент) = 0n. – нуль-вектор размерности n
3. Гомоскедастичность. Дисперсия случ-х отклонений эпселент i постоянна: D(eps i)=D(eps j) = сигма^2, для люб наблюдений i и j .
В матричной форме: D(eps) = = сигма^2*In. – единичный вектор размерности n .
4. Отсутствие автокорреляции. Случ-е отклонения эпселент i и эпселент j явл-ся независ-ми друг от друга для всех i не= j. Сигма ij=cov (eps i, eps j) = {0, если i не = j; сигма(в квадрате), если i=j.
5. X - неслучайная (детерминированная) матрица имеет максимальный ранг - m+1 .Это условие – отсутствие строгой линейной зависимости м/д объясняющими перем-ми, то есть ни один столбец (значения переменной в наблюдениях) не является линейной комбинацией других.
6. Дополнительное условие – случайный член распределен нормально.
Необх-ть проверки предпосылок возникает из-за возможности их нарушения:
Мультиколлинеарность-Одной из предпосылок явл-ся предположение о лин-ой независ-ти объясняющих перем-х. При нарушении условия имеет место полная (совершенная) мульт-сть. Для моделей множественной регрессии более характерна несовершенная мульт-сть.
Последствия мульт-ти: Оценки коэффициентов: имеют большие стандартные ошибки, малую значимость, что расширяет доверительные интервалы и делает оценку истинных значений параметров и их влияния на зависимую переменную затруднительной; имеют неправильные с точки зрения теории знаки или неоправданно большие значения; становятся неустойчивыми и малейшее изменение в выборке могут привести к существенным изменениям оценок и даже смене знака.
Автокорреляция определяется как корреляция между наблюдаемыми показателями. Автокорреляция остатков обычно встречается в регрессионном анализе при использовании временных рядов. Автокорреляция случайных отклонений - это нарушение предпосылки регрессионного анализа о независимости случайных возмущений для каждого наблюдения. Гетероскедастичность (разный разброс) – нарушение предпосылки регрессионного анализа о постоянстве дисперсии случайного отклонения во всех наблюдениях. В отличие от автокорреляции, которая более характерна для временных рядов, гетероскедастичность чаще встречается в регрессионных моделях, построенных по данным пространственных выборок. Гетероскедастичность может быть, как и автокорреляция – ложной и истинной. Ложная гетероскедастичность связана с ошибками спецификации.