- •1. Основные задачи эконометрики. Эконометрические модели. Примеры.
- •2. Классификация переменных. Типы данных.
- •3. Типы данных, измерения в эконометрике.
- •2) Динамические данн – данн экономического показателя для какого либо объекта, собранного в последовательные моменты времени с одинаковым интервалом.
- •4. Основные этапы эконометрического моделирования на примере.
- •5. Классификация эконометрических моделей
- •6. Задачи регрессионного анализа. Виды зависимостей м-ду перем.
- •7. Способы оценивания. Свойства оценок.
- •8. Проверка статистических гипотез.
- •9. Парная регрессия. Описание метода наименьших квадратов.
- •10. Вывод формул для оценок параметров парной линейной регрессии.
- •11. Дисперсионный анализ. Оценка значимости уравнения регрессии.
- •12. Коэффициенты корреляции, детерминации Интерпретация.
- •13. Проверка гипотез относительно параметров линейного уравнения.
- •14. Интервальная оценка параметров моделей парной регрессии
- •15. Вычисление предсказ. Значений зависимой переменной. Доверительные интервалы для предсказаний. Коэф. Эластичности.
- •16. Выбор функции. Сравнение различных моделей
- •17. Предпосылки применения мнк
- •18. Нелинейная регрессия. Нелинейная модель и их линеаризация.
- •19. Преобразование случайного отклонения в моделях нелин регрессии
- •20. Модель множественной регрессии. Условия Гаусса-Маркова.
- •21. Вывод формул для оценок коэффициентов модели мр. Матричная запись. Теорема Гаусса-Маркова.
- •22. Дисперсии и стандартные ошибки коэффициентов (ковариационная матрица и ее выборочная оценка).
- •23. Интервальные оценки коэффициентов уравнения мр. Проверка статистической значимости коэффициентов.
- •24. Проверка общего качества уравнения множественной регрессии.
- •25.Коэффициент детерминации для уравнения множественной регрессии.
- •28. Использование статстики Фишера для вкл. В модель х.
- •29. Необходимость проверки предпосылок регрессионного анализа.
- •30. Спецификация ур-я мр. Тест Рамсея.
- •31. Логарифмические (лог-линейные модели). Производственная функция Кобба-Дугласа. Зависимости в банковском анализе.
- •32. Обратная модель. Ф-ция Торнквиста. Кривая Филипса.
- •33. Суть гетероскедастичности.
- •34. Выявление гетероскедастичности (Тест г-к, Тест Спирмена)
- •35. Устранение гк. Метод взвешенных нк.
- •36. Автокорреляция случайных ошибок.
- •37. Выявление автокорреляции
- •38. Методы устранения автокорреляции
- •39. Мультиколлинеарность как проблема данных. Следствия.
- •40. Обнаружение мультиколлинеарности
- •41. Борьба с мультиколлинеарностью. Гребневая регрессия.
- •42. Фиктивные переменные
- •43 Тест Чоу.
- •44. Системы эконометрических уравнений
- •48. Временные ряды. Мультипликативная и аддитивная модели.
- •49. Автокорреляционная функция
- •50. Моделирование тенденции временного ряда, сезонных и циклич. Колебаний.
24. Проверка общего качества уравнения множественной регрессии.
Дисперсионный анализ
Общ факт ост
Сумма (Yi-Yср)^2= сумма (Yi расч –Y ср)^2+ сумма(Yi-Yiрасч)^2
Чсс n-1 k-1 n-k
S^2факт= (сумма (Yрасч – Y ср)^2)/k-1
S^2ост= (сумма (Yi – Yрасч )^2)/n-k
Тестир
Ho – значим число
Dост>= D факт
H1: pyfxbvj
Dост< D факт
F=Sфак^2/Sост^2
F- крит Фишера
Fкр(альфа, k-1,n-k)
Если F>Fкр- статистич значимо (H1)
F<Fкр =>Ho
R^2=(сумма (Yрасч-Yср)^2)/(сумма(Y-Yср)^2)
Через R^2=> F= (R^2/ k-1)/((1-R^2)/n-k)
F= (R^2/1-R^2)*((n-k)/k-1)
25.Коэффициент детерминации для уравнения множественной регрессии.
Для множественной регрессии коэффициент детерминации является неубывающей функцией числа объясняющих переменных. Добавление новой объясняющей переменной никогда не уменьшает значение R2, так как каждая последующая переменная может лишь дополнить, но никак не сократить информацию, объясняющую поведение зависимой переменной. Иногда при расчете коэффициента детерминации для получения несмещенных оценок в числителе и знаменателе вычитаемой из единицы дроби делается поправка на число степеней свободы, т.е. вводится так называемый скорректированный (исправленный) коэффициент детерминации:
Rср^2, те скорректированный коэффициент детерминации, выглядит как R^2 ср, те с палочкой на верху
Rср^2=1-(1-R^2)*n-1/n-k
(1-R^2)=(сумма (Y-Yрасч)(^2)/n-k )/(сумма(Y-Yср)(^2/n-1))
Свойства
всегда меньше или равен коэф-ту детерминации
позволяет сравнивать модели с разным числом объясняющих переменных (при постоянном ко-ве набл.)
26-27. Ошибки спецификации.
Переменная называется существенной (несущественной), если она должна быть (не должна быть) включена в уравнение регрессии согласно правильной теории.
Соответственно возможны две ситуации:
1. в оцениваемой модели отсутствует часть объясняющих переменных, имеющихся в истинной модели (исключение существенных переменных);
2. в оцениваемой модели присутствуют объясняющие переменные, отсутствующие в истинной модели (включение несущественных переменных).
Если совершена первая ошибка – в оцениваемую модель не включены существенные переменные то последствия этого:
1. Уменьшается возможность правильной оценки и интерпретации урав-я.
2. Коэффициенты при оставшихся переменных могут оказаться смещенными. 3. Стандартные ошибки коэф-тов, t статистики и др показатели кач-ва становятся некорректными и не могут использоваться при оценке кач-ва урав-я.
Пример: 2-факторная истинная модель, для кот оцениваемая модель не включает одну из сущ-х перем-х. Пусть истинная модель опис-ся урав-ем:
Y=Бэта0+Бэта1Х1+Бэта2Х2+ эплселент. (1)
Модель без X2: Y=B0+B1Х1+ eps*, где eps* = B2Х2+ eps. (2)
Если переменные коррелированны, нарушается условие некоррелированности случайного члена и объясняющих переменных.
Для модели (1) оценка b1 коэффициента Бэта1 - несмещенная, т е M(b1)=Бэта1. Для модели (2) оценка b1* коэффициента Бэта1 - смещенная, т е M(b1*) не=Бэта1, смещение происходит на величину Бэта2 cov(х1,х2)/D(х1). Направление смещения зависит от знака истинного значения коэффициента
знак B2 согл. теор.\ cov(x1,x2) | + | - |
+ | + | - |
- | - | + |
Пример с бензином: у – спрос, х1 – цена, х2 – количество потр-лей.
Если совершается вторая ошибка, в модель включается несущественная переменная, то последствия этого не столь значимы, как в случае первой : не теряется возможность правильной оценки и интерпретации уравнения.
1. Коэф-ты при других перем-х остаются несмещенными.
2. Стандартные ошибки растут, t -статистики уменьш-ся, эффект-ть оценок падает.
3. Несущ-ая переменная м б значимой, а, след-но,урав-е с ней дает лучшую оценку, чем без нее.
4. Увеличивается риск мультиколлинеарности