- •1. Основные задачи эконометрики. Эконометрические модели. Примеры.
- •2. Классификация переменных. Типы данных.
- •3. Типы данных, измерения в эконометрике.
- •2) Динамические данн – данн экономического показателя для какого либо объекта, собранного в последовательные моменты времени с одинаковым интервалом.
- •4. Основные этапы эконометрического моделирования на примере.
- •5. Классификация эконометрических моделей
- •6. Задачи регрессионного анализа. Виды зависимостей м-ду перем.
- •7. Способы оценивания. Свойства оценок.
- •8. Проверка статистических гипотез.
- •9. Парная регрессия. Описание метода наименьших квадратов.
- •10. Вывод формул для оценок параметров парной линейной регрессии.
- •11. Дисперсионный анализ. Оценка значимости уравнения регрессии.
- •12. Коэффициенты корреляции, детерминации Интерпретация.
- •13. Проверка гипотез относительно параметров линейного уравнения.
- •14. Интервальная оценка параметров моделей парной регрессии
- •15. Вычисление предсказ. Значений зависимой переменной. Доверительные интервалы для предсказаний. Коэф. Эластичности.
- •16. Выбор функции. Сравнение различных моделей
- •17. Предпосылки применения мнк
- •18. Нелинейная регрессия. Нелинейная модель и их линеаризация.
- •19. Преобразование случайного отклонения в моделях нелин регрессии
- •20. Модель множественной регрессии. Условия Гаусса-Маркова.
- •21. Вывод формул для оценок коэффициентов модели мр. Матричная запись. Теорема Гаусса-Маркова.
- •22. Дисперсии и стандартные ошибки коэффициентов (ковариационная матрица и ее выборочная оценка).
- •23. Интервальные оценки коэффициентов уравнения мр. Проверка статистической значимости коэффициентов.
- •24. Проверка общего качества уравнения множественной регрессии.
- •25.Коэффициент детерминации для уравнения множественной регрессии.
- •28. Использование статстики Фишера для вкл. В модель х.
- •29. Необходимость проверки предпосылок регрессионного анализа.
- •30. Спецификация ур-я мр. Тест Рамсея.
- •31. Логарифмические (лог-линейные модели). Производственная функция Кобба-Дугласа. Зависимости в банковском анализе.
- •32. Обратная модель. Ф-ция Торнквиста. Кривая Филипса.
- •33. Суть гетероскедастичности.
- •34. Выявление гетероскедастичности (Тест г-к, Тест Спирмена)
- •35. Устранение гк. Метод взвешенных нк.
- •36. Автокорреляция случайных ошибок.
- •37. Выявление автокорреляции
- •38. Методы устранения автокорреляции
- •39. Мультиколлинеарность как проблема данных. Следствия.
- •40. Обнаружение мультиколлинеарности
- •41. Борьба с мультиколлинеарностью. Гребневая регрессия.
- •42. Фиктивные переменные
- •43 Тест Чоу.
- •44. Системы эконометрических уравнений
- •48. Временные ряды. Мультипликативная и аддитивная модели.
- •49. Автокорреляционная функция
- •50. Моделирование тенденции временного ряда, сезонных и циклич. Колебаний.
38. Методы устранения автокорреляции
Автокорреляция чаще всего вызывается неправильной спецификацией модели, то необходимо прежде всего скорректировать саму модель. Возможно, автокорреляция вызвана отсутствием в модели некоторой важной объясняющей переменной. Следует попытаться определить данный фактор и учесть его в уравнении регрессии. Также можно попробовать изменить формулу зависимости (например, линейную на лог-линейную, линейную на гиперболическую и т.д.).
Однако если все разумные процедуры изменения спецификации модели, на ваш взгляд, исчерпаны, а автокорреляция имеет место, то можно предположить, что она обусловлена какими-то внутренними свойствами ряда (et). В этом случае можно воспользоваться авторегрессионным преобразованием. В линейной регрессионной модели либо в моделях, сводящихся к линейной, наиболее целесообразным и простым преобразованием является авторегрессионная схема первого порядка AR(1).
Пусть случайные отклонения подвержены воздействию авторегрессии первого порядка :
Et=p*Et-1+Vt
где Vt, t=2,3,...,Т, — случайные отклонения, удовлетворяющие всем предпосылкам МНК, а коэффициент p известен.
Наблюдениям t и (t-1) соответствуют формулы:
Yt=бета 0+бетта1*Xt+Et (1)
Yt-1= бета 0+бетта1*Xt-1+Et-1 (2) / *p и вычесть из (1)
Yt- p*Yt-1=(1-p)бета 0+бетта1(Xt-p*Xt-1)+(Et-p*Et-1) + Vt
Положив Yt’= Yt- p*Yt-1, Xt’=Xt-p*Xt-1, бетта0’=(1-p)бетта0 и с учетом h=p^ корень (n/(1-n*D(g)))
где ^—оценка авторегрессии первого порядка, D(g)— выборочная дисперсия коэффициента () при лаговой переменной Yt-1 , п — число наблюдений.
получим:
Yt’=бетта0+бетта1*Xt’+Vt
Так как по предположению коэффициент p известен, то очевидно, Yt’, Xt’, Vt’ вычисляются достаточно просто. В силу того что случайные отклонения Vt удовлетворяют предпосылкам МНК, оценки бетта0’ и бетта1 будут обладать свойствами наилучших линейных несмещенных оценок.
Но способ вычисления Yt’ , Xt’ приводит к потере первого наблюдения (если мы не обладаем предшествующим ему наблюдением). Число степеней свободы уменьшится на единицу, что при больших выборках не так существенно, но при малых выборках может привести к потере эффективности. Эта проблема преодолевается с помощью поправки Прайса—Винстена:
X’1= корень (1-p^2)*X1
Y’1= корень (1-p^2)*Yt
39. Мультиколлинеарность как проблема данных. Следствия.
Мультиколлиниарность – наличие корреляционной связи мд объясняющими переменными. Бывает: 1) Полная – м-ду независ переменными есть f-связь.
2) Нестрогая – наличие сильной корреляц связи.
Пусть оценив ур-ние: 1) y=Бета0+бета1х1+бета1х2+ E
2) x2= гамма0+гамма1*х1 выведем 1 через 2:
3) y=(бетта0+бетта2гамма0)+(бетта1+бетта2гамма1)х1+ Е
3 – показ, что реально можно оценить 2 параметра. Для 1 – b0, b1, b2
B0 + b2гамма0=С0 – реальн B1+b2гамма1=С1 – мнимые
По модели, в к-рой есть М оценить влиян кажд. фактора на рез-т невозможно.
При совершенной мультиколл не получить вообще. Т.к b=(x^t*x)*x^t*y
При совершен мультиколл det(x^t*x)=0 x^t*x – необратима
В случае сильной мультиколл det(x^t*x) 0
Сравним – мультиколл нет
1)det(x^t*x)=5.1
2) det(x^t*x)=5.01
3) det(x^t*x)=5.001 – совсем не влияет на b
- мулькилл есть
1) det(x^t*x)=0.1
2) det(x^t*x)=0.01
3) det(x^t*x)=0.001 –оценки изменились в 100 раз
Последствия:
1)Оценки коэф-ов могут иметь не правильн с т.зрения экономич теории знаки или принимать неоправданно большие значения .
2) Оценки коэф-ов имеют большие стандартные ошибки, как следствие малозначимыми. Доверит интервалыц станов слишком широкими, что делает затруднительной оценку влиян на результат.
3) Оценки коэф-ов станов не устойчивыми. Малейшее изменение в выборке могут существенно изменить значен оценок, вплоть до смены знака.
Причины возникновения:
Ошибочн включённые в модель 2ух и более линейносвязанных переменных
2 и более переменных в условиях конкр выборки оказываются линейносвязанными
В модели включаются переменные, котор сильно коррелир с зависимой переменной , тогда для всех остальных характерно следствие – их влияние на результат меньше чем связь друг с сдругом.