- •1. Основные задачи эконометрики. Эконометрические модели. Примеры.
- •2. Классификация переменных. Типы данных.
- •3. Типы данных, измерения в эконометрике.
- •2) Динамические данн – данн экономического показателя для какого либо объекта, собранного в последовательные моменты времени с одинаковым интервалом.
- •4. Основные этапы эконометрического моделирования на примере.
- •5. Классификация эконометрических моделей
- •6. Задачи регрессионного анализа. Виды зависимостей м-ду перем.
- •7. Способы оценивания. Свойства оценок.
- •8. Проверка статистических гипотез.
- •9. Парная регрессия. Описание метода наименьших квадратов.
- •10. Вывод формул для оценок параметров парной линейной регрессии.
- •11. Дисперсионный анализ. Оценка значимости уравнения регрессии.
- •12. Коэффициенты корреляции, детерминации Интерпретация.
- •13. Проверка гипотез относительно параметров линейного уравнения.
- •14. Интервальная оценка параметров моделей парной регрессии
- •15. Вычисление предсказ. Значений зависимой переменной. Доверительные интервалы для предсказаний. Коэф. Эластичности.
- •16. Выбор функции. Сравнение различных моделей
- •17. Предпосылки применения мнк
- •18. Нелинейная регрессия. Нелинейная модель и их линеаризация.
- •19. Преобразование случайного отклонения в моделях нелин регрессии
- •20. Модель множественной регрессии. Условия Гаусса-Маркова.
- •21. Вывод формул для оценок коэффициентов модели мр. Матричная запись. Теорема Гаусса-Маркова.
- •22. Дисперсии и стандартные ошибки коэффициентов (ковариационная матрица и ее выборочная оценка).
- •23. Интервальные оценки коэффициентов уравнения мр. Проверка статистической значимости коэффициентов.
- •24. Проверка общего качества уравнения множественной регрессии.
- •25.Коэффициент детерминации для уравнения множественной регрессии.
- •28. Использование статстики Фишера для вкл. В модель х.
- •29. Необходимость проверки предпосылок регрессионного анализа.
- •30. Спецификация ур-я мр. Тест Рамсея.
- •31. Логарифмические (лог-линейные модели). Производственная функция Кобба-Дугласа. Зависимости в банковском анализе.
- •32. Обратная модель. Ф-ция Торнквиста. Кривая Филипса.
- •33. Суть гетероскедастичности.
- •34. Выявление гетероскедастичности (Тест г-к, Тест Спирмена)
- •35. Устранение гк. Метод взвешенных нк.
- •36. Автокорреляция случайных ошибок.
- •37. Выявление автокорреляции
- •38. Методы устранения автокорреляции
- •39. Мультиколлинеарность как проблема данных. Следствия.
- •40. Обнаружение мультиколлинеарности
- •41. Борьба с мультиколлинеарностью. Гребневая регрессия.
- •42. Фиктивные переменные
- •43 Тест Чоу.
- •44. Системы эконометрических уравнений
- •48. Временные ряды. Мультипликативная и аддитивная модели.
- •49. Автокорреляционная функция
- •50. Моделирование тенденции временного ряда, сезонных и циклич. Колебаний.
17. Предпосылки применения мнк
Предпосылки
Для того чтобы оценки параметров регрессии обладали лучшими свойствами необходимо чтобы случ. Откл. E удовлетвор. Некоторым условиям: нулевая предпосылка => ур-е нелин., уравнение дБ корректно специфицировано y = альфа + бета *X + У
Мат ожид случ отклонения дБ = 0, M(E) = 0
Систематическое влияние неучтенных факторов учтено в свободном члене.
Случ откл Е в отдельном наблюдении мб положительным и отрицательным, как большим по модулю так и маленьким.
Но не дБ причины по которой она смещается в одном из двух возможных направлений
Дисперсия слу откл дБ постоянной
D(E) = D(Ei) = сигма^2
Разброс слу откл постоянен.
Выполнение 2ой предпосылки наз гомоскедастичностью, а ее нарушение – гетероскедастичностью
3) Случ откл дБ распределены независимо друг от друга. Описывается с помощью ковариации
Cov (Ei,Ej) = 0, i != j
Независимость – это отсутствие автокорреляции
Автокорреляция - это связь между последовательными наблюдениями одного и того же экономич показателя.
Автокорреляция бывает положит , если 2 последовательных отклон будут одного знака
И отриц – если разных
Случ откл распределены независимо от объясняющих переменных
Cov (Ei,xi) = 0
Предпосылка мб сильной и слабой. Сильная форма означает, что переменная Х рассматрив как неслучайная. Слабая – Х случайная величина, но независима от Е.
Случ откл Е должно быть нормально распределено.
18. Нелинейная регрессия. Нелинейная модель и их линеаризация.
Различают 2 класса нелинейных регрессий:
-регрессии нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам;
-регрессии, нелинейные по включенным параметрам.
Примером нелинейной регрессии по включаемым в нее объясняющим переменным могут слуюить следующие функции:
Полиномы разных степеней: y=a+bx+cx^2+E, y=a+bx+cx^2+dx^3+E;
Равносторонняя гипербола: y= a + b/x + E
К нелинейным регрессиям по оцениваемым параметрам относятся функции:
Степенная y=a*x^b * E
Показательная y = a*b^x * E
Экспоненциальная у= y^a+bx * E
Линеаризация нелинейной модели представляет собой преобразование используемой модели в линейную путем замены переменных на нестепенные.
Так, в параболе второй степени у=а0+а1х+а2х2+ ε заменяя переменные х=х1, х2=х2, получим двухфакторное уравнение линейной регрессии: у=а0+а1х1+а2х2+ ε, для оценки параметров используется МНК.
Соответственно для полинома третьего порядка y=a+bx+cx^2+dx^3+E при замене х=х, х^2=х2, х3=х3,, получим трехфакторную модель линейной регрессии: у=а0+а1х1+а2х2+ а3х3 + E
Название ф-ии Вид модели Заменяемые переменные Вид линеаризированной модели
Показательная Ln y = Ln a+ х ln b Ln y = Y, Ln a = α, Ln b =β Y = a + xb
Степенная Ln y = Ln a+ b ln x Ln y = Y, Ln a = α, Ln x =x Y = a + bx
гиперболическая Y = a + b/x 1/x=X Y = a +b X
19. Преобразование случайного отклонения в моделях нелин регрессии
Если линеаризующее преобразование замены переменной, то случайного отклонения входят в модель аддитивно как слагаемое
«Эбсилон» в этом случае имеет нормально распределение.
Если линеаризующее преобразование логарифмирования, то случайное отклонение входит в модель мультипликативно и имеет логарифмически нормальное распределение
(Процедура оценивания регрессии будет следующей.
С начала вычислим y’ и z для каждого наблюдения с помощью логарифмов от исходных значений.
Затем оценим регрессионную зависимость y’ от z.
Коэффициент при z будет представлять собой непосредственно оценку β. Постоянный член является оценкой ά.
Для получения оценки необходимо взять антилогарифм, т.е., вычислить.)
Случайный член
Основное требование состоит в том, чтобы случайный член в преобразованном уравнении присутствовал в виде слагаемого и удовлетворял условиям Гаусса-Маркова.
В противном случает коэффициенты регрессии, полученные по методу наименьших квадратов, не будут обладать обычными свойствами и проводимые для них тесы окажутся недостоверными.
Желательно, если мы учитываем случайное воздействие, чтобы уравнение имело следующий вид:
Если это так, то исходное уравнение имеет, например, такой вид
В данном случае, если в исходном уравнении случайный член является аддитивным и условие Гаусса-Маркова выполнены, то это также будет верно для преобразованного уравнения. В этом случае проблем нет.
Если используется модель вида: y=αx^β и мы собираемся преобразовать его к линейному путем логарифмирования, то случайный член должен быть мультипликативным y=αx^β * v.
В этом случае мы получаем соотношение:
Следовательно, для получения аддитивного случайного члена в уравнении регрессии мы должны начинать с мультипликативного случайного члена в исходном уравнении.