- •2. Спецификация модели
- •3. Линейная регрессия и корреляция: смысл и оценка параметров.
- •4. Метод наименьших квадратов (мнк)
- •5. Оценка существенности параметров линейной регрессии и корреляции
- •7. Интервалы прогноза по линейному уравнению
- •8. Нелинейная регрессия. Виды моделей
- •9. Смысл коэффициента регрессии.
- •8. Применение мнк к моделям нелинейным относительно включаемых переменных и оцениваемых параметров.
- •11. Коэффициенты эластичности по разным видам регрессионных моделей.
- •12. Показатели корреляции
- •13. Множественная регрессия. Спецификация модели. Отбор факторов при построении модели.
- •14. Взаимодействие факторов множественной регрессии.
- •15. Интерпритация коэффициентов регрессии линейной модели потребления.
- •18. Предпосылки мнк
- •19. 20. Сущность анализа остатков при наличии регрессионной модели. Как можно
- •21. Смысл обобщенного мнк
- •22. Системы эконометрических уравнений. Проблема идентификации.
- •24. Двухшаговый мнк. (дмнк
- •25. Основные элементы временного ряда.
- •28. Автокорреляция уровней временного ряда
- •29. Моделирование тенденций временного ряда (аналитическое выравнивание временного ряда)
- •30. Методы исключения тенденций. Метод отклонений от тренда.
- •31. Метод последовательных разностей.
- •32. Включение в модель регрессии фактора времени.
- •33 .Автокорреляция в остатках. Критерий дарбина-уотсона.
- •35. Общая характеристика моделей с распределенным лагом.
- •36. Интерпритация параметров моделей с распределенным лагом.
- •37. Метод Алмон.
- •38. Метод Койка.
- •39. Метод главных компонент.
- •40. Модели авторегрессии. Оценка параметров моделей авторегрессии.
- •42. Метод подвижного (скользящего) среднего.
- •43. Метод экспоненциального сглаживания.
- •44. Метод проецирования тренда.
8. Применение мнк к моделям нелинейным относительно включаемых переменных и оцениваемых параметров.
Нелинейная регрессия по включенным переменным не таит каких-либо сложностей в оценке ее параметров. Она определяется, как и в линейной регрессии, методом наименьших квадратов (МНК), ибо эти функции линейны по параметрам. Так, в параболе второй степени y=a0+a1x+a2x2+? Заменяя переменные x=x1,x2=x2, получим двухфакторное уравнение линейной регрессии: у=а0+а1х1+а2х2+ ?
Парабола второй степени целесообразна к применению, если для определенного интервала значений фактора меняется характер связи рассматриваемых признаков: прямая связь меняется на обратную или обратная на прямую. В этом случае определяется значение фактора, при котором достигается максимальное (или минимальное), значение результативного признака: приравниваем к нулю первую производную параболы второй степени:
[pic], т.е. b+2cx=0 и x=-b/2c
Применение МНК для оценки параметров параболы второй степени приводит к
следующей системе нормальных уравнений:
[pic][pic] Решение ее возможно методом определителей:
[pic] [pic] [pic]
В моделях, нелинейных по оцениваемым параметрам, но приводимых к линейному виду, МНК применяется к преобразованным уравнениям. Если в линейной модели и моделях, нелинейных по переменным, при оценке параметров исходят из критерия [pic]min, то в моделях, нелинейных по оцениваемым параметрам, требование МНК применяется не к исходным данным результативного признака, а к их преобразованным величинам, т. е.ln y, 1/y. Так, в степенной функции [pic] МНК применяется к преобразованному уравнению lny = ln? + ? ln x ln ?.
Это значит, что оценка параметров основывается на минимизации суммы квадратов отклонений в логарифмах.[pic] Соответственно если в линейных моделях [pic] то в моделях, нелинейных по оцениваемым параметрам, [pic].
Вследствие этого оценка параметров оказываются несколько смещенной.
11. Коэффициенты эластичности по разным видам регрессионных моделей.
1. Линейная y = a + bx + [pic], y' = b, Э = [pic].
2. Парабола 2 порядка y = a +bx + c[pic] +[pic], y' = b + 2cx, Э = [pic].
3. Гипербола y = a+b/x +[pic], y'=-b/[pic], Э = [pic].
4. Показательная y=a[pic], y' = ln [pic], Э = x ln b.
5. Степенная y = a[pic][pic], y' = [pic], Э = b.
6. Полулогарифмическая y = a + b ln x +? , y' = b/x , Э = [pic].
7. Логистическая [pic], y' = [pic], Э = [pic].
8. Обратная y = [pic], y' = [pic], Э = [pic].
12. Показатели корреляции
1. индекс корреляции (R): [pic]
Величина данного показателя находится в границах: 0 ? R ? 1, чем ближе к 1, тем теснее связь рассматриваемых признаков, тем более надежно найденное уравнение регрессии.
2. индекс детерминации используется для проверки существенности в целом ур-ия нелинейной регрессии по F- критерию Фишера:
[pic], где R2- индекс детерминации, n- число наблюдений, m – число
параметров при переменной х.