
- •Предмет, цели и задачи эконометрики. Связь эконометрики с другими областями знаний.
- •Этапы эконометрического исследования и их содержание. Типы выборочных данных.
- •3. Этапы эконометрического исследования и их содержание. Типы выборочных данных.
- •4. Суть метода наименьших квадратов для множественной линейной регрессии.
- •Виды переменных в эконометрическом исследовании. Классы эконометрических моделей.
- •Модели временных рядов.
- •Парный регрессионный анализ. Функция парной регрессии. Причины присутствия в модели случайной составляющей.
- •Гетероскедастичность. Метод Спирмена.
- •10. Определение и свойства выборочного коэффициента парной корреляции rxy. Связь выборочного коэффициента корреляции и коэффициента детерминации для парной линейной регрессии.
- •11. Прогнозирование по уравнению парной линейной регрессии. Точечный прогноз. Интервальные прогнозы для средних и индивидуальных значений результативного признака.
- •Статистические гипотезы и их проверка.
- •13. Доверительные интервалы для параметров парной линейной регрессии.
- •14. Проверка гипотез, относящихся к коэффициентам уравнения парной линейной регрессии
- •15. Дисперсии и стандартные ошибки эмпирических коэффициентов парной линейной регрессии.
- •16. Проверка общего качества уравнения регрессии на основе проверки значимости коэффициента детерминации r2.
- •17. Нелинейная регрессия и преобразование переменных. Нелинейные модели относительно факторных переменных, но линейные по оцениваемым параметрам. Линеаризация таких моделей.
- •18. Коэффициент детерминации. Его смысл и свойства. Определение и формулы для расчета сумм , , , и .
- •20. Определение и формулы для расчета сумм , , , и . Формулы связи между этими суммами.
- •21.Суть метода наименьших квадратов. Определение и формулы для расчета сумм , , и . Формулы для расчета эмпирических коэффициентов парной линейной регрессии.
- •22. Интервальные прогнозы для средних и индивидуальных значений результативного признака.
- •24. Мультиколлинеарность.
- •26.Классы эконометрических моделей.
- •27.Множественная линейная регрессия. Предпосылки метода наименьших квадратов.
- •Коэффициент детерминации. Его смысл и свойства. Определение и формулы для расчета сумм , , , и .
- •36. Число степеней свободы. Остаточная дисперсия и стандартная ошибка для парной и множественной регрессии.
- •38. Статистические гипотезы и их проверка.
- •39. Проверка гипотез, относящихся к коэффициентам уравнения парной линейной регрессии.
- •40. Гетероскедастичность. Метод Голдфельдта-Квандта.
- •41. Взвешенный метод наименьших квадратов
- •42. Формула для расчета коэффициентов регрессии в матричном виде.
- •43. Мультиколлинеарность
- •44. Фиктивные переменные.
20. Определение и формулы для расчета сумм , , , и . Формулы связи между этими суммами.
Qe= Qy-Qr
Qx= Ʃx2 - Ʃx
Qy= Ʃy2 - Ʃy
Qxy=Ʃxy - Ʃy
Qr=
21.Суть метода наименьших квадратов. Определение и формулы для расчета сумм , , и . Формулы для расчета эмпирических коэффициентов парной линейной регрессии.
Метод наименьших квадратов Оценка параметров уравнения А0 , А1, А2 осуществляется методом наименьших квадратов (МНК). В основе которого лежит предположение о независимости наблюдений исследуемой совокупности и нахождении параметра модели, при котором минимизируется сумма квадратов отклонений фактических значений результативного признака от теоретических, полученных по уравнению регрессии.
S=∑ (YI – Y(X))2→MIN .2)
Система нормальных уравнений для нахождения параметров линейной парной регрессии методом наименьших квадратов имеет след. вид:
N*A0 + A1*∑X = ∑Y
A0*∑X+A1*∑X2=∑X*Y (2.3)
N- объём исследуемой совокупности.
В уравнении регрессии параметр А0 показывает усреднённое влияние на результативный признак неучтённых факторов.
Параметр А1 (А2) – коэффициент регрессии, показывает на сколько изменяется в среднем значение результативного признакапри изменении факторного на единицу в его собственном измерении.
Если связь между признаками криволинейная и описывается уравнением параболы, то система нормальных уравнений будет иметь следующий вид:
N*A0 + A1*∑X + A2*∑X2 = ∑Y,
A0*∑X+A1*∑X2+A2*∑X3=∑XYA0*∑X2+A1*∑X3+A2*∑X4= ∑X2Y (2.4)
Оценка обратной зависимости между Х и У осуществляется на основе уравнения гиперболы. Тогда система нормальных уравнений выглядит так: N*A0 + A1*∑1/X = ∑X
A0*∑1/X + A1∑1/X2 = ∑Y/X
22. Интервальные прогнозы для средних и индивидуальных значений результативного признака.
Интервальный прогноз заключается в построении доверительных интервалов прогноза.
24. Мультиколлинеарность.
Одним из основных препятствий эффективного применения множественного регрессионного анализа является мультиколлинеарность. Она связана с линейной зависимостью между аргументами х1, х2, ..., хk. В результате мультиколлинеарности матрица парных коэффициентов корреляции и матрица (XTX) становятся слабообусловленными, т.е. их определители близки к нулю.
Это приводит к неустойчивости оценок коэффициентов регрессии (53.12), завышению дисперсии s, оценок этих коэффициентов (53.14), так как в их выражения входит обратная матрица (XTX)-1, получение которой связано с делением на определитель матрицы (ХTХ). Отсюда следуют заниженные значения t(bj). Кроме того, мультиколлинеарность приводит к завышению значения множественного коэффициента корреляции.
На практике о наличии мультиколлинеарности обычно судят по матрице парных коэффициентов корреляции. Если один из элементов матрицы R больше 0,8, т.е. | rjl | > 0,8, то считают, что имеет место мультиколлинеарность, и в уравнение регрессии следует включать один из показателей — хj или xl.
Чтобы избавиться от этого негативного явления, обычно используют алгоритм пошагового регрессионного анализа или строят уравнение регрессии на главных компонентах.