- •Случайные события. Вероятность. Теоремы сложения и умножения.
- •Случайные величины. Законы распределения дискретных и непрерывных случайных величин
- •Числовые характеристики дискретных и непрерывных случайных величин
- •Системы случайных величин. Законы распределения и числовые характеристики
- •Генеральная и выборочная совокупность. Выборочные характеристики
- •6. Основные распределения случайных величин, используемые в эконометрике.
- •7. Точечные оценки параметров распределений и требования к ним.
- •8.Интервальные оценки параметров распределений.
- •9. Общая схема статистической проверки гипотез.
- •10. Эконометрика как научная дисциплина. Общее понятие эконометрической модели.
- •11. Парный регрессионный анализ. Спецификация модели. Линейная парная регрессия
- •12. Предпосылки метода наименьших квадратов (мнк)
- •13. Мнк и мнк-оценки параметров парной регрессии. Теорем Гаусса-Маркова
- •14. Коэффициент регрессии и выборочный коэффициент корреляции. Его свойства.
- •15. Оценка точности уравнения парной линейной регрессии в целом
- •16. Оценка статистической значимости параметров линейной регрессии
- •17. Интервальные оценки для коэффициентов парной регрессии
- •18. Доверительная область для линии регрессии.
- •19. Доверительный интервал для прогнозных индивидуальных значений зависимой переменной
- •20. Коэффициент детерминации и средняя ошибка аппроксимации
- •21. Нелинейная парная регрессия. 2 типа нелинейных регрессий.
- •22. Линеаризация нелинейных моделей. Примеры.
- •23. Индексы корреляции и детерминации в нелинейных регрессиях.
- •24. Классическая нормальная линейная модель множественной регрессии.
- •26. Уравнение регрессии в стандартизованном масштабе
- •27. Честные коэффициенты корреляции
- •28. Коэффициенты множественной детерминации и корреляции
- •29. Оценка значимости уравнения в целом и его параметров в отдельности
- •30. Доверительный интервал для коэффициентов множественной регрессии
- •31. Доверительные интервалы для индивидуальных прогнозных значений зависимой переменной
- •32. Частные f-критерии и их использование в эконометрике
- •33. Мультиколлинеарность, ее разновидности, последствия и способы выявления
- •34. Методы устранения мультиколлинеарности
- •35. Гетероскедастичность и ее последствия
- •36. Методы обнаружения гетероскедастичности
- •37. Устранение гетероскедастичности. Взвешенный метод наименьшего квадрата.
- •38. Обобщенная модель множественной регрессии.
- •39. Автокорреляция, ее виды и последствия.
- •40. Методы обнаружения автокорреляции.
- •41.Оценка параметров при наличии автокорреляции.
- •42. Фиктивные переменные в регрессионных моделях.
- •43. Основные типы дискретных зависимых переменных.
- •44. Модели бинарного выбора. Линейная модель вероятности.
- •45. Probit-и logit- модели бинарного выбора. Модели множественного выбора.
- •46. Нелинейная множественная регрессия
- •47. Общие понятия временного ряда. Его составляющие. Типы моделей
- •48. Стационарные временные ряды. Коэффициент автокорреляции. Коррелограмма
- •49. Аналитическое и механическое выравнивание временного ряда
- •50. Применение фиктивных переменных при моделировании сезонных колебаний ряда.
- •51. Тесты Чоу и Гуйарата для обнаружения структурных изменений ряда
- •52.Нестационарные временные ряды.
- •53. Динамические модели. Модели авторегрессии и скользящей средней.
- •54. Модели с распределенным лагом и их характеристики
- •55. Модели Алмон и Койка.
- •56 Модель адаптивных ожиданий.
- •57. Общие сведения о системе одновременных уравнений (соу). Структурная и приведенная форма модели.
- •58. Косвенный мнк для соу.
- •59. Проблемы идентифицируемости соу. Необходимые ,достаточные условия идентифицируемости.
- •60. Двухшаговый метод наименьших квадратов.
- •61. Трехшаговый метод наименьших квадратов.
37. Устранение гетероскедастичности. Взвешенный метод наименьшего квадрата.
Пусть
дисперсия
i=
известны и cov(Еi,
Еj)=0,
тогда гетероскедастичность легко
устранить, покажем это на примере парной
регрессии.
уi=β0+ β1xi+Ei (1)
Разделим
обе части уравнения (1) на известную
=
:
=
β0
+
β1
+
i=
введем
новые переменные
=
=
=
=
,
=
β0
+
β1
+
(2)
В уравнении (2) уже 2 фактора и постоянное слагаемое отсутствует
Рассмотрим
D(
)=
D(
)=
D(Ei)=
=1=const
Уравнение (2)-гетероскедастичная модель
И оценку параметров β0, β1- делаем обычным МНК и b0, b1 используем в модели (1)
В модели (2) коэффициенты при факторах является взвешенными величинами с весами . Отсюда следует метод получения оценок исходного уравнения (1) называется взвешенным методом наименьших квадратов (ВМНК)
Он в свою очередь является частным случаем обобщенного метода наименьших квадратов.
В обобщенном методе наименьших квадратов предполагается что ковариационная матрица векторов ошибок регрессии имеет произвольный вид с единственным требованием положительной определенности.
то
по теореме Айткена наилучшей оценкой
вектора неизвестных коэффициентов
является b*=(X’
-1X)-1X’
-1Y
На
практике значение
i=
как правило неизвестны, поэтому для
того, чтобы применить взвешенный метод
наименьших квадратов необходимо сделать
реалистические предположения о значениях
,
поэтому в этих случаях говорят не об
устранении гетероскедастичности, а о
ее смягчении. Чаще всего предпологается
что
пропорциональны значениям хi
т.е.
=
2хi
i=
.
В этом случае исходное уравнение уi=β0+
β1xi+Ei
делится на
=
β0
+
β1
+
,
=
β0
+
β1
+
D(
)=
D(
)=
D(Ei)=
=
=const
2ое предположение
=
тогда
исходное уравнение :
,
=
β0
+
β1
+
= β0 + β1+ D( )= =const
38. Обобщенная модель множественной регрессии.
В модели = β0 + β1 + коэффициенты при факторах является взвешенными величинами с весами . Отсюда следует метод получения оценок исходного уравнения уi=β0+ β1xi+Ei называется взвешенным методом наименьших квадратов (ВМНК)
Он в свою очередь является частным случаем обобщенного метода наименьших квадратов.
В обобщенном методе наименьших квадратов предполагается что ковариационная матрица векторов ошибок регрессии имеет произвольный вид с единственным требованием положительной определенности.
то по теореме Айткена наилучшей оценкой вектора неизвестных коэффициентов является b*=(X’ -1X)-1X’ -1Y
На практике значение i= как правило неизвестны, поэтому для того, чтобы применить взвешенный метод наименьших квадратов необходимо сделать реалистические предположения о значениях , поэтому в этих случаях говорят не об устранении гетероскедастичности, а о ее смягчении. Чаще всего предпологается что пропорциональны значениям хi т.е. = 2хi i= . В этом случае исходное уравнение уi=β0+ β1xi+Ei делится на
= β0 + β1 +
= β0 + β1 +
D( )= D( )= D(Ei)= = =const
2ое предположение
=
тогда исходное уравнение :
= β0 + β1 +
= β0 + β1+ D( )= =const
