
- •Случайные события. Вероятность. Теоремы сложения и умножения.
- •Случайные величины. Законы распределения дискретных и непрерывных случайных величин
- •Числовые характеристики дискретных и непрерывных случайных величин
- •Системы случайных величин. Законы распределения и числовые характеристики
- •Генеральная и выборочная совокупность. Выборочные характеристики
- •21. Нелинейная парная регрессия. 2 типа нелинейных регрессий.
- •23. Индексы корреляции и детерминации в нелинейных регрессиях.
- •24. Классическая нормальная линейная модель множественной регрессии.
- •28. Коэффициенты множественной детерминации и корреляции
- •29. Оценка значимости уравнения в целом и его параметров в отдельности
- •30. Доверительный интервал для коэффициентов множественной регрессии
- •31. Доверительные интервалы для индивидуальных прогнозных значений зависимой переменной
- •32. Частные f-критерии и их использование в эконометрике
- •33. Мультиколлинеарность, ее разновидности, последствия и способы выявления
- •37. Устранение гетероскедастичности. Взвешенный метод наименьшего квадрата.
- •38. Обобщенная модель множественной регрессии.
- •39. Автокорреляция, ее виды и последствия.
- •40. Методы обнаружения автокорреляции.
- •41.Оценка параметров при наличии автокорреляции.
- •47. Общие понятия временного ряда. Его составляющие. Типы моделей
- •48. Стационарные временные ряды. Коэффициент автокорреляции. Коррелограмма
- •49. Аналитическое и механическое выравнивание временного ряда
- •50. Применение фиктивных переменных при моделировании сезонных колебаний ряда
- •51. Тесты Чоу и Гуйарата для обнаружения структурных изменений ряда
- •Вопрос 52
- •Вопрос 53
37. Устранение гетероскедастичности. Взвешенный метод наименьшего квадрата.
Пусть
дисперсия
i=
известны и cov(Еi,
Еj)=0, тогда
гетероскедастичность легко устранить,
покажем это на примере парной регрессии.
уi=β0+ β1xi+Ei (1)
Разделим
обе части уравнения (1) на известную
=
=
β0
+
β1
+
i=
введем
новые переменные
=
=
=
=
= β0 + β1 + (2)
В уравнении (2) уже 2 фактора и постоянное слагаемое отсутствует
Рассмотрим
D(
)=
D(
)=
D(Ei)=
=1=const
Уравнение (2)-гетероскедастичная модель
И оценку параметров β0, β1- делаем обычным МНК и b0, b1 используем в модели (1)
В модели (2) коэффициенты при факторах является взвешенными величинами с весами . Отсюда следует метод получения оценок исходного уравнения (1) называется взвешенным методом наименьших квадратов (ВМНК)
Он в свою очередь является частным случаем обобщенного метода наименьших квадратов.
В обобщенном методе наименьших квадратов предполагается что ковариационная матрица векторов ошибок регрессии имеет произвольный вид с единственным требованием положительной определенности.
то по
теореме Айткена наилучшей оценкой
вектора неизвестных коэффициентов
является b*=(X’
-1X)-1X’
-1Y
На практике
значение
i=
как правило неизвестны, поэтому для
того, чтобы применить взвешенный метод
наименьших квадратов необходимо сделать
реалистические предположения о значениях
,
поэтому в этих случаях говорят не об
устранении гетероскедастичности, а о
ее смягчении. Чаще всего предпологается
что
пропорциональны значениям хi
т.е.
=
2хi
i=
.
В этом случае исходное уравнение уi=β0+
β1xi+Ei
делится на
=
β0
+
β1
+
=
β0
+
β1
+
D(
)=
D(
)=
D(Ei)=
=
=const
2ое предположение
=
тогда
исходное уравнение :
=
β0
+
β1
+
= β0 + β1+ D( )= =const
38. Обобщенная модель множественной регрессии.
В модели = β0 + β1 + коэффициенты при факторах является взвешенными величинами с весами . Отсюда следует метод получения оценок исходного уравнения уi=β0+ β1xi+Ei называется взвешенным методом наименьших квадратов (ВМНК)
Он в свою очередь является частным случаем обобщенного метода наименьших квадратов.
В обобщенном методе наименьших квадратов предполагается что ковариационная матрица векторов ошибок регрессии имеет произвольный вид с единственным требованием положительной определенности.
то по теореме Айткена наилучшей оценкой вектора неизвестных коэффициентов является b*=(X’ -1X)-1X’ -1Y
На практике значение i= как правило неизвестны, поэтому для того, чтобы применить взвешенный метод наименьших квадратов необходимо сделать реалистические предположения о значениях , поэтому в этих случаях говорят не об устранении гетероскедастичности, а о ее смягчении. Чаще всего предпологается что пропорциональны значениям хi т.е. = 2хi i= . В этом случае исходное уравнение уi=β0+ β1xi+Ei делится на
= β0 + β1 +
= β0 + β1 +
D( )= D( )= D(Ei)= = =const
2ое предположение
=
тогда исходное уравнение :
= β0 + β1 +
= β0 + β1+ D( )= =const