Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Okonchatelnaya_ekonometrika.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
10.87 Mб
Скачать

31. Способы корректировки гетероскедастичности. Взвешенный метод наименьших квадратов.

Запишем спецификацию множественной регрессионной модели в виде: Yt1Xt12Xt2+…+β jXtj+…+βkXtktkj=1 βjXtjt Пусть случайное возмущение гетероскедастично. ^ Этап преобразования переменных 1)Одним из основных способов корректировки гетероскедастичности является использование метода взвешенных наименьших квадратов. Метод Взвешенных наименьших квадратов применяется в том случае, когда известны диагональные элементы автоковариационной матрицы Cεεвектора возмущений ε(σt2, t=1, …,n). В этом случае уравнение наблюдений можно преобразовать следующим образом. Поделим каждый член на ско возмущения: Yttkj=1βj(Xtjt)+εtt, t=1,…,n В результате преобразования спецификация принимает вид спецификации классической регрессионной модели: Y ̽tkj=1βjX ̽t+ε ̽t Определим количественные характеристики случайного возмущения ε ̽t:

  • Математическое ожидание:

E{ ε ̽t }=E{εtt}=(1/σt)E{εt}=0

  • Дисперсия случайного члена:

Var{ ε ̽t }=Var{εtt}=(1/σt2)Var{εt}= σt2/ σt2=1, Таким образом, ε ̽t ̴ N(0,1), и при помощи данного преобразования случайное возмущение приобрело свойство гомоскедастичности. Остатки регрессии для данной модели определяются по правилу: e ̽t=(Ytt)-Σkj=1β͠j (Xtjt)=1/ σt(Yt- Σkj=1β͠j Xtj)=1/ σt(Yt-Y͠t), поэтому в критерий отбора Σe ̽t2 каждое слагаемое входит со своим весом 1/ σt.

32. Способы корректировки гетероскедастичности. Доступный взвешенный метод наименьших квадратов.

Запишем спецификацию множественной регрессионной модели в виде: Yt1Xt12Xt2+…+β jXtj+…+βkXtktkj=1 βjXtjt Пусть случайное возмущение гетероскедастично. ^ Этап преобразования переменных В случае, если значения σt, t=1,…, n неизвестны, используется доступный обобщенный МНК. В этом методе выполняется оценка неизвестных дисперсий, но при условии, что на структуру автоковариационной матрицы накладываются дополнительные ограничения (предпосылки). Наиболее часто используется следующая предпосылка: ско возмущения пропорционально одному из регрессоров, например, σt=μXti, или Xti=λσt, где λ=1/μ, t=1,…,n, тогда после деления на Xtiлевой и правой частей исходной спецификации, получим: Yt/ Xtikj=1βj(Xtj/Xti)+ εt/Xti, и, если ввести новые переменные вида: Xtj̽ = Xtj/Xti; Yt̽ = Yt/ Xti; ε̽tt/Xti, t=1,…n; j=1,…k, то можно перейти к оценке классической регрессионной модели со спецификацией: Yt̽= Σkj=1 βjX ̽tj+ ε̽t. В этом случае дисперсия случайного возмущения будет постоянной для всех наблюдений: E{ εt/Xtk}=E{ε t/ λσt }2 =(1/λ 2)(σ 2t / σ 2t )= 1/λ 2,где λ=1/μ. Таким образом, проблема гетероскедастичности устранима.

33. Обобщенная регрессионная модель. Обобщенный метод наименьших квадратов.

Обобщенная регрессионная модель. Обобщенный метод наименьших квадратов.

Обобщенная регрессионная модель имеет следующую спецификацию: Y=Xβ+ε –(1), здесь Y=(Y1,Y2,…,Yn)T-(n×1) вектор-столбец значений эндогенной переменной,

Xn×k – детерминированная матрица регрессоров полного ранга,

β k,1 = (β12,…,βk)T- вектор-столбец параметров модели,

ε n,1 = (ε12,…,εn) – вектор-столбец случайных возмущений.

Относительно случайных возмущений регрессии принимаются следующие предпосылки:

  1. E(ε)=0;

1212 … Ω1n)

  1. Cεε=Ω= (Ω21 σ22 … Ω1n)

( ………………)

(Ωn1n2 … σn2)

- автоковариационная матрица вектора возмущений,

ts=Ωst=Cov(εts) не равно 0.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]