Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпорки_рындина.doc
Скачиваний:
14
Добавлен:
23.09.2019
Размер:
302.59 Кб
Скачать

38. Методы устранения автокорреляции

Автокорреляция чаще всего вызывается неправильной спецификацией модели, то необходимо прежде всего скорректировать саму модель. Возможно, автокорреляция вызвана отсутствием в модели некоторой важной объясняющей переменной. Следует попытаться определить данный фактор и учесть его в уравне­нии регрессии. Также можно попробовать изменить формулу зависимости (например, ли­нейную на лог-линейную, линейную на гиперболическую и т.д.).

Однако если все разумные процедуры изменения специ­фикации модели, на ваш взгляд, исчерпаны, а автокорре­ляция имеет место, то можно предположить, что она обусло­влена какими-то внутренними свойствами ряда (et). В этом случае можно воспользоваться авторегрессионным преобра­зованием. В линейной регрессионной модели либо в моделях, сводящихся к линейной, наиболее целесообразным и простым преобразованием является авторегрессионная схема первого порядка AR(1).

Пусть случайные отклонения подвержены воздействию ав­торегрессии первого порядка :

Et=p*Et-1+Vt

где Vt, t=2,3,...,Т, — случайные отклонения, удовлетво­ряющие всем предпосылкам МНК, а коэффициент p известен.

Наблюдениям t и (t-1) соответствуют формулы:

Yt=бета 0+бетта1*Xt+Et (1)

Yt-1= бета 0+бетта1*Xt-1+Et-1 (2) / *p и вычесть из (1)

Yt- p*Yt-1=(1-p)бета 0+бетта1(Xt-p*Xt-1)+(Et-p*Et-1) + Vt

Положив Yt’= Yt- p*Yt-1, Xt=Xt-p*Xt-1, бетта0=(1-p)бетта0 и с учетом h=p^ корень (n/(1-n*D(g)))

где ^—оценка авторегрессии первого порядка, D(g)— выборочная дисперсия коэффициента () при лаговой переменной Yt-1 , п — число наблюдений.

получим:

Yt=бетта0+бетта1*Xt+Vt

Так как по предположению коэффициент p известен, то очевидно, Yt’, Xt’, Vtвычисляются достаточно просто. В силу того что случайные отклонения Vt удовлетворяют предпосылкам МНК, оценки бетта0’ и бетта1 будут обладать свойствами наилучших линейных несмещенных оценок.

Но способ вычисления Yt’ , Xt приводит к потере первого наблюдения (если мы не обладаем предшествующим ему наблюде­нием). Число степеней свободы уменьшится на единицу, что при больших выборках не так существенно, но при малых выборках может привести к потере эффективности. Эта проблема преодолевается с помощью поправки Прайса—Винстена:

X’1= корень (1-p^2)*X1

Y’1= корень (1-p^2)*Yt

39. Мультиколлинеарность как проблема данных. Следствия.

Мультиколлиниарность – наличие корреляционной связи мд объясняющими переменными. Бывает: 1) Полная – м-ду независ переменными есть f-связь.

2) Нестрогая – наличие сильной корреляц связи.

Пусть оценив ур-ние: 1) y=Бета0+бета1х1+бета1х2+ E

2) x2= гамма0+гамма1*х1 выведем 1 через 2:

3) y=(бетта0+бетта2гамма0)+(бетта1+бетта2гамма1)х1+ Е

3 – показ, что реально можно оценить 2 параметра. Для 1 – b0, b1, b2

B0 + b2гамма0=С0 – реальн B1+b2гамма1=С1 – мнимые

По модели, в к-рой есть М оценить влиян кажд. фактора на рез-т невозможно.

При совершенной мультиколл не получить вообще. Т.к b=(x^t*x)*x^t*y

При совершен мультиколл det(x^t*x)=0 x^t*x – необратима

В случае сильной мультиколл det(x^t*x)  0

Сравним – мультиколл нет

1)det(x^t*x)=5.1

2) det(x^t*x)=5.01

3) det(x^t*x)=5.001 – совсем не влияет на b

- мулькилл есть

1) det(x^t*x)=0.1

2) det(x^t*x)=0.01

3) det(x^t*x)=0.001 –оценки изменились в 100 раз

Последствия:

1)Оценки коэф-ов могут иметь не правильн с т.зрения экономич теории знаки или принимать неоправданно большие значения .

2) Оценки коэф-ов имеют большие стандартные ошибки, как следствие малозначимыми. Доверит интервалыц станов слишком широкими, что делает затруднительной оценку влиян на результат.

3) Оценки коэф-ов станов не устойчивыми. Малейшее изменение в выборке могут существенно изменить значен оценок, вплоть до смены знака.

Причины возникновения:

  1. Ошибочн включённые в модель 2ух и более линейносвязанных переменных

  2. 2 и более переменных в условиях конкр выборки оказываются линейносвязанными

  3. В модели включаются переменные, котор сильно коррелир с зависимой переменной , тогда для всех остальных характерно следствие – их влияние на результат меньше чем связь друг с сдругом.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]