Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Диплом / suslov_ibragimov_ekonometrika

.pdf
Скачиваний:
46
Добавлен:
24.03.2015
Размер:
5.55 Mб
Скачать

662 Глава23.Векторные авторегрессии

Она показывает суммарное запаздывающее влияние ошибок на изучаемую переменную для всех лагов от0до некоторого s.

Долгосрочное влияние резюмируется матрицей M ,определяемой как

 

 

 

(

 

 

M = lim Ψs =

!i

(23.5)

 

Ψi.

 

 

s→∞

=0

 

Эту матрицу называют долгосрочным мультипликатором.Ее также можно

записать в виде

 

 

 

 

 

 

 

 

p

 

 

M = B−1(I − j =1 Πj )−1.

 

 

 

 

!

 

Последняя формула следует из того,что

 

 

p

Πj )

1

 

 

!

 

 

 

!

 

 

B−1(I − j =1

 

= i=0 ΨiLi (см. 23.3и23.3) .

 

Для того чтобы это показать,надо подставить

1 вместо L.

 

23.4.Прогнозирование с помощью векторной авторегрессии и разложение дисперсии

Поскольку лаги исследуемых переменных полагаются величинами известными,то построение прогнозов по ним в гораздо меньшей степени,чем в системах одновременных уравнений,осложняется проблемой получения точных значений факторов.

Для упрощения формул мы будем исходить из того,что нам известны истинные параметры процесса. Пусть известны значения xt временного ряда VAR для t = 1, . . . , T .Сделаемпрогноз на( T + 1)-й период.Это математическое ожидание xT +1,условное относительно имеющейся на момент T информации x1, . . . , xT . При расчетах удобно действовать так,как если бы была известна вся предыстория процесса:

ΩT = (xT , . . . , x1, x0, . . . ).

Выводы от этого не изменятся.Таким обра зом,будем использовать ожидания, условные относительно ΩT .

Искомый прогноз равен

 

p

p

xTp (1) = E(xT +1T ) =

j!

!

E(xT +1−j T j + E(vT +1T ) =

xT +1−j Πj ,

 

=1

j =1

23.4.Прогнозирование с помощью векторной авторегрессии

663

где мы воспользовались тем,что E(vT +1T ) = 0 и что все xt в правой части уравнения регрессии входят в предысторию ΩT .

Чтобы получить формулу прогноза на s периодов,возьмем от обеих частей уравнения для процесса VAR математическое ожидание,условное относительно ΩT .Получим

 

p

xTp (s) = E(xT +s T ) =

j!

E(xT +s−j T j .

 

=1

По этой формуле прогнозы вычисляются рекуррентно,причем E (xt T ) = xt

при t ! T , и E (xt T ) = xpT (t − T ) при t > T .

Заметим,что построение прогнозов не требует знания структурной формы модели.Таким образом,чтобы построить прогноз,достаточно оценить приведенную форму без наложения ограничений обычным МНК.Это делает VAR очень удобным инструментом прогнозирования:не требуется анализировать,как взаимосвязаны переменные,какая переменная на какую влияет.

Ошибка прогнозаÑэто

ds = xT +s − xpT +s = xT +s − E(xT +sT ).

Чтобы найти эту ошибку,воспользуемся разложением Вольда для xT +k :

xT +s = !εT +s−iΨi. i=0

Очевидно,что ошибки εT +1, . . . ,ε T +s непредсказуемы и их ожидаемые зна-

чения относительно ΩT

равны нулю,поэтому

 

 

 

xTp

(s) = E(xT +s T ) =

!i

εT +s−iΨi.

=s

Таким образом,ошибка прогноза равна:

ds = s!−1 εT +s−iΨi. i=0

Прогноз является несмещенным,поскольку E(d) = 0. Ковариационная матрица ошибки прогноза находится по формуле:

Σds

= E(ds! ds

ΩT ) = E

,

s−1 εT +s

 

iΨi

!

,

s−1

εT +s

 

iΨi

 

|

 

!i

 

 

.

!

 

 

 

 

 

 

=0

 

 

 

 

 

i=0

 

 

 

 

 

 

 

 

s−1

0

 

 

 

 

 

 

 

 

 

!i

 

 

 

 

 

 

 

 

=

 

 

Ψi! E

ε!T +s−iεT +s−i

 

 

 

 

 

=0

 

 

 

 

 

 

T =

 

 

1

 

 

 

s−1

 

 

Ω

Ψ

 

=

!i

ΩΨ

|

T

 

 

i

 

i

i

 

 

 

 

 

 

=0

 

664

Глава23.Векторные авторегрессии

При выводе формулы мы воспользовались тем,что ошибки структурной формы εt не автокоррелированы и их ковариационная матрица равна var(εt ) = Ω. Можно выразить ковариационную матрицу ошибки прогноза также и через ковариационную матрицу ошибок приведенной формы:

 

s−1

 

!i

Σds =

Ψi! B!ΣBΨi.

 

=0

Поскольку в структурной форме ошибки разных уравнений некоррелированы, т.е. Ω= diag( ω12, . . . ,ω k2), то можно разложить ковариационную матрицу ошибки прогноза на составляющие,соответствующие отдельным ошибкам εtl .Обозначим l-юстрокуматрицы Ψi через ψil .Вектор ψil представляетсобойфункциюреакции на импульсы влияния εt−i,l на все переменные xt .Тогда

 

s−1

 

s−1 k

k s−1

 

!

 

! !

!l

!

Σds =

 

Ψi! ΩΨi =

ψil! ωl2ψil =

 

ψil! ωl2ψil .

 

i=0

 

i=0 l=1

=1 i=0

Таким образом,ошибке l-го уравнения соответствует вклад в ковариационную матрицу ошибки прогноза равный

s!−1

ψil! ωl2ψil .

i=0

Можно интерпретировать j -й диагональный элемент этой матрицы как вклад ошибки l-го уравнения εt,l в дисперсию ошибки прогноза j -й изучаемой переменной xt,j при прогнозе на s периодов.Обозначим этот вклад через σj2l,s :

s−1

ψ!il ωl2ψil . .

σj2l,s = ,

=0

j j

!i

Можем вычислить также долю каждой из ошибок в общей дисперсии ошибки прогноза j -й изучаемой переменной:

 

σ2

 

Rj2l,s =

j l,s

.

k

 

r%

 

 

σ2

 

 

j r,s

 

 

=1

 

Набор этих долей Rj2l,s ,где l = 1, . . . , k,представляет собой так называе-

мое разложение дисперсии ошибки прогноза для структурной векторной авторе-

грессии.

23.5.Причинность по Грейнджеру

665

23.5.Причинность по Грейнджеру

В эконометрике наиболее популярной концепцией причинности является причинность по Грейнджеру.Это связано,прежде всего,с ее относительной простотой,а также с относительной легкостью определения ее на практике.

Причинность по Грейнджеру применяется к компонентам стационарного векторного случайного процесса:может ли одна из этих переменных быть причиной другой переменной.В основе определения лежит хорошо известный постулат,что будущее не может повлиять на прошлое.

Этот постулат Грейнджер рассматривал в информационном аспекте.Для того чтобы определить,является ли переменная x причиной переменной y,следует выяснить,какую часть дисперсии текущего значения переменной y можно объяснить прошлыми значениями самой переменной y и может ли добавление прошлых значений переменной x улучшить это объяснение.Переменную x называют причиной y,если x помогаетвпредсказании y сточкизренияуменьшениядисперсии. В контексте векторной авторегрессии переменная x будет причиной y,если коэффициенты при лагах x статистически значимы.Заметим,что часто наблюдается двухсторонняяпричиннаясвязь: x являетсяпричиной y,и y являетсяпричиной x.

Рассмотрим причинность по Грейнджеру для двух переменных.Приведенная форма модели имеет вид:

 

p

 

p

xt =

j!

aj xt−j +

!

 

bj yt−j + vt ,

 

=1

 

j =1

 

p

 

p

yt =

!

cj xt−j +

j!

 

dj yt−j + wt.

 

j =1

 

=1

Отсутствие причинной связи от x к y означает,что cj = 0 при j = 1, . . . , p, т.е.что прошлые значения x не влияют на y .Отсутствие причинной связи от y к x означает,что bj = 0 при j = 1, . . . , p.

Когда процесс стационарен,тогда гипотезы о причинной связи можно проверять с помощью F -статистики.Нулевая гипотеза заключается в том,что одна переменная не является причиной по Грейнджеру для другой переменной.Длину лага p следует выбрать по самому дальнему лагу,который еще может помочь в прогнозировании.

Следуетпонимать,что причинность по ГрейнджеруÑэто не всегда то,что принятоназыватьпричинностьювобщемсмысле.ПричинностьпоГрейнджерусвязана скорее с определением того,что предшествует чему,а также с информативностью переменной с точки зрения прогнозирования другой переменной.

666

Глава23.Векторные авторегрессии

23.6.Коинтеграция в векторной авторегрессии

Векторная авторегрессия представляет собой также удобный инструмент для моделирования нестационарных процессов и коинтеграции между ними(о коинтеграции см.в гл. 17).

Предположим,что в векторной авторегрессии xt ,задаваемой уравнением

 

p

 

xt =

j!

 

xt−j Πj + vt ,

(23.6)

 

=1

 

отдельные составляющие процессы xtj либо стационарны, I(0),либо интегрированы первого порядка, I(1).Рассмотрим в этой ситуации коинтеграцию CI(1, 0). Для упрощения забудем о том,что согласно точному определению коинтегрированные вектора сами по себе должны быть нестационарными.Линейную комбинацию стационарных процессов по этому упрощающему определению тоже будем называть коинтегрирующей комбинацией. Таким образом,будем называть коинтегрирующим вектором рассматриваемого процесса векторной авторегрессии xt такой вектор c =! 0,что xt c является I(0).

Если векторный процесс состоит из более чем двух процессов,то может существовать несколько коинтегрирующих векторов.

Поскольку коинтегрирующая комбинацияÑэто линейная комбинация,то как следствие,любая линейная комбинация коинтегрирующих векторов,не равная нулю,есть опять коинтегрирующий вектор.В частности,если c1 и c2 Ñдва коинтегрирующих вектора и c = α1c1 + α2c2 =! 0,то c Ñтоже коинтегрирующий вектор.Таким образом,коинтегрирующие вектора фактически образуют линейное подпространство с выколотым нулем,которое принято называть коинтегрирую-

щим подпространством.

Обозначим через β матрицу,соответствующую произвольному базису коинтегрирующего подпространства процесса xt .Это k × r матрица,где r Ñразмерность коинтегрирующего подпространства.Размерность r называют рангом коинтеграции.Столбцы β Ñэто линейно независимые коинтегрирующие вектора.

Для удобства анализа преобразуем исходную модель(23.6)векторной авторегрессии.Всегда можно переписат ь векторную авторегрессию в форме векторной модели исправления ошибок (vector error-correction model, VECM):

 

 

 

 

 

p−1

 

 

xt = xt−1Π +

j!

 

 

xt−j "j + vt,

 

 

 

 

 

=1

p

 

 

p

 

 

%

Πi,

Π = −(I −

i%

Πi) = −Π(1).

где "j = −i=j +1

=1

23.6.Коинтеграция в векторной авторегрессии

 

667

При сделанных нами предположениях первые разности

xt должны быть ста-

 

p−1

 

ционарными.Отсюда следует,что процесс xt−1Π= xt

j%

xt−j "j − vt ста-

=1

ционарен как линейная комбинация стационарных процессов.Это означает,что столбцы матрицы Π Ñэто коинтегрирующие вектора(либо нулевые вектора). Любой такой вектор можно разложить по базису коинтегрирующего подпространства, β.Составим из коэффициентов таких разложений k × r матрицу α,так что Π = βα!.Ранг матрицы Π не может превышать r.Укажем без доказательства, что при сделанных предположениях ранг матрицы Π в точности равен r.

Таким образом,мы получили следующую запись для векторной модели исправления ошибок:

 

p−1

xt = xt−1βα! +

j!

xt−j "j + vt,

 

=1

где α отвечает за скорость исправления отклонений от равновесия(матрица корректирующих коэффициентов), β Ñматрица коинтеграционных векторов.

Можно рассмотреть два крайних случая: r = 0 и r = k.Если r = 0,то Π= 0 и не существует стационарных линейных комбинаций процесса xt .Если r = k,то Π имеет полный ранг и любая комбинация xt стационарна,т.е.все составляющие процессы являются I(0).О собственно коинтеграции можно говорить лишь при

0 < r < k.

До сих пор мы не вводили в модель детерминированные компоненты.Однако,вообще говоря,можно ожидать,что в модель входят константы и линейные тренды,причем они могут содержаться ка к в самих рядах,так и в коинтеграционных уравнениях.Рассмотрим векторную модель исправления ошибок с константой и трендом:

p−1

 

j!

xt−j "j + vt ,

xt = µ0 + µ1t + xt−1βα! +

=1

 

где µ0 и µ1 Ñвектора-строки длиной k.Вектор

µ0 соответствует константам,

авектор µ1 Ñкоэффициентамлинейныхтрендов.Можновыделитьпятьосновных случаев,касающихся статуса векторов µ0 и µ1 в модели.В таблице23.1они перечислены в порядке перехода от частного к более общему.

Здесь γ0 и γ1 Ñвектора-строки длины r.

Случай0легкопонятьÑконстанты итренды вмоделиполностью отсутствуют.

Вслучае 1 константа входит в коинтеграционное пространство и тем самым

вкорректирующие механизмы,но не входит в сам процесс xt в виде дрейфа.Это

668

 

Глава23.Векторные авторегрессии

 

 

Таблица23.1

 

 

 

 

Случай0

µ0 = 0

 

µ1

= 0

 

 

 

 

 

 

 

 

 

Случай1

µ0 = γ0α!

 

µ1

= 0

 

 

Случай1

µ0 произвольный

 

µ1

= 0

 

 

 

 

 

 

 

 

Случай2

µ0 произвольный

 

µ1 = γ1α!

 

 

Случай2

µ0 произвольный

 

µ1 произвольный

 

 

 

 

 

 

 

 

несложно увидеть,если переписат ь модель следующим образом:

 

p−1

xt = (γ0 + xt−1β) α! +

j!

xt−j "j + vt .

 

=1

В случае1 µ0 можно записать как µ0 = µ0 + γ0α!,где µ0 входит в коинтеграционноепространство,а µ0 соответствуетдрейфуввекторноймоделиисправления ошибок:

 

p−1

xt = µ0 + (γ0 + xt−1β) α! +

j!

xt−j "j + vt .

 

=1

Дрейф в модели исправления ошибок означает,что процесс xt содержит линейный тренд4.

Аналогичные рассуждения верны по отношению к временному тренду в случаях 2 и2.В случае 2 тренд входит в коинтеграционное пространство,но не входит в xt в виде квадратичного тренда.В случае2тренд входит и в коинтеграционное пространство,и в xt в виде квадратичного тренда.

23.7.Метод Йохансена

НарядусметодомЭнглаÑГрейнджера(см.п.17.6),ещеоднимпопулярнымметодом нахождения стационарных комбинаций нестационарных переменных является метод Йо´ хансена.Этот метод,по сути дела,распространяет методику ДикиÑ Фуллера(см. 17.4)на случай векторной авторегрессии.Помимо оценивания коинтегрирующих векторов,метод Йохансена также позволяет проверить гипотезы о ранге коинтеграции(количестве коинтегрирующих векторов)и гипотезы о виде коинтегрирующих векторов.

4Это аналог ситуации для скалярного авторегрессионного процесса с дрейфом.

23.7.Метод Йохансена

669

Перечислим преимущества,которые дает метод Йохансена по сравнению с методом ЭнглаÑГрейнджера:

1)МетодЭнглаÑГрейнджераприменим,толькокогдамеждунестационарными переменными есть всего одно коинтегрирующее соотношение.Если ранг коинтеграции больше1,то метод дает бессмысленные результаты.

2)Метод ЭнглаÑГрейнджера статичен,в нем не учитывается краткосрочная динамика.

3)Результаты метода Йохансена не зависят от нормировки,использованной приоценивании,втовремякакметодЭнглаÑГрейнджераможетдатьсущественно отличающиеся результаты в зависимости от того,какая переменная стоит в левой части оцениваемой коинтеграционной регрессии.

Пусть векторный процесс xt = (x1t , . . . , xkt ) описывается векторной авторегрессией p-го порядка,причем каждая из компонент является I(1) или I(0).Предполагается,что ошибки,относящиеся к разным моментам времени,независимы и распределены нормально с нулевым математическим ожиданием и ковариационнойматрицей Σ.Какуказывалосьвыше,можноз аписатьвекторнуюавторегрессию в форме векторной модели исправления ошибок:

 

p−1

xt = xt−1Π +

j!

xt−j "j + vt.

 

=1

В методе Йохансена оцениваемыми параметрами являются k × k матрицы коэффициентов "j и Π,атакжековариационнаяматрица Σ.Имеяоценки "j и Π, можнополучитьоценкикоэффициентовприведеннойформымоделипоследующим формулам:

Π1 = I + "1 + Π,

Πj = "j − "j −1, j = 2, . . . , p − 1,

Πp = −"p−1.

Ранг коинтеграции r считается известным.Ограничения на ранг коинтеграции задаются как ограничения на матрицу Π.Как сказано выше,в предположении,что ранг коинтеграции равен r,ранг матрицы Π тоже равен r,и эту матрицу можно представить в виде произведения двух матриц:

Π = βα!,

где α и β имеют размерность k × r.Таким образом,в дальнейших выкладках используется представление:

 

p−1

xt = xt−1βα! +

j!

xt−j "j + vt.

 

=1

670 Глава23.Векторные авторегрессии

Матрица β состоит из коинтегрирующих векторов.Заметим,что если бы матрица β была известна(естественно,с точностью до нормировки),то отклонения от равновесия xtβ тоже были бы известны,и мы имели бы дело с линейными уравнениями регрессии,которые можно оценить посредством МНК.В методе Йохансена исходят из того,что матрицу β требуется оценить.

Для оценивания модели используется метод максимального правдоподобия.

Плотность распределения ошибок vt по формуле для многомерного нормального распределения равна

(2π)

k/2

|Σ|

1/2

(

1 vtΣ−1v!)

.

 

 

 

e

2

t

 

Обозначим через δ вектор,состоящий из параметров

α, β и "j .Для данного

δ остатки модели равны

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p−1

 

 

vt (δ) = xt − xt−1βα!

j!

 

"j .

xt−j

 

 

 

 

 

 

=1

 

 

Используя это обозначение,можем з аписать функцию правдоподобия:

L(δ, Σ) = (2π)kT/2 |Σ|T/2 e(− 1 %T vt(δ)Σ−1vt!(δ)). t=p

2

Заметим,что это функция правдоподобия,в которой за неимением данных в сумме пропущены первые p наблюдений.

Логарифмическая функция правдоподобия равна

ln L(δ, Σ) = −kT2 ln(2π) + T2 ln |Σ−1| − 12 !T vt(δ)Σ−1vt! (δ).

t=p

При данном δ максимум функции правдоподобия по Σ достигается при

Σ=Σ( δ) = T1 !T vt! (δ)vt (δ).

t=p

Это можно доказать,дифференцируя логарифмическую функцию правдоподобия по Σ−1 (см.ПриложениеA.2.2).

Можно показать,что для этой матрицы выполнено

!T

vt (δ)Σ−1(δ)vt! (δ) = T k.

t=p

23.7.Метод Йохансена

671

С учетом этого максимизация функции правдоподобия эквивалентна минимизации определителя матрицы Σ(δ) по δ или

2

22!T

2

2

2t=p

2

2

2

vt!(δ)vt(δ)22 → min!

2 δ

Тем самым мы получили,что метод максимального правдоподобия сводится к максимизации некоторой обобщенной суммы квадратов.По аналогии со сказанным выше ясно,что при данной матрице β можно получить оценки максимального правдоподобиядляостальныхнеизвестныхпараметровобычнымметодомнаименьших квадратов.Кроме того,при данных α, β можно получить оценки "j методом наименьших квадратов из регрессий:

 

 

p−1

 

xt − xt−p βα!

j!

xt−j "j + vt.

=

 

 

=1

 

Оценим отдельно регрессии

xt и xt−p

по переменным,стоящим в правой

части данного уравнения:

 

 

 

 

p−1

 

 

xt =

j!

xt−j Sj + r0t ,

 

=1

 

 

 

p−1

 

 

xt−p =

j!

xt−j Tj + rpt,

 

=1

 

 

где Sj , Tj Ñкоэффициенты регрессий.

Получим из них остатки r0t и rpt .Отсюда при данных α и β получим остатки исходной модели:

vt = vt (α,β ) = r0t − rptβα!.

В этих обозначениях задача нахождения оценок приобретает вид:

2

22!T

2

2

2t=p

2

2

(r0t − rptβα!)!(r0t − rptβα!)222 → min!

2 α,β

Для нахождения матриц α и β Йохансен использовал процедуру,известную какрегрессияспониженнымрангом.Онасостоитвследующем.Наосновеостатков r0t и rpt формируются выборочные ковариационные матрицы остатков:

 

1

T

 

Mij =

 

!t

rj t, i, j = 0, p,

 

r!

 

T

it

 

 

=1

 

Соседние файлы в папке Диплом