
Диплом / suslov_ibragimov_ekonometrika
.pdf662 Глава23.Векторные авторегрессии
Она показывает суммарное запаздывающее влияние ошибок на изучаемую переменную для всех лагов от0до некоторого s.
Долгосрочное влияние резюмируется матрицей M ,определяемой как
|
|
|
( |
∞ |
|
|
M = lim Ψs = |
!i |
(23.5) |
||
|
Ψi. |
||||
|
|
s→∞ |
=0 |
|
|
Эту матрицу называют долгосрочным мультипликатором.Ее также можно |
|||||
записать в виде |
|
|
|
|
|
|
|
|
p |
|
|
M = B−1(I − j =1 Πj )−1. |
|
||||
|
|
|
! |
|
|
Последняя формула следует из того,что |
|
|
|||
p |
Πj )− |
1 |
∞ |
|
|
! |
|
|
|||
|
! |
|
|
||
B−1(I − j =1 |
|
= i=0 ΨiLi (см. 23.3и23.3) . |
|
||
Для того чтобы это показать,надо подставить |
1 вместо L. |
|
23.4.Прогнозирование с помощью векторной авторегрессии и разложение дисперсии
Поскольку лаги исследуемых переменных полагаются величинами известными,то построение прогнозов по ним в гораздо меньшей степени,чем в системах одновременных уравнений,осложняется проблемой получения точных значений факторов.
Для упрощения формул мы будем исходить из того,что нам известны истинные параметры процесса. Пусть известны значения xt временного ряда VAR для t = 1, . . . , T .Сделаемпрогноз на( T + 1)-й период.Это математическое ожидание xT +1,условное относительно имеющейся на момент T информации x1, . . . , xT . При расчетах удобно действовать так,как если бы была известна вся предыстория процесса:
ΩT = (xT , . . . , x1, x0, . . . ).
Выводы от этого не изменятся.Таким обра зом,будем использовать ожидания, условные относительно ΩT .
Искомый прогноз равен
|
p |
p |
xTp (1) = E(xT +1|ΩT ) = |
j! |
! |
E(xT +1−j |ΩT )Πj + E(vT +1|ΩT ) = |
xT +1−j Πj , |
|
|
=1 |
j =1 |
664 |
Глава23.Векторные авторегрессии |
При выводе формулы мы воспользовались тем,что ошибки структурной формы εt не автокоррелированы и их ковариационная матрица равна var(εt ) = Ω. Можно выразить ковариационную матрицу ошибки прогноза также и через ковариационную матрицу ошибок приведенной формы:
|
s−1 |
|
!i |
Σds = |
Ψi! B!ΣBΨi. |
|
=0 |
Поскольку в структурной форме ошибки разных уравнений некоррелированы, т.е. Ω= diag( ω12, . . . ,ω k2), то можно разложить ковариационную матрицу ошибки прогноза на составляющие,соответствующие отдельным ошибкам εtl .Обозначим l-юстрокуматрицы Ψi через ψil .Вектор ψil представляетсобойфункциюреакции на импульсы влияния εt−i,l на все переменные xt .Тогда
|
s−1 |
|
s−1 k |
k s−1 |
|
|
! |
|
! ! |
!l |
! |
Σds = |
|
Ψi! ΩΨi = |
ψil! ωl2ψil = |
|
ψil! ωl2ψil . |
|
i=0 |
|
i=0 l=1 |
=1 i=0 |
Таким образом,ошибке l-го уравнения соответствует вклад в ковариационную матрицу ошибки прогноза равный
s!−1
ψil! ωl2ψil .
i=0
Можно интерпретировать j -й диагональный элемент этой матрицы как вклад ошибки l-го уравнения εt,l в дисперсию ошибки прогноза j -й изучаемой переменной xt,j при прогнозе на s периодов.Обозначим этот вклад через σj2l,s :
s−1 |
ψ!il ωl2ψil . . |
σj2l,s = , |
|
=0 |
j j |
!i |
Можем вычислить также долю каждой из ошибок в общей дисперсии ошибки прогноза j -й изучаемой переменной:
|
σ2 |
|
Rj2l,s = |
j l,s |
. |
k |
||
|
r% |
|
|
σ2 |
|
|
j r,s |
|
|
=1 |
|
Набор этих долей Rj2l,s ,где l = 1, . . . , k,представляет собой так называе-
мое разложение дисперсии ошибки прогноза для структурной векторной авторе-
грессии.
23.5.Причинность по Грейнджеру |
665 |
23.5.Причинность по Грейнджеру
В эконометрике наиболее популярной концепцией причинности является причинность по Грейнджеру.Это связано,прежде всего,с ее относительной простотой,а также с относительной легкостью определения ее на практике.
Причинность по Грейнджеру применяется к компонентам стационарного векторного случайного процесса:может ли одна из этих переменных быть причиной другой переменной.В основе определения лежит хорошо известный постулат,что будущее не может повлиять на прошлое.
Этот постулат Грейнджер рассматривал в информационном аспекте.Для того чтобы определить,является ли переменная x причиной переменной y,следует выяснить,какую часть дисперсии текущего значения переменной y можно объяснить прошлыми значениями самой переменной y и может ли добавление прошлых значений переменной x улучшить это объяснение.Переменную x называют причиной y,если x помогаетвпредсказании y сточкизренияуменьшениядисперсии. В контексте векторной авторегрессии переменная x будет причиной y,если коэффициенты при лагах x статистически значимы.Заметим,что часто наблюдается двухсторонняяпричиннаясвязь: x являетсяпричиной y,и y являетсяпричиной x.
Рассмотрим причинность по Грейнджеру для двух переменных.Приведенная форма модели имеет вид:
|
p |
|
p |
xt = |
j! |
aj xt−j + |
! |
|
bj yt−j + vt , |
||
|
=1 |
|
j =1 |
|
p |
|
p |
yt = |
! |
cj xt−j + |
j! |
|
dj yt−j + wt. |
||
|
j =1 |
|
=1 |
Отсутствие причинной связи от x к y означает,что cj = 0 при j = 1, . . . , p, т.е.что прошлые значения x не влияют на y .Отсутствие причинной связи от y к x означает,что bj = 0 при j = 1, . . . , p.
Когда процесс стационарен,тогда гипотезы о причинной связи можно проверять с помощью F -статистики.Нулевая гипотеза заключается в том,что одна переменная не является причиной по Грейнджеру для другой переменной.Длину лага p следует выбрать по самому дальнему лагу,который еще может помочь в прогнозировании.
Следуетпонимать,что причинность по ГрейнджеруÑэто не всегда то,что принятоназыватьпричинностьювобщемсмысле.ПричинностьпоГрейнджерусвязана скорее с определением того,что предшествует чему,а также с информативностью переменной с точки зрения прогнозирования другой переменной.
666 |
Глава23.Векторные авторегрессии |
23.6.Коинтеграция в векторной авторегрессии
Векторная авторегрессия представляет собой также удобный инструмент для моделирования нестационарных процессов и коинтеграции между ними(о коинтеграции см.в гл. 17).
Предположим,что в векторной авторегрессии xt ,задаваемой уравнением
|
p |
|
xt = |
j! |
|
xt−j Πj + vt , |
(23.6) |
|
|
=1 |
|
отдельные составляющие процессы xtj либо стационарны, I(0),либо интегрированы первого порядка, I(1).Рассмотрим в этой ситуации коинтеграцию CI(1, 0). Для упрощения забудем о том,что согласно точному определению коинтегрированные вектора сами по себе должны быть нестационарными.Линейную комбинацию стационарных процессов по этому упрощающему определению тоже будем называть коинтегрирующей комбинацией. Таким образом,будем называть коинтегрирующим вектором рассматриваемого процесса векторной авторегрессии xt такой вектор c =! 0,что xt c является I(0).
Если векторный процесс состоит из более чем двух процессов,то может существовать несколько коинтегрирующих векторов.
Поскольку коинтегрирующая комбинацияÑэто линейная комбинация,то как следствие,любая линейная комбинация коинтегрирующих векторов,не равная нулю,есть опять коинтегрирующий вектор.В частности,если c1 и c2 Ñдва коинтегрирующих вектора и c = α1c1 + α2c2 =! 0,то c Ñтоже коинтегрирующий вектор.Таким образом,коинтегрирующие вектора фактически образуют линейное подпространство с выколотым нулем,которое принято называть коинтегрирую-
щим подпространством.
Обозначим через β матрицу,соответствующую произвольному базису коинтегрирующего подпространства процесса xt .Это k × r матрица,где r Ñразмерность коинтегрирующего подпространства.Размерность r называют рангом коинтеграции.Столбцы β Ñэто линейно независимые коинтегрирующие вектора.
Для удобства анализа преобразуем исходную модель(23.6)векторной авторегрессии.Всегда можно переписат ь векторную авторегрессию в форме векторной модели исправления ошибок (vector error-correction model, VECM):
|
|
|
|
|
p−1 |
|
|
xt = xt−1Π + |
j! |
||
|
|
xt−j "j + vt, |
|||
|
|
|
|
|
=1 |
p |
|
|
p |
|
|
% |
Πi, |
Π = −(I − |
i% |
Πi) = −Π(1). |
|
где "j = −i=j +1 |
=1 |
23.6.Коинтеграция в векторной авторегрессии |
|
667 |
При сделанных нами предположениях первые разности |
xt должны быть ста- |
|
|
p−1 |
|
ционарными.Отсюда следует,что процесс xt−1Π= xt − |
j% |
xt−j "j − vt ста- |
=1 |
ционарен как линейная комбинация стационарных процессов.Это означает,что столбцы матрицы Π Ñэто коинтегрирующие вектора(либо нулевые вектора). Любой такой вектор можно разложить по базису коинтегрирующего подпространства, β.Составим из коэффициентов таких разложений k × r матрицу α,так что Π = βα!.Ранг матрицы Π не может превышать r.Укажем без доказательства, что при сделанных предположениях ранг матрицы Π в точности равен r.
Таким образом,мы получили следующую запись для векторной модели исправления ошибок:
|
p−1 |
xt = xt−1βα! + |
j! |
xt−j "j + vt, |
|
|
=1 |
где α отвечает за скорость исправления отклонений от равновесия(матрица корректирующих коэффициентов), β Ñматрица коинтеграционных векторов.
Можно рассмотреть два крайних случая: r = 0 и r = k.Если r = 0,то Π= 0 и не существует стационарных линейных комбинаций процесса xt .Если r = k,то Π имеет полный ранг и любая комбинация xt стационарна,т.е.все составляющие процессы являются I(0).О собственно коинтеграции можно говорить лишь при
0 < r < k.
До сих пор мы не вводили в модель детерминированные компоненты.Однако,вообще говоря,можно ожидать,что в модель входят константы и линейные тренды,причем они могут содержаться ка к в самих рядах,так и в коинтеграционных уравнениях.Рассмотрим векторную модель исправления ошибок с константой и трендом:
p−1 |
|
j! |
xt−j "j + vt , |
xt = µ0 + µ1t + xt−1βα! + |
|
=1 |
|
где µ0 и µ1 Ñвектора-строки длиной k.Вектор |
µ0 соответствует константам, |
авектор µ1 Ñкоэффициентамлинейныхтрендов.Можновыделитьпятьосновных случаев,касающихся статуса векторов µ0 и µ1 в модели.В таблице23.1они перечислены в порядке перехода от частного к более общему.
Здесь γ0 и γ1 Ñвектора-строки длины r.
Случай0легкопонятьÑконстанты итренды вмоделиполностью отсутствуют.
Вслучае 1 константа входит в коинтеграционное пространство и тем самым
вкорректирующие механизмы,но не входит в сам процесс xt в виде дрейфа.Это

23.7.Метод Йохансена |
669 |
Перечислим преимущества,которые дает метод Йохансена по сравнению с методом ЭнглаÑГрейнджера:
1)МетодЭнглаÑГрейнджераприменим,толькокогдамеждунестационарными переменными есть всего одно коинтегрирующее соотношение.Если ранг коинтеграции больше1,то метод дает бессмысленные результаты.
2)Метод ЭнглаÑГрейнджера статичен,в нем не учитывается краткосрочная динамика.
3)Результаты метода Йохансена не зависят от нормировки,использованной приоценивании,втовремякакметодЭнглаÑГрейнджераможетдатьсущественно отличающиеся результаты в зависимости от того,какая переменная стоит в левой части оцениваемой коинтеграционной регрессии.
Пусть векторный процесс xt = (x1t , . . . , xkt ) описывается векторной авторегрессией p-го порядка,причем каждая из компонент является I(1) или I(0).Предполагается,что ошибки,относящиеся к разным моментам времени,независимы и распределены нормально с нулевым математическим ожиданием и ковариационнойматрицей Σ.Какуказывалосьвыше,можноз аписатьвекторнуюавторегрессию в форме векторной модели исправления ошибок:
|
p−1 |
xt = xt−1Π + |
j! |
xt−j "j + vt. |
|
|
=1 |
В методе Йохансена оцениваемыми параметрами являются k × k матрицы коэффициентов "j и Π,атакжековариационнаяматрица Σ.Имеяоценки "j и Π, можнополучитьоценкикоэффициентовприведеннойформымоделипоследующим формулам:
Π1 = I + "1 + Π,
Πj = "j − "j −1, j = 2, . . . , p − 1,
Πp = −"p−1.
Ранг коинтеграции r считается известным.Ограничения на ранг коинтеграции задаются как ограничения на матрицу Π.Как сказано выше,в предположении,что ранг коинтеграции равен r,ранг матрицы Π тоже равен r,и эту матрицу можно представить в виде произведения двух матриц:
Π = βα!,
где α и β имеют размерность k × r.Таким образом,в дальнейших выкладках используется представление:
|
p−1 |
xt = xt−1βα! + |
j! |
xt−j "j + vt. |
|
|
=1 |

670 Глава23.Векторные авторегрессии
Матрица β состоит из коинтегрирующих векторов.Заметим,что если бы матрица β была известна(естественно,с точностью до нормировки),то отклонения от равновесия xtβ тоже были бы известны,и мы имели бы дело с линейными уравнениями регрессии,которые можно оценить посредством МНК.В методе Йохансена исходят из того,что матрицу β требуется оценить.
Для оценивания модели используется метод максимального правдоподобия.
Плотность распределения ошибок vt по формуле для многомерного нормального распределения равна
(2π)− |
k/2 |
|Σ|− |
1/2 |
( |
1 vtΣ−1v!) |
. |
|
|
|
|
e |
− 2 |
t |
|
|||
Обозначим через δ вектор,состоящий из параметров |
α, β и "j .Для данного |
|||||||
δ остатки модели равны |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
p−1 |
|
|
vt (δ) = xt − xt−1βα! − |
j! |
|
"j . |
|||||
xt−j |
||||||||
|
|
|
|
|
|
=1 |
|
|
Используя это обозначение,можем з аписать функцию правдоподобия:
L(δ, Σ) = (2π)−kT/2 |Σ|−T/2 e(− 1 %T vt(δ)Σ−1vt!(δ)). t=p
2
Заметим,что это функция правдоподобия,в которой за неимением данных в сумме пропущены первые p наблюдений.
Логарифмическая функция правдоподобия равна
ln L(δ, Σ) = −kT2 ln(2π) + T2 ln |Σ−1| − 12 !T vt(δ)Σ−1vt! (δ).
t=p
При данном δ максимум функции правдоподобия по Σ достигается при
Σ=Σ( δ) = T1 !T vt! (δ)vt (δ).
t=p
Это можно доказать,дифференцируя логарифмическую функцию правдоподобия по Σ−1 (см.ПриложениеA.2.2).
Можно показать,что для этой матрицы выполнено
!T
vt (δ)Σ−1(δ)vt! (δ) = T k.
t=p