Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ЭКОНОМЕТРИКА и математическая экономика / Эконометрика. Учебник продвинутый (2005)

.pdf
Скачиваний:
512
Добавлен:
20.04.2015
Размер:
4.02 Mб
Скачать

23.4. Прогнозирование с помощью векторной авторегрессии

663

где мы воспользовались тем, что E(vT +1|T ) = 0 и что все xt в правой части уравнения регрессии входят в предысторию ΩT .

Чтобы получить формулу прогноза на s периодов, возьмем от обеих частей уравнения для процесса VAR математическое ожидание, условное относительно ΩT . Получим

p

xpT (s) = E(xT +s|T ) = E(xT +s−j |T j .

j=1

По этой формуле прогнозы вычисляются рекуррентно, причем E (xt|T ) = xt при t T , и E (xt|T ) = xpT (t − T ) при t > T .

Заметим, что построение прогнозов не требует знания структурной формы модели. Таким образом, чтобы построить прогноз, достаточно оценить приведенную форму без наложения ограничений обычным МНК. Это делает VAR очень удобным инструментом прогнозирования: не требуется анализировать, как взаимосвязаны переменные, какая переменная на какую влияет.

Ошибка прогноза — это

ds = xT +s − xpT +s = xT +s E(xT +s|T ).

Чтобы найти эту ошибку, воспользуемся разложением Вольда для xT +k :

xT +s = εT +s−iΨi. i=0

Очевидно, что ошибки εT +1, . . . , εT +s непредсказуемы и их ожидаемые значения относительно ΩT равны нулю, поэтому

xpT (s) = E(xT +s|T ) = εT +s−iΨi. i=s

Таким образом, ошибка прогноза равна:

s−1

ds = εT +s−iΨi. i=0

Прогноз является несмещенным, поскольку E(d) = 0.

Ковариационная матрица ошибки прогноза находится по формуле:

Σds = E(dsds|T ) = E

s−1

 

s−1

εT +s−iΨi |T

 

 

 

 

εT +s−iΨi

 

 

=

 

 

 

i=0

 

i=0

 

 

 

 

 

 

 

 

 

s−1

 

 

 

 

 

s−1

 

 

 

=

Ψ E ε

ε

Ψ

i

= Ψ

ΩΨ

.

 

 

i

T +s−i T +s−i|

T

 

i

i

 

 

 

i=0

 

 

 

 

 

i=0

 

 

664

Глава 23. Векторные авторегрессии

При выводе формулы мы воспользовались тем, что ошибки структурной формы εt не автокоррелированы и их ковариационная матрица равна var(εt) = Ω. Можно выразить ковариационную матрицу ошибки прогноза также и через ковариационную матрицу ошибок приведенной формы:

s−1

Σds = ΨiB ΣBΨi.

i=0

Поскольку в структурной форме ошибки разных уравнений некоррелированы, т.е. Ω = diag(ω12, . . . , ωk2), то можно разложить ковариационную матрицу ошибки прогноза на составляющие, соответствующие отдельным ошибкам εtl . Обозначим l-ю строку матрицы Ψi через ψil . Вектор ψil представляет собой функцию реакции на импульсы влияния εt−i,l на все переменные xt. Тогда

s−1

s−1 k

k s−1

Σds = ΨiΩΨi =

ψilωl2ψil =

ψilωl2ψil .

i=0

i=0 l=1

l=1 i=0

Таким образом, ошибке l-го уравнения соответствует вклад в ковариационную матрицу ошибки прогноза равный

s−1

ψilωl2ψil .

i=0

Можно интерпретировать j-й диагональный элемент этой матрицы как вклад ошибки l-го уравнения εt,l в дисперсию ошибки прогноза j-й изучаемой переменной xt,j при прогнозе на s периодов. Обозначим этот вклад через σjl,s2 :

s−1

ψ ilωl2ψil .

σjl,s2 =

i=0

jj

Можем вычислить также долю каждой из ошибок в общей дисперсии ошибки прогноза j-й изучаемой переменной:

σ2

Rjl,s2 = k jl,s . σjr,s2

r=1

Набор этих долей Rjl,s2 , где l = 1, . . . , k, представляет собой так называемое разложение дисперсии ошибки прогноза для структурной векторной авторе-

грессии.

23.5. Причинность по Грейнджеру

665

23.5. Причинность по Грейнджеру

В эконометрике наиболее популярной концепцией причинности является причинность по Грейнджеру. Это связано, прежде всего, с ее относительной простотой, а также с относительной легкостью определения ее на практике.

Причинность по Грейнджеру применяется к компонентам стационарного векторного случайного процесса: может ли одна из этих переменных быть причиной другой переменной. В основе определения лежит хорошо известный постулат, что будущее не может повлиять на прошлое.

Этот постулат Грейнджер рассматривал в информационном аспекте. Для того чтобы определить, является ли переменная x причиной переменной y, следует выяснить, какую часть дисперсии текущего значения переменной y можно объяснить прошлыми значениями самой переменной y и может ли добавление прошлых значений переменной x улучшить это объяснение. Переменную x называют причиной y, если x помогает в предсказании y с точки зрения уменьшения дисперсии. В контексте векторной авторегрессии переменная x будет причиной y, если коэффициенты при лагах x статистически значимы. Заметим, что часто наблюдается двухсторонняя причинная связь: x является причиной y, и y является причиной x.

Рассмотрим причинность по Грейнджеру для двух переменных. Приведенная форма модели имеет вид:

p p

xt =

aj xt−j + bj yt−j + vt,

 

j=1

j=1

 

p

p

yt =

cj xt−j + dj yt−j + wt.

 

j=1

j=1

Отсутствие причинной связи от x к y означает, что cj = 0 при j = 1, . . . , p, т.е. что прошлые значения x не влияют на y . Отсутствие причинной связи от y к x означает, что bj = 0 при j = 1, . . . , p.

Когда процесс стационарен, тогда гипотезы о причинной связи можно проверять с помощью F -статистики. Нулевая гипотеза заключается в том, что одна переменная не является причиной по Грейнджеру для другой переменной. Длину лага p следует выбрать по самому дальнему лагу, который еще может помочь в прогнозировании.

Следует понимать, что причинность по Грейнджеру — это не всегда то, что принято называть причинностью в общем смысле. Причинность по Грейнджеру связана скорее с определением того, что предшествует чему, а также с информативностью переменной с точки зрения прогнозирования другой переменной.

666

Глава 23. Векторные авторегрессии

23.6. Коинтеграция в векторной авторегрессии

Векторная авторегрессия представляет собой также удобный инструмент для моделирования нестационарных процессов и коинтеграции между ними (о коинтеграции см. в гл. 17).

Предположим, что в векторной авторегрессии xt, задаваемой уравнением

p

xt = xt−j Πj + vt,

(23.6)

j=1

 

отдельные составляющие процессы xtj либо стационарны, I(0), либо интегрированы первого порядка, I(1). Рассмотрим в этой ситуации коинтеграцию CI(1, 0). Для упрощения забудем о том, что согласно точному определению коинтегрированные вектора сами по себе должны быть нестационарными. Линейную комбинацию стационарных процессов по этому упрощающему определению тоже будем называть коинтегрирующей комбинацией. Таким образом, будем называть коинтегрирующим вектором рассматриваемого процесса векторной авторегрессии xt такой вектор c = 0, что xtc является I(0).

Если векторный процесс состоит из более чем двух процессов, то может существовать несколько коинтегрирующих векторов.

Поскольку коинтегрирующая комбинация — это линейная комбинация, то как следствие, любая линейная комбинация коинтегрирующих векторов, не равная нулю, есть опять коинтегрирующий вектор. В частности, если c1 и c2 — два коинтегрирующих вектора и c = α1c1 + α2c2 = 0, то c — тоже коинтегрирующий вектор. Таким образом, коинтегрирующие вектора фактически образуют линейное подпространство с выколотым нулем, которое принято называть коинтегрирующим подпространством.

Обозначим через β матрицу, соответствующую произвольному базису коинтегрирующего подпространства процесса xt. Это k × r матрица, где r — размерность коинтегрирующего подпространства. Размерность r называют рангом коинтеграции. Столбцы β — это линейно независимые коинтегрирующие вектора.

Для удобства анализа преобразуем исходную модель (23.6) векторной авторегрессии. Всегда можно переписать векторную авторегрессию в форме векторной модели исправления ошибок (vector error-correction model, VECM):

 

 

p−1

 

 

xt = xt−1Π + ∆xt−j Γj + vt,

 

 

j=1

p

 

p

где Γj = i=j+1

Πi,

Π = (I i=1 Πi) = Π(1).

23.6. Коинтеграция в векторной авторегрессии

667

При сделанных нами предположениях первые разности ∆xt должны быть ста-

p−1

ционарными. Отсюда следует, что процесс xt−1Π = ∆xt xt−j Γj − vt ста-

j=1

ционарен как линейная комбинация стационарных процессов. Это означает, что столбцы матрицы Π — это коинтегрирующие вектора (либо нулевые вектора). Любой такой вектор можно разложить по базису коинтегрирующего подпространства, β. Составим из коэффициентов таких разложений k × r матрицу α, так что Π = βα . Ранг матрицы Π не может превышать r. Укажем без доказательства, что при сделанных предположениях ранг матрицы Π в точности равен r.

Таким образом, мы получили следующую запись для векторной модели исправления ошибок:

p−1

xt = xt−1βα + ∆xt−j Γj + vt,

j=1

где α отвечает за скорость исправления отклонений от равновесия (матрица корректирующих коэффициентов), β — матрица коинтеграционных векторов.

Можно рассмотреть два крайних случая: r = 0 и r = k. Если r = 0, то Π = 0 и не существует стационарных линейных комбинаций процесса xt. Если r = k, то Π имеет полный ранг и любая комбинация xt стационарна, т.е. все составляющие процессы являются I(0). О собственно коинтеграции можно говорить лишь при

0 < r < k.

До сих пор мы не вводили в модель детерминированные компоненты. Однако, вообще говоря, можно ожидать, что в модель входят константы и линейные тренды, причем они могут содержаться как в самих рядах, так и в коинтеграционных уравнениях. Рассмотрим векторную модель исправления ошибок с константой и трендом:

p−1

xt = µ0 + µ1t + xt−1βα + ∆xt−j Γj + vt,

j=1

где µ0 и µ1 — вектора-строки длиной k. Вектор µ0 соответствует константам, а вектор µ1 — коэффициентам линейных трендов. Можно выделить пять основных случаев, касающихся статуса векторов µ0 и µ1 в модели. В таблице 23.1 они перечислены в порядке перехода от частного к более общему.

Здесь γ0 и γ1 — вектора-строки длины r.

Случай 0 легко понять — константы и тренды в модели полностью отсутствуют.

Вслучае 1 константа входит в коинтеграционное пространство и тем самым

вкорректирующие механизмы, но не входит в сам процесс xt в виде дрейфа. Это

668

 

Глава 23. Векторные авторегрессии

 

 

Таблица 23.1

 

 

 

 

Случай 0

µ0 = 0

 

µ1

= 0

 

 

 

 

 

 

 

 

 

Случай 1

µ0 = γ0α

 

µ1

= 0

 

 

Случай 1

µ0 произвольный

 

µ1

= 0

 

 

 

 

 

 

 

 

Случай 2

µ0 произвольный

 

µ1 = γ1α

 

 

Случай 2

µ0 произвольный

 

µ1 произвольный

 

 

 

 

 

 

 

 

несложно увидеть, если переписать модель следующим образом:

p−1

xt = (γ0 + xt−1β) α + ∆xt−j Γj + vt.

j=1

В случае 1 µ0 можно записать как µ0 = µ0 + γ0α , где µ0 входит в коинтеграционное пространство, а µ0 соответствует дрейфу в векторной модели исправления ошибок:

p−1

xt = µ0 + (γ0 + xt−1β) α + ∆xt−j Γj + vt.

j=1

Дрейф в модели исправления ошибок означает, что процесс xt содержит линейный тренд4.

Аналогичные рассуждения верны по отношению к временному тренду в случаях 2 и 2. В случае 2 тренд входит в коинтеграционное пространство, но не входит в xt в виде квадратичного тренда. В случае 2 тренд входит и в коинтеграционное пространство, и в xt в виде квадратичного тренда.

23.7. Метод Йохансена

Наряду с методом Энгла—Грейнджера (см. п. 17.6), еще одним популярным методом нахождения стационарных комбинаций нестационарных переменных является метод Йо´ хансена. Этот метод, по сути дела, распространяет методику Дики— Фуллера (см. 17.4) на случай векторной авторегрессии. Помимо оценивания коинтегрирующих векторов, метод Йохансена также позволяет проверить гипотезы о ранге коинтеграции (количестве коинтегрирующих векторов) и гипотезы о виде коинтегрирующих векторов.

4Это аналог ситуации для скалярного авторегрессионного процесса с дрейфом.

23.7. Метод Йохансена

669

Перечислим преимущества, которые дает метод Йохансена по сравнению с методом Энгла—Грейнджера:

1)Метод Энгла—Грейнджера применим, только когда между нестационарными переменными есть всего одно коинтегрирующее соотношение. Если ранг коинтеграции больше 1, то метод дает бессмысленные результаты.

2)Метод Энгла—Грейнджера статичен, в нем не учитывается краткосрочная динамика.

3)Результаты метода Йохансена не зависят от нормировки, использованной при оценивании, в то время как метод Энгла—Грейнджера может дать существенно отличающиеся результаты в зависимости от того, какая переменная стоит в левой части оцениваемой коинтеграционной регрессии.

Пусть векторный процесс xt = (x1t, . . . , xkt) описывается векторной авторегрессией p-го порядка, причем каждая из компонент является I(1) или I(0). Предполагается, что ошибки, относящиеся к разным моментам времени, независимы и распределены нормально с нулевым математическим ожиданием и ковариационной матрицей Σ. Как указывалось выше, можно записать векторную авторегрессию в форме векторной модели исправления ошибок:

p−1

xt = xt−1Π + ∆xt−j Γj + vt.

j=1

В методе Йохансена оцениваемыми параметрами являются k × k матрицы коэффициентов Γj и Π, а также ковариационная матрица Σ. Имея оценки Γj и Π, можно получить оценки коэффициентов приведенной формы модели по следующим формулам:

Π1 = I + Γ1 + Π,

Πj = Γj Γj−1, j = 2, . . . , p − 1,

Πp = Γp−1.

Ранг коинтеграции r считается известным. Ограничения на ранг коинтеграции задаются как ограничения на матрицу Π. Как сказано выше, в предположении, что ранг коинтеграции равен r, ранг матрицы Π тоже равен r, и эту матрицу можно представить в виде произведения двух матриц:

Π = βα ,

где α и β имеют размерность k × r. Таким образом, в дальнейших выкладках используется представление:

p−1

xt = xt−1βα + ∆xt−j Γj + vt.

j=1

670

Глава 23. Векторные авторегрессии

Матрица β состоит из коинтегрирующих векторов. Заметим, что если бы матрица β была известна (естественно, с точностью до нормировки), то отклонения от равновесия xtβ тоже были бы известны, и мы имели бы дело с линейными уравнениями регрессии, которые можно оценить посредством МНК. В методе Йохансена исходят из того, что матрицу β требуется оценить.

Для оценивания модели используется метод максимального правдоподобия.

Плотность распределения ошибок vt по формуле для многомерного нормального распределения равна

(2π)k/2 |Σ|1/2 e(12 vt Σ1vt).

Обозначим через δ вектор, состоящий из параметров α, β и Γj . Для данного δ остатки модели равны

p−1

vt(δ) = ∆xt − xt−1βα − xt−j Γj .

j=1

Используя это обозначение, можем записать функцию правдоподобия:

L(δ, Σ) = (2π)

kT

/2

 

Σ

 

T

(

1

T

vt (δ1 v (δ))

.

 

|

|

 

/2 e

2

t=p

t

 

 

 

 

 

 

 

 

 

 

 

 

Заметим, что это функция правдоподобия, в которой за неимением данных в сумме пропущены первые p наблюдений.

Логарифмическая функция правдоподобия равна

T

ln L(δ, Σ) = kT2 ln(2π) + T2 ln |Σ1| − 12 t=p vt(δ1 vt(δ).

При данном δ максимум функции правдоподобия по Σ достигается при

T

Σ = Σ(δ) = T1 t=p vt(δ)vt(δ).

Это можно доказать, дифференцируя логарифмическую функцию правдоподобия по Σ1 (см. Приложение A.2.2).

Можно показать, что для этой матрицы выполнено

T

vt(δ1(δ)vt (δ) = T k.

t=p

23.7. Метод Йохансена

671

С учетом этого максимизация функции правдоподобия эквивалентна минимизации определителя матрицы Σ(δ) по δ или

T

vt(δ)vt(δ) min!

t=p

δ

Тем самым мы получили, что метод максимального правдоподобия сводится к максимизации некоторой обобщенной суммы квадратов. По аналогии со сказанным выше ясно, что при данной матрице β можно получить оценки максимального правдоподобия для остальных неизвестных параметров обычным методом наименьших квадратов. Кроме того, при данных α, β можно получить оценки Γj методом наименьших квадратов из регрессий:

p−1

xt − xt−pβα = ∆xt−j Γj + vt.

j=1

Оценим отдельно регрессии ∆xt и xt−p по переменным, стоящим в правой части данного уравнения:

p−1

xt = ∆xt−j Sj + r0t,

j=1 p−1

xt−p = ∆xt−j Tj + rpt, j=1

где Sj , Tj — коэффициенты регрессий.

Получим из них остатки r0t и rpt. Отсюда при данных α и β получим остатки исходной модели:

vt = vt(α, β) = r0t − rptβα .

В этих обозначениях задача нахождения оценок приобретает вид:

T

(r0t − rptβα ) (r0t − rptβα ) min!

t=p

α, β

Для нахождения матриц α и β Йохансен использовал процедуру, известную как регрессия с пониженным рангом. Она состоит в следующем. На основе остатков r0t и rpt формируются выборочные ковариационные матрицы остатков:

1

T

 

Mij =

 

r

rjt, i, j = 0, p,

 

 

 

it

 

 

T t=1

 

672

Глава 23. Векторные авторегрессии

и задача переписывается в виде

M00 − αβ Mp0 − M0pβα + αβ Mppβα → min!

α,β

Минимизация по α при данном β дает

α(β) = M0pβ(β Mppβ)1,

откуда следует задача минимизации уже только по β:

M00 − M0pβ(β Mppβ)1β Mp0 min!

β

Очевидно, что отсюда нельзя однозначно найти β. Для нахождения β удобно ввести следующую нормировку: β Mppβ = Ir. Оказывается, что с учетом данного нормирующего ограничения последняя задача минимизации эквивалентна следующей обобщенной задаче поиска собственных значений5:

Mp0M001M0p − λMpp c = 0,

где c — собственный вектор, а собственные значения λ находятся как решения уравнения:

Mp0M001M0p − λMpp = 0.

Матрица β находится в виде собственных векторов, соответствующих r наибольшим собственным значениям, где r — ранг коинтеграции. Пусть собственные числа упорядочены по убыванию, т.е.

λ1 λ2 . . . λk .

Тогда следует выбрать первые r этих чисел, λ1, . . . , λr . Столбцами матрицы β будут соответствующие вектора c1, . . . , cr .

Обобщенную задачу поиска собственных значений можно свести к стандартной задаче, если найти какую-либо матрицу Mpp1/2 , являющуюся квадратным корнем

матрицы Mpp, т.е. Mpp = Mpp1/2

Mpp1/2 :

 

 

 

M

1/2

 

M M

1

M M

1/2

 

λI c = 0,

pp

 

p0

 

00

0p pp

 

5Она напоминает метод наименьшего дисперсионного отношения для оценивания систем одновременных уравнений (см. п. 10.3). Также это напрямую связано с так называемой теорией канонических корреляций. (См. Бриллинджер Д. Временные ряды. Обработка данных и теория. — М.: «Мир», 1980.)