Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ЭКОНОМЕТРИКА и математическая экономика / Эконометрика. Учебник продвинутый (2005)

.pdf
Скачиваний:
505
Добавлен:
20.04.2015
Размер:
4.02 Mб
Скачать

22.4. Упражнения и задачи

653

2.Сформулируйте кратко отличие между условной и точной оценкой МНК для модели MA(1) и связь между ними (с пояснением обозначений).

3.Как можно найти оценку параметра для модели AR(1), исходя из предположения, что первое наблюдение не является случайной величиной? Как называется такая оценка?

4.Запишите функцию правдоподобия для модели авторегрессии первого порядка, выделив множитель, который является причиной отличия точной ММПоценки от условной оценки. Плотности распределения какой величины соответствует этот множитель?

5.Запишите функцию правдоподобия для модели скользящего среднего первого порядка.

Рекомендуемая литература

1.Бокс Дж., Дженкинс Г. Анализ временных рядов. Прогноз и управление. (Вып. 1, 2). — М.: «Мир», 1972.

2.Песаран М., Слейтер Л. Динамическая регрессия: теория и алгоритмы. — М: «Финансы и статистика», 1984. (Гл. 2–4).

3.Engle Robert F. Autoregressive Conditional Heteroskedasticity with Estimates of the Variance of U.K. Inflation // Econometrica, 50, 1982, 987–1008.

4.Hamilton James D. Time Series Analysis. — Princeton University Press, 1994. (Ch. 5).

5.Judge G.G., Griffiths W.E., Hill R.C., Luthepohl H., Lee T. Theory and Practice of Econometrics. — New York: John Wiley & Sons, 1985. (Ch. 8).

6.(*) Справочник по прикладной статистике: В 2-х т. Т. 2. / Под ред. Э. Ллойда, У. Ледермана. — М.: «Финансы и статистика», 1990. (Гл. 18).

Глава 23

Векторные авторегрессии

23.1.Векторная авторегрессия: формулировка и идентификация

Модели векторной авторегрессии (VAR) представляют собой удобный инструмент для одновременного моделирования нескольких рядов. Векторная авторегрессия — это такая модель, в которой несколько зависимых переменных, и зависят они от собственных лагов и от лагов других переменных. Если в обычной авторегрессии коэффициенты являются скалярами, то здесь следует рассматривать уже матрицы коэффициентов.

В отличие от модели регрессии, в VAR-модели нет нужды делить переменные на изучаемые переменные и независимые факторы. Любая экономическая переменная модели VAR по умолчанию включается в состав изучаемых величин (хотя есть возможность часть переменных рассматривать как внешние к модели, экзогенные).

Отметим, что естественным расширением модели VAR является модель VARMA, включающая ошибку в виде скользящего среднего. Однако модель VARMA не получила очень широкого распространения из-за сложности оценивания. Авторегрессию легче оценивать, так как выполнено предположение об отсутствии автокорреляции ошибок. В то же время, члены скользящего среднего приходится оценивать методом максимального правдоподобия. Так как каждый обратимый процесс скользящего среднего может быть представлен в виде AR(), чистые авторегрессии могут приближать векторные процессы скользящего среднего, если

23.1. Векторная авторегрессия: формулировка и идентификация

655

добавить достаточное число лагов. Предполагается, что при этом ошибка не будет автокоррелированной, что позволяет с приемлемой точностью моделировать временные ряды, описываемые моделью VARMA, при помощи авторегрессии достаточно высокого порядка.

Пусть xt — вектор-строка k изучаемых переменных, zt — вектор-строка независимых факторов (в него может входить константа, тренд, сезонные переменные и т.п.).

Как и традиционные системы одновременных уравнений, модели векторной авторегрессии имеют две формы записи: структурную и приведенную. Структурная векторная авторегрессия (SVAR) p-го порядка — это модель следующего вида:

p

xt = xt−j Φj + ztA + εt, где (Φ0)ll = 0.

j=0

Здесь Φj — матрица k ×k коэффициентов авторегрессии для j-го лага xt , A — матрица коэффициентов при независимых факторах. Коэффициенты, относящиеся к отдельному уравнению, стоят по столбцам этих матриц. Относительно матрицы Φj предполагается, что ее диагональные элементы1 равны нулю, (Φ0)ll = 0, l = 1, . . . , k. Это означает, что отдельная переменная xlt не влияет сама на себя в тот же момент времени.

При этом предполагается, что ковариационная матрица одновременных ошибок диагональна:

var(ε

) = diag(ω2

, . . . , ω2) = Ω.

(23.1)

t

1

k

 

Некоторые из коэффициентов здесь известны, поэтому такая модель называется структурной.

Обозначим

B = I − Φ0, Bll = 1.

Тогда SVAR можно переписать как

p

xtB = xt−j Φj + ztA + εt.

(23.2)

j=1

 

1Если матрица имеет индекс, то для обозначения ее элемента мы будем заключать матрицу в скобки. Например, (A1)ij .

656

Глава 23. Векторные авторегрессии

Структурная векторная регрессия фактически является «гибридом» моделей авторегрессии и систем одновременных уравнений. Соответственно, анализ таких моделей должен учитывать и динамические свойства, характерные для моделей авторегрессии, и черты, присущие системам одновременных уравнений.

Уравнение структурной векторной авторегрессии представляет собой систему одновременных регрессионных уравнений, в которой среди факторов имеются лаги изучаемых переменных. Для того чтобы показать это в явном виде, введем следующие обозначения:

 

 

Φ1

 

 

.

 

˜

.

z˜t = (xt−1, . . . , xt−p, zt) и

.

A =

.

 

 

Φp

 

 

A

В таких обозначениях

˜

xtB = z˜tA + εt,

или в матричной записи

˜ ˜

XB = ZA + ε.

Как и в случае систем одновременных уравнений, нельзя оценить параметры структурной формы методом непосредственно наименьших квадратов, поскольку, если матрица B недиагональна, найдутся уравнения, в которых будет более чем одна эндогенная переменная. В i-м уравнении системы будет столько же эндогенных переменных, сколько ненулевых элементов в i-м столбце матрицы B. Таким образом, в общем случае уравнения системы будут взаимозависимы, и, следовательно, оценки их по отдельности методом наименьших квадратов будут несостоятельными.

Классический частный случай, в котором все-таки можно применять МНК — это случай рекурсивной системы. Рекурсивной является система одновременных уравнений, в которой матрица B является верхней треугольной, а матрица ковариаций ошибок Ω (23.1) является диагональной. Последнее условие в случае SVAR выполнено по определению. При этом первая переменная зависит только от экзогенных переменных, вторая переменная зависит только от первой и от экзогенных переменных и т.д. Поскольку ошибки в разных уравнениях некоррелированы, то каждая эндогенная переменная коррелирована только с ошибками из своего

23.1. Векторная авторегрессия: формулировка и идентификация

657

и предыдущих уравнений и не коррелирована с ошибками тех уравнений, в которые она входит в качестве регрессора. Таким образом, ни в одном из уравнений не нарушаются предположения МНК о некоррелированности ошибки и регрессоров, т.е. оценки МНК состоятельны.

В общем случае, когда модель SVAR не обязательно рекурсивная, чтобы избавиться от одновременных зависимостей, можно умножить2 23.2 справа на B1 :

p

xt = xt−j Φj B1 + ztAB1 + εtB1.

j=1

Далее, обозначим

D = AB1, Πj = Φj B1, vt = εtB1.

Это дает приведенную форму векторной авторегрессии:

p

xt = xt−j Πj + ztD + vt.

j=1

Ковариационная матрица одновременных ошибок приведенной формы равна var(vt) = Σ. Она связана с ковариационной матрицей одновременных ошибок структурной формы Ω (см. 23.1) соотношением B ΣB = Ω.

Как и в случае обычных одновременных уравнений, при оценивании структурных векторных авторегрессий возникает проблема идентификации. Существует несколько типов идентифицирующих ограничений, которые можно использовать для решения этой проблемы.

1)Нормирующие ограничения, которые только закрепляют единицы измерения коэффициентов. В данном случае в качестве нормирующих ограничений используются ограничения Bll = 1 (диагональные элементы матрицы B равны 1).

2)Ограничения на коэффициенты структурных уравнений. Ограничения на коэффициенты бывают двух видов: ограничение на коэффициенты в пределах одного

итого же уравнения (важный частный случай такого ограничения — исключение переменной из уравнения) и ограничение на коэффициенты нескольких уравнений.

3)Ограничения на ковариационную матрицу ошибок. В структурной векторной авторегрессии используется крайний случай таких ограничений: матрица ковариаций ошибок Ω в этой модели диагональна (см. 23.1), т.е. так называемое ограничение ортогональности ошибок.

4)Долгосрочные ограничения. Это ограничения на долгосрочные взаимодействия переменных, резюмируемые долгосрочным мультипликатором M , о котором речь пойдет ниже (см. 23.5).

2Мы исходим из предположения, что B — неособенная матрица.

658

Глава 23. Векторные авторегрессии

В отличие от векторной авторегрессии, в классических системах одновременных уравнений редко используют ограничения на ковариационную матрицу, а здесь они входят в определение модели, причем в виде жесткого ограничения ортогональности ошибок.

Стандартные идентифицирующие ограничения, которые неявно подразумевались в ранних статьях по векторной авторегрессии, состоят в том, что матрица B является верхней треугольной. Это дает рекурсивную векторную авторегрессию.

Рекурсивную векторную авторегрессию можно оценить методом наименьших квадратов по причинам, о которых упоминалось выше. Другой способ состоит в том, чтобы оценить приведенную форму модели и восстановить из нее коэффициенты структурной формы. Для этого надо использовать так называемое разложение Холецкого (триангуляризацию) для ковариационной матрицы приведенной формы: Σ = U U , где Ω — диагональная матрица с положительными элементами, U — верхняя треугольная матрица с единицами на диагонали. Естественно, вместо истинной матрицы Σ используют ее оценку. Тогда полученная матрица Ω будет оценкой ковариационной матрицы ошибок структурной формы, а U 1 — оценкой матрицы B.

Однако использование рекурсивной векторной авторегрессии нежелательно, если только нет каких-либо оснований считать, что одновременные взаимодействия между переменными действительно являются рекурсивными. Дело в том, что эти идентифицирующие ограничения совершенно произвольны и зависят от того,

вкаком порядке расположены переменные в векторе xt.

Вобщем случае оценивание структурной VAR производят примерно теми же методами, что и оценивание одновременных уравнений. В частности, можно использовать метод максимального правдоподобия. Специфичность методов оценивания состоит в том, что они должны учитывать ограничение ортогональности ошибок.

23.2. Стационарность векторной авторегрессии

Чтобы анализировать условия и следствия стационарности векторной авторегрессии, удобно отвлечься от структурной формы этой модели и пользоваться приведенной формой. Для упрощения анализа мы без потери общности будем рассматривать векторную авторегрессию без детерминированных членов:

p

xt = xt−j Πj + vt, j=1

23.2. Стационарность векторной авторегрессии

659

или в операторном виде3:

p

xt I − Πj Lj = vt.

j=1

Многие свойства процесса VAR(p) можно получить из свойств процесса VAR(1), если воспользоваться соответствующим представлением:

˜

x˜t = x˜t−1Π + v˜t,

где вводятся следующие обозначения:

x˜t = (xt, xt−1, . . . , xt−p+1) , v˜t = vt, 0k , . . . , 0k

и

 

Π1

Ik

0k×k · · ·

0k×k

 

 

 

Π2

0k×k

Ik · · ·

0k×k

 

 

˜

.

.

. .

.

 

.

 

.

Π =

.

.

.

.

 

 

.

.

.

 

. .

 

 

 

Πp−1

0k×k

0k×k · · ·

Ik

 

 

 

Πp

0k×k

0k×k · · ·

0k×k

 

 

Используя рекуррентные подстановки

 

 

 

 

 

 

˜

˜

 

˜ 2

 

˜

 

 

 

x˜t = (˜xt−2Π + v˜t)Π + v˜t = x˜t−2Π + v˜tΠ + v˜t,

 

 

˜

˜ 2

˜

 

 

˜ 3

˜

2

˜

x˜t = (˜xt−3Π + v˜t)Π + v˜tΠ + v˜t = x˜t−3Π + v˜tΠ + v˜tΠ + v˜t

и т.д., несложно получить для VAR(1) представление в виде бесконечного скользя-

щего среднего:

 

 

 

 

 

 

 

 

 

˜

˜ 2

˜ 3

 

 

 

˜ i

x˜t = v˜t + v˜tΠ + v˜tΠ + v˜tΠ + . . . = v˜t−iΠ .

i=0

Для того чтобы этот ряд сходился, необходимо, чтобы его члены затухали,

т.е. чтобы в пределе при i → ∞

последовательность матриц

˜ i

стремилась к ну-

Π

лю. Для этого требуется, чтобы собственные значения матрицы

˜

лежали внутри

Π

3Здесь оператор стоит после переменной, на которую действует, чтобы не нарушать правила умножения матриц.

660

Глава 23. Векторные авторегрессии

единичного круга. Собственные значения матрицы ˜ , по определению, удовлетво-

Π

ряют уравнению:

˜

Π λIT p = 0.

Определитель в этой формуле можно выразить через матрицы Πj (доказательство этого требует довольно громоздких вычислений):

˜ − − T p p p−1 − − −

Π λIT p = ( 1) IT λ Π1λ . . . Πp−1λ Πp .

Таким образом, уравнение для собственных значений эквивалентно следующему:

IT λp Π1λp−1 − . . . − Πp−1λ − Πp = 0.

Процесс VAR(p) слабо стационарен тогда и только тогда, когда корни этого уравнения меньше единицы по абсолютной величине.

Эти условия стационарности можно переформулировать в терминах матричного характеристического многочлена процесса VAR(p), который равен

p

Π(z) = I − Πj zj .

j=1

Если возьмем определитель этого многочлена, то получится скалярный характеристический многочлен

p

|Π(z)| = I − Πj zj .

j=1

Он будет многочленом, поскольку определитель — это многочлен от своих элементов. Соответствующее характеристическое уравнение имеет вид:

|Π(z)| = 0.

Условия стационарности состоят в том, что корни этого характеристического уравнения лежат за пределами единичного круга.

23.3. Анализ реакции на импульсы

Для содержательной интерпретации стационарной векторной авторегрессии следует выразить изучаемую переменную xt через ошибки εt структурной формы, которые, по определению модели, взаимно некоррелированы.

23.3. Анализ реакции на импульсы

661

Запишем приведенную форму модели (без детерминированных членов) с использованием лагового оператора L:

p

xt I − Πj Lj = vt = εtB1.

j=1

В предположении стационарности процесса xt можно обратить лаговый полином и получить

 

 

 

 

 

p

1.

 

x

t

= ε B1

I

Π Lj

(23.3)

 

t

 

j

 

 

j=1

Это дает представление в виде бесконечного скользящего среднего (представление Вольда) для VAR:

 

xt = εt−iΨi.

(23.4)

i=0

 

Матрицы Ψi представляют так называемую функцию реакции на импульсы (IRF — impulse response function) для структурной векторной авторегрессии и могут быть символически записаны в виде

Ψi = dxt . t−i

Более точно, функция реакции на импульсы — это последовательность (Ψi)lr , i = 0, 1, 2, где l и r — индексы пары изучаемых переменных. Величина (Ψi)lr показывает, как влияет ошибка εtl (которая соответствует уравнению для переменной xtl ) на переменную xtr при запаздывании на i периодов.

Эти матрицы можно рассчитать рекуррентно:

p

Ψi = Ψi−j Πj , i = 1, 2, . . . ,

j=1

начиная с

Ψ0 = B1 и Ψi = 0k×k , i < 0.

Накопленная реакция на импульсы определяется следующим образом:

s

Ψs = Ψi.

i=0

662

Глава 23. Векторные авторегрессии

Она показывает суммарное запаздывающее влияние ошибок на изучаемую переменную для всех лагов от 0 до некоторого s.

Долгосрочное влияние резюмируется матрицей M , определяемой как

 

(23.5)

M = lim Ψs =

Ψi.

s→∞

i=0

 

Эту матрицу называют долгосрочным мультипликатором. Ее также можно записать в виде

 

 

 

 

 

 

 

p

 

1.

 

 

 

M = B1

I

 

Π

 

 

 

 

 

 

 

 

j

 

 

 

 

 

 

j=1

 

 

Последняя формула следует из того, что

 

 

 

 

 

 

 

p

1 =

Ψ

 

 

 

B

1 I

Π

Li

 

(см. 23.3 и 23.3).

 

 

 

j

 

i

 

 

 

 

 

 

j=1

 

i=0

 

 

 

Для того чтобы это показать, надо подставить 1 вместо L.

23.4.Прогнозирование с помощью векторной авторегрессии и разложение дисперсии

Поскольку лаги исследуемых переменных полагаются величинами известными, то построение прогнозов по ним в гораздо меньшей степени, чем в системах одновременных уравнений, осложняется проблемой получения точных значений факторов.

Для упрощения формул мы будем исходить из того, что нам известны истинные параметры процесса. Пусть известны значения xt временного ряда VAR для t = 1, . . . , T . Сделаем прогноз на ( T + 1)-й период. Это математическое ожидание xT +1 , условное относительно имеющейся на момент T информации x1, . . . , xT . При расчетах удобно действовать так, как если бы была известна вся предыстория процесса:

T = (xT , . . . , x1, x0, . . . ).

Выводы от этого не изменятся. Таким образом, будем использовать ожидания, условные относительно ΩT .

Искомый прогноз равен

p

p

xTp (1) = E(xT +1|T ) = E(xT +1−j |T j + E(vT +1|T ) =

xT +1−j Πj ,

j=1

j=1