ЭКОНОМЕТРИКА и математическая экономика / Эконометрика. Учебник продвинутый (2005)
.pdf22.4. Упражнения и задачи |
653 |
2.Сформулируйте кратко отличие между условной и точной оценкой МНК для модели MA(1) и связь между ними (с пояснением обозначений).
3.Как можно найти оценку параметра для модели AR(1), исходя из предположения, что первое наблюдение не является случайной величиной? Как называется такая оценка?
4.Запишите функцию правдоподобия для модели авторегрессии первого порядка, выделив множитель, который является причиной отличия точной ММПоценки от условной оценки. Плотности распределения какой величины соответствует этот множитель?
5.Запишите функцию правдоподобия для модели скользящего среднего первого порядка.
Рекомендуемая литература
1.Бокс Дж., Дженкинс Г. Анализ временных рядов. Прогноз и управление. (Вып. 1, 2). — М.: «Мир», 1972.
2.Песаран М., Слейтер Л. Динамическая регрессия: теория и алгоритмы. — М: «Финансы и статистика», 1984. (Гл. 2–4).
3.Engle Robert F. Autoregressive Conditional Heteroskedasticity with Estimates of the Variance of U.K. Inflation // Econometrica, 50, 1982, 987–1008.
4.Hamilton James D. Time Series Analysis. — Princeton University Press, 1994. (Ch. 5).
5.Judge G.G., Griffiths W.E., Hill R.C., Luthepohl H., Lee T. Theory and Practice of Econometrics. — New York: John Wiley & Sons, 1985. (Ch. 8).
6.(*) Справочник по прикладной статистике: В 2-х т. Т. 2. / Под ред. Э. Ллойда, У. Ледермана. — М.: «Финансы и статистика», 1990. (Гл. 18).
Глава 23
Векторные авторегрессии
23.1.Векторная авторегрессия: формулировка и идентификация
Модели векторной авторегрессии (VAR) представляют собой удобный инструмент для одновременного моделирования нескольких рядов. Векторная авторегрессия — это такая модель, в которой несколько зависимых переменных, и зависят они от собственных лагов и от лагов других переменных. Если в обычной авторегрессии коэффициенты являются скалярами, то здесь следует рассматривать уже матрицы коэффициентов.
В отличие от модели регрессии, в VAR-модели нет нужды делить переменные на изучаемые переменные и независимые факторы. Любая экономическая переменная модели VAR по умолчанию включается в состав изучаемых величин (хотя есть возможность часть переменных рассматривать как внешние к модели, экзогенные).
Отметим, что естественным расширением модели VAR является модель VARMA, включающая ошибку в виде скользящего среднего. Однако модель VARMA не получила очень широкого распространения из-за сложности оценивания. Авторегрессию легче оценивать, так как выполнено предположение об отсутствии автокорреляции ошибок. В то же время, члены скользящего среднего приходится оценивать методом максимального правдоподобия. Так как каждый обратимый процесс скользящего среднего может быть представлен в виде AR(∞), чистые авторегрессии могут приближать векторные процессы скользящего среднего, если
656 |
Глава 23. Векторные авторегрессии |
Структурная векторная регрессия фактически является «гибридом» моделей авторегрессии и систем одновременных уравнений. Соответственно, анализ таких моделей должен учитывать и динамические свойства, характерные для моделей авторегрессии, и черты, присущие системам одновременных уравнений.
Уравнение структурной векторной авторегрессии представляет собой систему одновременных регрессионных уравнений, в которой среди факторов имеются лаги изучаемых переменных. Для того чтобы показать это в явном виде, введем следующие обозначения:
|
|
Φ1 |
|
|
. |
|
˜ |
. |
z˜t = (xt−1, . . . , xt−p, zt) и |
. |
|
A = |
. |
|
|
|
Φp |
|
|
A |
В таких обозначениях
˜
xtB = z˜tA + εt,
или в матричной записи
˜ ˜
XB = ZA + ε.
Как и в случае систем одновременных уравнений, нельзя оценить параметры структурной формы методом непосредственно наименьших квадратов, поскольку, если матрица B недиагональна, найдутся уравнения, в которых будет более чем одна эндогенная переменная. В i-м уравнении системы будет столько же эндогенных переменных, сколько ненулевых элементов в i-м столбце матрицы B. Таким образом, в общем случае уравнения системы будут взаимозависимы, и, следовательно, оценки их по отдельности методом наименьших квадратов будут несостоятельными.
Классический частный случай, в котором все-таки можно применять МНК — это случай рекурсивной системы. Рекурсивной является система одновременных уравнений, в которой матрица B является верхней треугольной, а матрица ковариаций ошибок Ω (23.1) является диагональной. Последнее условие в случае SVAR выполнено по определению. При этом первая переменная зависит только от экзогенных переменных, вторая переменная зависит только от первой и от экзогенных переменных и т.д. Поскольку ошибки в разных уравнениях некоррелированы, то каждая эндогенная переменная коррелирована только с ошибками из своего
658 |
Глава 23. Векторные авторегрессии |
В отличие от векторной авторегрессии, в классических системах одновременных уравнений редко используют ограничения на ковариационную матрицу, а здесь они входят в определение модели, причем в виде жесткого ограничения ортогональности ошибок.
Стандартные идентифицирующие ограничения, которые неявно подразумевались в ранних статьях по векторной авторегрессии, состоят в том, что матрица B является верхней треугольной. Это дает рекурсивную векторную авторегрессию.
Рекурсивную векторную авторегрессию можно оценить методом наименьших квадратов по причинам, о которых упоминалось выше. Другой способ состоит в том, чтобы оценить приведенную форму модели и восстановить из нее коэффициенты структурной формы. Для этого надо использовать так называемое разложение Холецкого (триангуляризацию) для ковариационной матрицы приведенной формы: Σ = U ΩU , где Ω — диагональная матрица с положительными элементами, U — верхняя треугольная матрица с единицами на диагонали. Естественно, вместо истинной матрицы Σ используют ее оценку. Тогда полученная матрица Ω будет оценкой ковариационной матрицы ошибок структурной формы, а U −1 — оценкой матрицы B.
Однако использование рекурсивной векторной авторегрессии нежелательно, если только нет каких-либо оснований считать, что одновременные взаимодействия между переменными действительно являются рекурсивными. Дело в том, что эти идентифицирующие ограничения совершенно произвольны и зависят от того,
вкаком порядке расположены переменные в векторе xt.
Вобщем случае оценивание структурной VAR производят примерно теми же методами, что и оценивание одновременных уравнений. В частности, можно использовать метод максимального правдоподобия. Специфичность методов оценивания состоит в том, что они должны учитывать ограничение ортогональности ошибок.
23.2. Стационарность векторной авторегрессии
Чтобы анализировать условия и следствия стационарности векторной авторегрессии, удобно отвлечься от структурной формы этой модели и пользоваться приведенной формой. Для упрощения анализа мы без потери общности будем рассматривать векторную авторегрессию без детерминированных членов:
p
xt = xt−j Πj + vt, j=1
23.3. Анализ реакции на импульсы |
661 |
Запишем приведенную форму модели (без детерминированных членов) с использованием лагового оператора L:
p
xt I − Πj Lj = vt = εtB−1.
j=1
В предположении стационарности процесса xt можно обратить лаговый полином и получить
|
|
|
|
|
p |
−1. |
|
x |
t |
= ε B−1 |
I |
− |
Π Lj |
(23.3) |
|
|
t |
|
j |
|
|
j=1
Это дает представление в виде бесконечного скользящего среднего (представление Вольда) для VAR:
∞ |
|
xt = εt−iΨi. |
(23.4) |
i=0 |
|
Матрицы Ψi представляют так называемую функцию реакции на импульсы (IRF — impulse response function) для структурной векторной авторегрессии и могут быть символически записаны в виде
Ψi = dxt . dεt−i
Более точно, функция реакции на импульсы — это последовательность (Ψi)lr , i = 0, 1, 2, где l и r — индексы пары изучаемых переменных. Величина (Ψi)lr показывает, как влияет ошибка εtl (которая соответствует уравнению для переменной xtl ) на переменную xtr при запаздывании на i периодов.
Эти матрицы можно рассчитать рекуррентно:
p
Ψi = Ψi−j Πj , i = 1, 2, . . . ,
j=1
начиная с
Ψ0 = B−1 и Ψi = 0k×k , i < 0.
Накопленная реакция на импульсы определяется следующим образом:
s
Ψs = Ψi.
i=0
662 |
Глава 23. Векторные авторегрессии |
Она показывает суммарное запаздывающее влияние ошибок на изучаемую переменную для всех лагов от 0 до некоторого s.
Долгосрочное влияние резюмируется матрицей M , определяемой как
|
∞ |
(23.5) |
M = lim Ψs = |
Ψi. |
|
s→∞ |
i=0 |
|
Эту матрицу называют долгосрочным мультипликатором. Ее также можно записать в виде
|
|
|
|
|
|
|
p |
|
−1. |
|
|
|
M = B−1 |
I |
− |
|
Π |
||
|
|
|
|
|
|
|
|
j |
|
|
|
|
|
|
|
j=1 |
|
|
|
Последняя формула следует из того, что |
|
|
|
|
|||||
|
|
|
p |
−1 = |
∞ Ψ |
|
|
|
|
B |
−1 I |
− |
Π |
Li |
|
(см. 23.3 и 23.3). |
|||
|
|
|
j |
|
i |
|
|
|
|
|
|
|
j=1 |
|
i=0 |
|
|
|
Для того чтобы это показать, надо подставить 1 вместо L.
23.4.Прогнозирование с помощью векторной авторегрессии и разложение дисперсии
Поскольку лаги исследуемых переменных полагаются величинами известными, то построение прогнозов по ним в гораздо меньшей степени, чем в системах одновременных уравнений, осложняется проблемой получения точных значений факторов.
Для упрощения формул мы будем исходить из того, что нам известны истинные параметры процесса. Пусть известны значения xt временного ряда VAR для t = 1, . . . , T . Сделаем прогноз на ( T + 1)-й период. Это математическое ожидание xT +1 , условное относительно имеющейся на момент T информации x1, . . . , xT . При расчетах удобно действовать так, как если бы была известна вся предыстория процесса:
ΩT = (xT , . . . , x1, x0, . . . ).
Выводы от этого не изменятся. Таким образом, будем использовать ожидания, условные относительно ΩT .
Искомый прогноз равен
p |
p |
xTp (1) = E(xT +1|ΩT ) = E(xT +1−j |ΩT )Πj + E(vT +1|ΩT ) = |
xT +1−j Πj , |
j=1 |
j=1 |