
Диплом / suslov_ibragimov_ekonometrika
.pdf22.4.Упражнения и задачи |
653 |
2.Сформулируйте кратко отличие между условной и точной оценкой МНК для модели MA(1) и связь между ними(с пояснением обозначений).
3.Как можно найти оценку параметра для модели AR(1),исходя из предположения,что первое наблюдение не является случайной величиной?Как называется такая оценка?
4.Запишитефункциюправдоподобиядля моделиавторегрессиипервогопорядка,выделив множитель,который является причиной отличия точной ММПоценки от условной оценки.Плотности распределения какой величины соответствует этот множитель?
5.Запишитефункциюправдоподобиядлямоделискользящегосреднегопервого порядка.
Рекомендуемая литература
1.Бокс Дж.,Дженкинс Г. Анализ временных рядов.Прогноз и управление. (Вып. 1, 2). ÑМ.: ÇМирÈ, 1972.
2.Песаран М.,Слейтер Л. Динамическая регрессия:теория и алгоритмы. Ñ М: ÇФинансы и статистикаÈ, 1984. (Гл. 2Ð4).
3.Engle Robert F. Autoregressive Conditional Heteroskedasticity with Estimates of the Variance of U.K. Inflation // Econometrica, 50, 1982, 987Ð1008.
4.Hamilton James D. Time Series Analysis. Ñ Princeton University Press, 1994. (Ch. 5).
5.Judge G.G., Griffiths W.E., Hill R.C., Luthepohl H., Lee T. Theory and Practice of Econometrics. Ñ New York: John Wiley & Sons, 1985. (Ch. 8).
6.(*)Справочник по прикладной статистике: В2-х т.Т. 2. /Под ред.
Э.Ллойда,У.Ледермана. ÑМ.: ÇФинансы и статистикаÈ, 1990. (Гл. 18).

Глава23
Векторные авторегрессии
23.1.Векторная авторегрессия: формулировка и идентификация
Модели векторной авторегрессии( VAR)представляют собой удобный инструментдляодновременногомоделированиянесколькихрядов.ВекторнаяавторегрессияÑэтотакаямодель,вкоторойнескол ькозависимыхпеременных,изависятони от собственных лагов иот лагов другихпеременных.Еслив обычной авторегрессии коэффициенты являются скалярами,то здесь следует рассматривать уже матрицы коэффициентов.
В отличие от модели регрессии,в VAR-модели нет нужды делить переменные на изучаемые переменные и независимые факторы.Любая экономическая переменная модели VAR по умолчанию включается в состав изучаемых величин(хотя есть возможность часть переменных рассматривать как внешние к модели,экзогенные).
Отметим,что естественным расширением модели VAR является модель VARMA,включающаяошибкуввидескользящегосреднего.Однакомодель VARMA не получила очень широкого распространения из-за сложности оценивания.Авторегрессию легче оценивать,так как вып олнено предположение об отсутствии автокорреляции ошибок.В то же время,члены скользящего среднего приходится оценивать методом максимального правдоподобия.Так как каждый обратимый процесс скользящего среднего может быть представлен в виде AR(∞),чистые авторегрессии могут приближать векторные процессы скользящего среднего,если

656 |
Глава23.Векторные авторегрессии |
Структурная векторная регрессия фактически являетсяÇгибридомÈмоделей авторегрессии и систем одновременных уравнений.Соответственно,анализ таких моделей должен учитывать и динамические свойства,характерные для моделей авторегрессии,и черты,присущие системам одновременных уравнений.
Уравнение структурной векторной авторегрессии представляет собой систему одновременных регрессионных уравнений,в которой среди факторов имеются лаги изучаемых переменных.Для того чтобы показать это в явном виде,введем следующие обозначения:
|
|
|
|
Φ1 |
|
|
z÷t = (xt 1 |
, . . . , xt p , zt ) и A÷ = |
... |
|
|
||
|
|
|
. |
|||
− |
− |
|
|
|
|
|
|
|
|
|
Φ |
p |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
A |
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В таких обозначениях |
|
|
|
|
|
|
|
÷ |
+ εt , |
|
|
|
|
|
xt B = z÷t A |
|
|
|
|
|
или в матричной записи |
|
|
|
|
|
|
|
÷ ÷ |
+ ε. |
|
|
|
|
|
X B = Z A |
|
|
|
|
Как и в случае систем одновременных уравнений,нельзя оценить параметры структурной формы методом непосредственно наименьших квадратов,поскольку, если матрица B недиагональна,найдутся уравнения,в которых будет более чем одна эндогенная переменная.В i-м уравнении системы будет столько же эндогенных переменных,сколько ненулевых элементов в i-м столбце матрицы B .Таким образом,в общем случае уравнения сист емы будут взаимозависимы,и,следовательно,оценки их по отдельности методом наименьших квадратов будут несостоятельными.
Классический частный случай,в котором все-таки можно применять МНКÑ это случай рекурсивной системы.Рекурсивной является система одновременных уравнений,в которой матрица B является верхней треугольной,а матрица ковариаций ошибок Ω (23.1)является диагональной.Последнее условие в случае SVAR выполнено по определению.При э том первая переменная зависит только от экзогенных переменных,вторая переменная зависит только от первой и от экзогенных переменных и т.д.Поскольку ошибки в разных уравнениях некоррелированы,то каждая эндогенная переменная коррелирована только с ошибкамииз своего

658 |
Глава23.Векторные авторегрессии |
В отличие от векторной авторегрессии, в классических системах одновременных уравнений редко используют ограничения на ковариационную матрицу,а здесь они входят в определение модели,причем в виде жесткого ограничения ортогональности ошибок.
Стандартные идентифицирующие ограничения,которые неявно подразумевались в ранних статьях по векторной авторегрессии,состоят в том,что матрица B является верхней треугольной.Это дает рекурсивную векторную авторегрессию.
Рекурсивную векторную авторегрессию можно оценить методом наименьших квадратовпопричинам,окоторыхупоминалосьвыше.Другойспособсостоитвтом, чтобы оценить приведенную форму модели и восстановить из нее коэффициенты структурной формы.Для этого надо использовать так называемое разложение Холецкого(триангуляризацию)для ковариационной матрицы приведенной формы: Σ = U !ΩU ,где Ω Ñдиагональная матрица с положительными элементами, U Ñверхняятреугольнаяматрицасединицаминадиагонали.Естественно,вместо истинной матрицы Σ используют ее оценку.Тогда полученная матрица Ω будет оценкой ковариационной матрицы ошибок структурной формы,а U −1 Ñоценкой матрицы B .
Однако использование рекурсивной векторной авторегрессии нежелательно, если только нет каких-либо оснований считать,что одновременные взаимодействия между переменнымидействительно являются рекурсивными.Делов том,что эти идентифицирующие ограничения совершенно произвольны и зависят от того,
вкаком порядке расположены переменные в векторе xt .
Вобщем случае оценивание структурной VAR производят примерно теми же методами,что и оценивание одновременных уравнений.В частности,можно использовать метод максимального правдоподобия.Специфичность методов оценивания состоит в том,что они должны учи тывать ограничение ортогональности ошибок.
23.2.Стационарность векторной авторегрессии
Чтобы анализировать условия и следствия стационарности векторной авторегрессии,удобно отвлечься от структур ной формы этой модели и пользоваться приведенной формой.Для упрощения анализа мы без потери общности будем рассматривать векторную авторегрессию без детерминированных членов:
xt = !p xt−j Πj + vt , j =1

23.3.Анализ реакции на импульсы |
661 |
Запишем приведенную форму модели(без детерминированных членов)с использованием лагового оператора L:
xt(I − !p Πj Lj ) = vt = εt B−1.
j =1
В предположении стационарности процесса xt можно обратить лаговый полином и получить
p |
Πj Lj )−1. |
|
! |
|
|
xt = εt B−1(I − j =1 |
(23.3) |
Это дает представление в виде бесконечного скользящего среднего(представление Вольда)для VAR:
|
∞ |
|
xt = |
!i |
|
εt−i Ψi. |
(23.4) |
|
|
=0 |
|
Матрицы Ψi представляют так называемую функцию реакции на импульсы (IRF Ñ impulse response function)для структурной векторной авторегрессии и могут быть символически записаны в виде
|
|
Ψi = |
dxt |
. |
|
|
|
|
|
||
|
|
|
dε |
|
|
|
|
|
t−i |
|
|
Более точно,функция реакции на импульсыÑэто последовательность |
(Ψi)lr , |
||||
i = 0, 1, 2, где l и r Ñиндексы пары изучаемых переменных.Величина |
(Ψi)lr |
||||
показывает,как влияет ошибка |
εtl (которая соответствует уравнению для пере- |
||||
менной xtl )на переменную xtr |
при запаздывании на i периодов. |
|
|||
Эти матрицы можно рассчитать рекуррентно: |
|
||||
|
p |
|
|
|
|
j! |
Ψi−j Πj , i = 1, 2, . . . , |
|
|||
Ψi = |
|
=1
начиная с
Ψ0 = B−1 и Ψi = 0k×k , i < 0.
Накопленная реакция на импульсы определяется следующим образом:
|
s |
( |
!i |
Ψs = Ψi. |
|
|
=0 |