Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Диплом / suslov_ibragimov_ekonometrika

.pdf
Скачиваний:
46
Добавлен:
24.03.2015
Размер:
5.55 Mб
Скачать

652

Глава22.Эффективные оценки параметров модели ARMA

Поставив оценку σε2

в логарифмическую функцию правдоподобия,получим

концентрированную функцию правдоподобия

 

ln ,

! T

. → max!

 

ln Lc (θ,ϕ ) = − 2

ln(2π) − 2

2 ln |R| −

2

 

 

T

 

T

1

 

T

 

x R−1x

 

Точные оценки параметровARMAдля процесса

xt

можно найти,максимизируя

функцию ln Lc (θ,ϕ ),что делается с помощью численных методов.

22.4.Упражнения и задачи

 

 

 

 

 

Упражнение1

 

 

 

 

 

 

 

 

 

Сгенерируйте ряд длиной200наблюдений по модели

MA(1) с параметром

θ1 = 0.5 и нормально распределенной неавтокоррелированной ошибкой с единичной дисперсией.По этому ряду оцените модель MA(1) методом моментов(приравнивая теоретические и выборочные автокорреляции),условным методом наименьших квадратов и точным методом максимального правдоподобия.Сравните все эти оценки с истинным значением.

Упражнение2

Сгенерируйте ряд длиной200наблюдений по модели AR(1) с параметром ϕ1 = 0.5 и нормально распределенной неавтокоррелированной ошибкой с единичной дисперсией.По этому ряду оцените модель AR(1) методом моментов(приравнивая теоретические и выборочные автокорреляции),условным методом наименьших квадратов и точным методом максимального правдоподобия.Сравните все эти оценки с истинным значением.

Упражнение3

Сгенерируйте ряд длиной200наблюдений по модели ARMA(1, 1) с параметрами ϕ1 = 0.5 и θ1 = 0.5 и нормально распределенной неавтокоррелированной ошибкой с единичной дисперсией.По этому ряду оцените модель ARMA(1, 1) методом моментов(приравнивая теоретические и выборочные автокорреляции), условным методом наименьших квадратов и точным методом максимального правдоподобия.Сравните все эти о ценки с истинными значениями.

Задачи

1.Какие предположения должны выполняться,чтобы можно было оценить модель MA(1) с помощью метода максимального правдоподобия?

22.4.Упражнения и задачи

653

2.Сформулируйте кратко отличие между условной и точной оценкой МНК для модели MA(1) и связь между ними(с пояснением обозначений).

3.Как можно найти оценку параметра для модели AR(1),исходя из предположения,что первое наблюдение не является случайной величиной?Как называется такая оценка?

4.Запишитефункциюправдоподобиядля моделиавторегрессиипервогопорядка,выделив множитель,который является причиной отличия точной ММПоценки от условной оценки.Плотности распределения какой величины соответствует этот множитель?

5.Запишитефункциюправдоподобиядлямоделискользящегосреднегопервого порядка.

Рекомендуемая литература

1.Бокс Дж.,Дженкинс Г. Анализ временных рядов.Прогноз и управление. (Вып. 1, 2). ÑМ.: ÇМирÈ, 1972.

2.Песаран М.,Слейтер Л. Динамическая регрессия:теория и алгоритмы. Ñ М: ÇФинансы и статистикаÈ, 1984. (Гл. 2Ð4).

3.Engle Robert F. Autoregressive Conditional Heteroskedasticity with Estimates of the Variance of U.K. Inflation // Econometrica, 50, 1982, 987Ð1008.

4.Hamilton James D. Time Series Analysis. Ñ Princeton University Press, 1994. (Ch. 5).

5.Judge G.G., Griffiths W.E., Hill R.C., Luthepohl H., Lee T. Theory and Practice of Econometrics. Ñ New York: John Wiley & Sons, 1985. (Ch. 8).

6.(*)Справочник по прикладной статистике: В2-х т.Т. 2. /Под ред.

Э.Ллойда,У.Ледермана. ÑМ.: ÇФинансы и статистикаÈ, 1990. (Гл. 18).

Глава23

Векторные авторегрессии

23.1.Векторная авторегрессия: формулировка и идентификация

Модели векторной авторегрессии( VAR)представляют собой удобный инструментдляодновременногомоделированиянесколькихрядов.ВекторнаяавторегрессияÑэтотакаямодель,вкоторойнескол ькозависимыхпеременных,изависятони от собственных лагов иот лагов другихпеременных.Еслив обычной авторегрессии коэффициенты являются скалярами,то здесь следует рассматривать уже матрицы коэффициентов.

В отличие от модели регрессии,в VAR-модели нет нужды делить переменные на изучаемые переменные и независимые факторы.Любая экономическая переменная модели VAR по умолчанию включается в состав изучаемых величин(хотя есть возможность часть переменных рассматривать как внешние к модели,экзогенные).

Отметим,что естественным расширением модели VAR является модель VARMA,включающаяошибкуввидескользящегосреднего.Однакомодель VARMA не получила очень широкого распространения из-за сложности оценивания.Авторегрессию легче оценивать,так как вып олнено предположение об отсутствии автокорреляции ошибок.В то же время,члены скользящего среднего приходится оценивать методом максимального правдоподобия.Так как каждый обратимый процесс скользящего среднего может быть представлен в виде AR(∞),чистые авторегрессии могут приближать векторные процессы скользящего среднего,если

23.1.Векторная авторегрессия:формулировка и идентификация

655

добавить достаточное число лагов.Предполагается,что при этом ошибка не будет автокоррелированной,что позволяет с приемлемой точностью моделировать временные ряды,описываемые моделью VARMA,при помощи авторегрессии достаточно высокого порядка.

Пусть xt Ñвектор-строка k изучаемых переменных, zt Ñвектор-строка независимых факторов(в него может входить константа,тренд,сезонные переменные и т.п.).

Как и традиционные системы одновременных уравнений,модели векторной авторегрессииимеютдвеформызаписи:структурнуюиприведенную. Структурная векторная авторегрессия (SVAR) p-го порядкаÑэто модель следующего вида:

xt = !p xt−j Φj + zt A + εt , где (Φ0)ll = 0. j =0

Здесь Φj Ñматрица k ×k коэффициентов авторегрессии для j -го лага xt , A Ñ матрица коэффициентов при независимых факторах.Коэффициенты,относящиеся к отдельному уравнению,стоят по стол бцам этих матриц.Относительно матри-

цы Φ

j

предполагается,что ее диагональные элементы 1 равны нулю, (Φ

)

ll

= 0,

 

 

 

0

 

l = 1, . . . , k.Это означает,что отдельная переменная

xlt не влияет сама на себя

в тот же момент времени.

 

 

 

 

Приэтомпредполагается,чтоковариационнаяматрицаодновременныхошибок

диагональна:

 

 

 

var(ε ) = diag(ω2

, . . . ,ω 2) =Ω .

(23.1)

t

1

k

 

Некоторые из коэффициентов здесь известны,поэтому такая модель называется структурной.

Обозначим

B = I − Φ0, Bll = 1.

Тогда SVAR можно переписать как

 

p

 

xt B =

j!

 

xt−j Φj + zt A + εt .

(23.2)

 

=1

 

1Если матрица имеетиндекс,то дляобозначенияееэлемента мыбудем заключать матрицу в скобки.Например, (A1)ij .

656

Глава23.Векторные авторегрессии

Структурная векторная регрессия фактически являетсяÇгибридомÈмоделей авторегрессии и систем одновременных уравнений.Соответственно,анализ таких моделей должен учитывать и динамические свойства,характерные для моделей авторегрессии,и черты,присущие системам одновременных уравнений.

Уравнение структурной векторной авторегрессии представляет собой систему одновременных регрессионных уравнений,в которой среди факторов имеются лаги изучаемых переменных.Для того чтобы показать это в явном виде,введем следующие обозначения:

 

 

 

 

Φ1

 

t = (xt 1

, . . . , xt p , zt ) и A÷ =

...

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

Φ

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

A

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В таких обозначениях

 

 

 

 

 

 

 

÷

+ εt ,

 

 

 

 

 

xt B = z÷t A

 

 

 

 

или в матричной записи

 

 

 

 

 

 

 

÷ ÷

+ ε.

 

 

 

 

 

X B = Z A

 

 

 

 

Как и в случае систем одновременных уравнений,нельзя оценить параметры структурной формы методом непосредственно наименьших квадратов,поскольку, если матрица B недиагональна,найдутся уравнения,в которых будет более чем одна эндогенная переменная.В i-м уравнении системы будет столько же эндогенных переменных,сколько ненулевых элементов в i-м столбце матрицы B .Таким образом,в общем случае уравнения сист емы будут взаимозависимы,и,следовательно,оценки их по отдельности методом наименьших квадратов будут несостоятельными.

Классический частный случай,в котором все-таки можно применять МНКÑ это случай рекурсивной системы.Рекурсивной является система одновременных уравнений,в которой матрица B является верхней треугольной,а матрица ковариаций ошибок Ω (23.1)является диагональной.Последнее условие в случае SVAR выполнено по определению.При э том первая переменная зависит только от экзогенных переменных,вторая переменная зависит только от первой и от экзогенных переменных и т.д.Поскольку ошибки в разных уравнениях некоррелированы,то каждая эндогенная переменная коррелирована только с ошибкамииз своего

23.1.Векторная авторегрессия:формулировка и идентификация

657

и предыдущих уравнений и не коррелирована с ошибками тех уравнений,в которые она входит в качестве регрессора.Таким образом,ни в одном из уравнений не нарушаются предположения МНК о некоррелированности ошибки и регрессоров, т.е.оценки МНК состоятельны.

В общем случае,когда модельSVARне обязательно рекурсивная,чтобы избавиться от одновременных зависимостей,можно умножить 2 23.2справа на B−1:

xt = !p xt−j Φj B−1 + zt AB−1 + εt B−1.

j =1

Далее,обозначим

D = AB−1, Πj = Φj B−1, vt = εt B−1.

Это дает приведенную форму векторной авторегрессии:

xt = !p xt−j Πj + zt D + vt . j =1

Ковариационная матрица одновременных ошибок приведенной формы равна var(vt ) = Σ. Она связана с ковариационной матрицей одновременных ошибок структурной формы Ω (см. 23.1)соотношением B!ΣB = Ω.

Как и в случае обычных одновременных уравнений,при оценивании структурных векторных авторегрессий возникает проблема идентификации.Существует несколько типов идентифицирующих ограничений,которые можно использовать для решения этой проблемы.

1)Нормирующиеограничения,которыетолькозакрепляютединицыизмерения коэффициентов.В данном случае в качестве нормирующих ограничений используются ограничения Bll = 1 (диагональные элементы матрицы B равны 1).

2)Ограничения на коэффициенты структурных уравнений.Ограничения на коэффициенты бывают двух видов:ограничение на коэффициенты в пределах одного и того же уравнения(важный частный случай такого ограниченияÑисключение переменной из уравнения)и ограничение на коэффициенты нескольких уравнений.

3)Ограничения на ковариационную матрицу ошибок.В структурной векторной авторегрессии используется крайний случай таких ограничений:матрица ковариаций ошибок Ω в этой модели диагональна(см. 23.1),т.е.так называемое ограничение ортогональности ошибок.

4)Долгосрочные ограничения.Это ограничения на долгосрочные взаимодействия переменных,резюмируемыедолгосрочным мультипликатором M ,о котором речь пойдет ниже(см. 23.5).

2Мы исходим из предположения,что B Ñнеособенная матрица.

658

Глава23.Векторные авторегрессии

В отличие от векторной авторегрессии, в классических системах одновременных уравнений редко используют ограничения на ковариационную матрицу,а здесь они входят в определение модели,причем в виде жесткого ограничения ортогональности ошибок.

Стандартные идентифицирующие ограничения,которые неявно подразумевались в ранних статьях по векторной авторегрессии,состоят в том,что матрица B является верхней треугольной.Это дает рекурсивную векторную авторегрессию.

Рекурсивную векторную авторегрессию можно оценить методом наименьших квадратовпопричинам,окоторыхупоминалосьвыше.Другойспособсостоитвтом, чтобы оценить приведенную форму модели и восстановить из нее коэффициенты структурной формы.Для этого надо использовать так называемое разложение Холецкого(триангуляризацию)для ковариационной матрицы приведенной формы: Σ = U !ΩU ,где Ω Ñдиагональная матрица с положительными элементами, U Ñверхняятреугольнаяматрицасединицаминадиагонали.Естественно,вместо истинной матрицы Σ используют ее оценку.Тогда полученная матрица Ω будет оценкой ковариационной матрицы ошибок структурной формы,а U −1 Ñоценкой матрицы B .

Однако использование рекурсивной векторной авторегрессии нежелательно, если только нет каких-либо оснований считать,что одновременные взаимодействия между переменнымидействительно являются рекурсивными.Делов том,что эти идентифицирующие ограничения совершенно произвольны и зависят от того,

вкаком порядке расположены переменные в векторе xt .

Вобщем случае оценивание структурной VAR производят примерно теми же методами,что и оценивание одновременных уравнений.В частности,можно использовать метод максимального правдоподобия.Специфичность методов оценивания состоит в том,что они должны учи тывать ограничение ортогональности ошибок.

23.2.Стационарность векторной авторегрессии

Чтобы анализировать условия и следствия стационарности векторной авторегрессии,удобно отвлечься от структур ной формы этой модели и пользоваться приведенной формой.Для упрощения анализа мы без потери общности будем рассматривать векторную авторегрессию без детерминированных членов:

xt = !p xt−j Πj + vt , j =1

23.2.Стационарность векторной авторегрессии

659

или в операторном виде3:

 

 

 

xt

p

= vt .

 

(I j =1 Πj Lj )

 

 

!

 

 

МногиесвойствапроцессаVAR(p) можнополучитьизсвойствпроцессаVAR(1), если воспользоваться соответствующим представлением:

 

 

 

 

 

 

÷

 

 

 

 

 

 

 

 

 

 

t = x÷t−1Π+ ÷vt,

 

 

 

 

 

где вводятся следующие обозначения:

 

 

 

 

 

 

 

 

 

 

 

 

t = (xt , xt−1, . . . , xt−p+1) ,

 

 

 

и

 

t = 0vt , 0k! , . . . , 0k! 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Π1

Ik

 

0k×k

ááá

0k×k

 

 

 

Π2

0k

 

k

Ik

 

ááá

0k

 

k

 

 

 

 

 

×

 

 

 

 

 

×

 

 

Π÷ =

.

.

 

.

 

.

 

.

 

 

.

.

 

.

 

 

.. .

 

.

 

.

.

 

.

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Π

0

 

 

0

 

 

 

 

I

k

 

 

 

 

p−1

k×k

k×k

ááá

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Πp

0k

 

k

0k

 

k

 

 

0k

 

k

 

 

 

×

×

ááá

×

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Используя рекуррентные подстановки

 

 

 

 

 

 

 

 

 

÷

 

÷

 

 

 

÷ 2

 

 

÷

 

 

 

 

t = (÷xt−2Π+ ÷vt )Π+ ÷vt = x÷t−2Π + v÷t Π+ ÷vt ,

 

÷

 

÷ 2

÷

 

 

 

 

 

÷ 3

 

 

÷ 2 ÷

t = (÷xt−3Π+ ÷vt )Π + v÷t Π+ ÷vt = x÷t−3Π + v÷t Π + v÷t Π+ ÷vt

и т.д.,несложно получить для VAR(1) представление в виде бесконечного скользящего среднего:

÷

÷ 2

÷ 3

÷ i

 

 

t = v÷t + v÷t Π+ ÷vt Π + v÷t Π + . . . =

!i

t−i Π .

 

 

 

 

=0

 

 

 

Для того чтобы этот ряд сходился,необходимо,чтобы его члены затухали,

 

 

 

 

÷ i

стремилась к ну-

т.е.чтобы в пределе при i → ∞ последовательность матриц Π

 

лю.Для этого требуется,чтобы собственные значения матрицы

 

÷

Π лежали внутри

3Здесь оператор стоит после переменной,на которую действует,чтобы не нарушать правила умножения матриц.

660

Глава23.Векторные авторегрессии

единичного круга.Собственные значения матрицы ÷ ,по определению,удовлетво-

Π

ряют уравнению:

2Π÷

− λIT p

2

= 0.

2

 

2

 

2

 

2

 

Определитель в этой формуле можно выразить через матрицы Πj (доказательство этого требует довольно громоздких вычислений):

2Π÷

− λIT p2

= (−1)T p

2IT λp − Π1λp−1

− . . . − Πp−1λ − Πp

2.

2

2

 

2

 

2

2

2

 

2

 

2

Таким образом,уравнение для собственных значений эквивалентно следующему:

2IT λp − Π1λp−1

− . . . − Πp−1λ − Πp

2

= 0.

2

 

2

 

2

 

2

 

Процесс VAR(p) слабо стационарен тогда и только тогда,когда корни этого уравнения меньше единицы по абсолютной величине.

Этиусловиястационарностиможнопереформулироватьвтерминахматричного характеристического многочлена процесса VAR(p),который равен

Π(z) = I − !p Πj zj .

j =1

Если возьмем определитель этого многочлена,то получится скалярный характеристический многочлен

2

2

2

|Π(z)| = 22I −

2

!p

j =1

2

2

2

Πj zj 22.

2

Он будет многочленом,поскольку определительÑэто многочлен от своих элементов.Соответствующее характеристическое уравнение имеет вид:

|Π(z)| = 0.

Условия стационарности состоят в том,что корни этого характеристического уравнения лежат за пределами единичного круга.

23.3.Анализ реакции на импульсы

Для содержательной интерпретации стационарной векторной авторегрессии следуетвыразить изучаемуюпеременную xt через ошибки εt структурнойформы, которые,по определению модели,взаимно некоррелированы.

23.3.Анализ реакции на импульсы

661

Запишем приведенную форму модели(без детерминированных членов)с использованием лагового оператора L:

xt(I − !p Πj Lj ) = vt = εt B−1.

j =1

В предположении стационарности процесса xt можно обратить лаговый полином и получить

p

Πj Lj )−1.

 

!

 

xt = εt B−1(I j =1

(23.3)

Это дает представление в виде бесконечного скользящего среднего(представление Вольда)для VAR:

 

 

xt =

!i

 

εt−i Ψi.

(23.4)

 

=0

 

Матрицы Ψi представляют так называемую функцию реакции на импульсы (IRF Ñ impulse response function)для структурной векторной авторегрессии и могут быть символически записаны в виде

 

 

Ψi =

dxt

.

 

 

 

 

 

 

 

 

 

 

 

 

t−i

 

Более точно,функция реакции на импульсыÑэто последовательность

i)lr ,

i = 0, 1, 2, где l и r Ñиндексы пары изучаемых переменных.Величина

i)lr

показывает,как влияет ошибка

εtl (которая соответствует уравнению для пере-

менной xtl )на переменную xtr

при запаздывании на i периодов.

 

Эти матрицы можно рассчитать рекуррентно:

 

 

p

 

 

 

 

j!

Ψi−j Πj , i = 1, 2, . . . ,

 

Ψi =

 

=1

начиная с

Ψ0 = B−1 и Ψi = 0k×k , i < 0.

Накопленная реакция на импульсы определяется следующим образом:

 

s

(

!i

Ψs = Ψi.

 

=0

Соседние файлы в папке Диплом