Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ЭКОНОМЕТРИКА и математическая экономика / Эконометрика. Учебник продвинутый (2005)

.pdf
Скачиваний:
512
Добавлен:
20.04.2015
Размер:
4.02 Mб
Скачать
sin β

14.3. Процессы авторегрессии

 

443

Несложно увидеть, что A1

и A2

являются комплексно-сопряженными.

Подставим найденные A1

и A2

в (14.26):

 

 

 

e

e−iβ

ρk = A1Gk1 + A2Gk2 = e− e−iβ · dk eikα e− e−iβ · dk e−ikα =

= dk ei(+β) − e−i(+β) . e− e−iβ

Таким образом, подтверждается, что автокорреляционную функцию можно записать в форме

ρk = dk sin(+ β) .

Нахождение автокорреляционной функции AR(p)

с помощью решения конечно-разностного уравнения

Аналогичным образом можно изучать автокорреляционную функцию процесса AR(p) при произвольном p. Запишем уравнение (14.18) с помощью лагового оператора, действующего на k:

ϕ(L)ρk = 0, k > 0,

(14.28)

где ϕ(L) = 1 − ϕ1L − ϕ2L2 − . . . − ϕpLp. Рассмотрим характеристическое уравнение:

ϕ(z) = 1 − ϕ1z − ϕ2z2 − . . . − ϕpzp = 0.

Пусть λi (i = 1, . . . , p) — корни этого уравнения. Мы будем предполагать, что все они различны. Характеристический многочлен ϕ(z) можно разложить следующим образом:

p

ϕ(z) = −ϕp (λi − z).

i=1

Обозначим через Gi значения, обратные корням характеристического уравнения: Gi = 1 λi . Тогда, учитывая, что λ1· λ2· . . . · λp = 1 ϕp и соответственно

G1· G2· . . . · Gp = −ϕp, имеем:

 

 

 

p

 

p

1

 

i=1(1 Giz)

p

ϕ(z) = −ϕp

 

− z = −ϕp

 

= (1 − Giz).

Gi

p

i=1

 

 

Gi

i=1

 

 

 

i=1

 

444

Глава 14. Линейные стохастические модели ARIMA

Исходя из этого, перепишем уравнение (14.28) в виде:

 

 

(1 − G1L)(1 − G2L)· . . . · (1 − GpL)ρk = 0.

(14.29)

Из теории конечно-разностных уравнений известно, что если все корни λi

различны, то общее решение уравнения (14.18) имеет вид:

 

ρk = A1G1k + A2G2k + . . . + ApGpk , k > −p,

(14.30)

где Ai — некоторые константы, в общем случае комплексные. (Обсуждение решений линейных конечно-разностных уравнений см. в Приложении A.4.)

Проверим, что это действительно решение. Подставим ρk в (14.29):

p

p

 

 

 

 

(1 − GiL)ρk = (1 − GiL)(A1G1k + A2G2k + . . . + ApGpk ) =

i=1

i=1

 

 

 

 

p

 

p

 

 

p

= (1 − GiL)A1G1k + (1 − GiL)A2G2k + . . . + (1 − GiL)ApGpk = 0.

i=1

 

i=1

 

 

i=1

Для доказательства использовался тот факт, что LGjk = Gjk−1 и поэтому

 

p

 

(1 − GiL)(1 − Gj L)Gjk = 0.

 

(1 − GiL)Gjk =

 

i=1

 

i=j

 

 

 

 

 

 

 

Формулы для коэффициентов A1, . . . , Ap можно получить из условий:

 

 

ρ0 = 1, ρk = ρ−k , откуда

p

 

p

p

Ai

 

 

 

 

 

Ai = 1 и

AiGik =

 

, k = 1, . . . , p − 1.

i=1

Gk

 

i=1

i=1

i

Другой способ состоит в том, чтобы вычислить ρ1, . . . , ρp−1 из уравнений Юла— Уокера (14.19), а затем составить на основе (14.30) при k = 0, . . . , p − 1 систему линейных уравнений, откуда и найти A1, . . . , Ap.

Если все корни характеристического уравнения удовлетворяют

условию

i| > 1, то |Gi| < 1 i и все слагаемые в (14.30) затухают с ростом

k. Если

же для какого-то корня выполнено i| < 1, то (при условии, что Ai = 0) соответствующее слагаемое «уходит на бесконечность». Если i| = 1, то соответствующее слагаемое не затухает. Из этих рассуждений следует условие стационарности AR(p) — все корни соответствующего характеристического уравнения по модулю должны быть больше единицы.

14.3. Процессы авторегрессии

445

Если корень λi = Gi1 действителен, элемент AiGik

в (14.30) убывает с ро-

стом k экспоненциально, коль скоро i| > 1. Если же есть пара комплексносопряженных корней λi = Gi 1, λj = Gj 1 , то соответствующие коэффициенты Ai, Aj также будут сопряженными и в составе автокорреляционной функции появится экспоненциально затухающая синусоида (см. вывод автокорреляционной функции процесса Юла).

Таким образом, из соотношения (14.30) следует, что в общем случае автокорреляционная функция стационарного процесса авторегрессии является комбинацией затухающих экспонент и затухающих синусоид.

Итак, мы вывели общий вид автокорреляционной функции стационарного процесса авторегрессии. Теоретически выборочная автокорреляционная функция может служить инструментом для распознавания авторегрессионого процесса. На практике же для коротких рядов различительная сила автокорреляционной функции не очень высока. Однако часто изучение автокорреляционной функции является хорошим заделом исследования системы.

Кроме автокорреляционной функции важным инструментом для распознавания типа процесса является его спектр.

Спектр стационарного процесса авторегрессии

В главе 13 мы определили спектральную плотность стационарного процесса как косинус-преобразование Фурье автоковариационной функции (13.29):

 

p(f ) = 2 γ0 + 2 γk cos 2πf k .

(14.31)

k=1

 

Из этой общей формулы найдем спектральную плотность для стационарного процесса Маркова ( 1| < 1). Автоковариационная функция этого процесса имеет вид:

 

σ2

ϕk

γk =

 

ε

1

.

 

 

 

1

− ϕ12

Подставляя эти автоковариации в формулу (14.31), получим

2σ2

p(f ) =

ε

1 + 2 ϕk cos 2πf k .

 

1 − ϕ12

1

k=1

Воспользовавшись представлением косинуса через комплексную экспоненту (формулами Эйлера) — 2 cos 2πf k = ei2πf k + e−i2πf k , после несложных преобра-

446

 

 

 

 

 

Глава 14. Линейные стохастические модели ARIMA

зований получим:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2σ2

 

 

 

 

 

k

 

 

ϕ e−i2πf

k

 

p(f ) =

 

ε

 

 

 

 

ϕ ei2πf

 

 

+

 

 

1 ,

 

− ϕ12

 

 

 

 

 

 

1

k=0

1

 

 

 

 

 

k=0

1

 

 

 

 

т.е.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2σ2

 

 

 

 

 

 

 

 

 

 

 

p(f ) =

 

 

 

ε

 

 

 

(ϕ z)k

+

 

(ϕ z1)k

1 ,

 

 

− ϕ12

 

 

 

 

 

1

k=0

1

 

 

 

k=0

1

 

 

 

 

где мы ввели обозначение z = ei2πf .

 

 

 

 

 

 

 

 

 

 

 

 

По формуле бесконечной геометрической прогрессии

 

 

 

 

p(f ) =

 

 

2σε2

 

 

1

 

 

+

 

 

1

 

1 .

 

 

1 − ϕ12

 

1 − ϕ1z

 

 

1 − ϕ1z1

 

 

Произведение знаменателей двух дробей можно записать в разных формах:

(1

ϕ z)(1

ϕ z1) = 1

ϕ (z + z1) + ϕ2

=

 

 

 

 

 

 

 

 

 

 

 

1

 

 

1

 

 

1

 

 

 

 

1

 

 

 

 

 

 

 

 

ϕ e−i2πf

2.

 

 

 

 

 

 

 

 

 

 

 

 

= 1

2ϕ

cos 2πf + ϕ2

= 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

1

 

 

1

 

 

Приведя к общему знаменателю, получим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2σ2

1

ϕ1z1

+ 1

ϕ1z

1 + ϕ1(z + z1)

ϕ2

 

 

 

 

p(f ) =

 

 

ε

 

 

 

 

 

 

 

 

 

 

 

 

1

=

 

 

 

 

 

− ϕ12

 

 

(1 − ϕ1z)(1 − ϕ1z1)

 

 

 

 

 

 

 

 

 

 

1

 

 

2σε2

 

 

 

1 − ϕ12

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

− ϕ12 (1 − ϕ1z)(1 − ϕ1z1)

Таким образом, спектральная плотность марковского процесса равна

2σ2

p(f ) = 1 2ϕ1 cosε2πf + ϕ21 ,

или, в другой форме,

2σ2

p(f ) = ε 2 .

1 − ϕ1e−i2πf

Ошибку εt авторегрессии произвольного порядка AR(p) можно выразить в виде линейного фильтра от yt:

p

εt = xt − ϕj xt−j ,

j=1

14.3. Процессы авторегрессии

447

поэтому для вычисления спектра авторегрессионного процесса можно воспользоваться общей формулой (14.4), характеризующей изменение спектра при применении линейного фильтра.

Спектральная плотность белого шума εt равна 2σε2 . Применение формулы (14.4) дает

 

 

 

p

2,

2σ2

= p(f ) 1

ϕ e−i2πf j

ε

 

j

 

j=1

откуда

 

2σ2

p(f ) =

ε

 

.

1 − ϕ1e−i2πf − ϕ2e−i4πf − · · · − ϕpe−i2pπf 2

В частном случае процесса Юла формула спектральной плотности имеет вид:

 

2σ2

 

 

p(f ) =

ε

=

 

1 − ϕ1e−i2πf − ϕ2e−i4πf 2

 

 

2σ2

 

 

=

ε

 

.

 

 

 

1 + ϕ12 + ϕ22 2ϕ1(1 − ϕ2) cos 2πf − 2ϕ2 cos 4πf

Разложение Вольда и условия стационарности процессов авторегрессии

Как уже говорилось, модель AR(p) можно записать в виде модели линейного фильтра:

xt = ψiεt−i = ψ(L)εt,

i=0

где ψ(L) = ϕ1(L). Если процесс авторегрессии стационарен, то это разложение Вольда такого процесса.

Найдем коэффициенты модели линейного фильтра ψi процесса авторегрессии. Для этого в уравнении

p

ψ(L)ϕ(L) =

ψiLi 1 − ϕj Lj = 1

i=0

j=1

448

Глава 14. Линейные стохастические модели ARIMA

приравняем коэффициенты при одинаковых степенях L. Получим следующие уравнения:

ψ0

=

1,

ψ1 − ψ0ϕ1

=

0,

ψ2 − ψ1ϕ1 − ψ0ϕ2

= 0,

 

. . .

 

ψp − ψp−1ϕ1 − . . . − ψ1ϕp−1 − ψ0ϕp

= 0,

ψp+1 − ψpϕ1 − . . . − ψ2ϕp−1 − ψ1ϕp

= 0,

 

. . .

 

Общая рекуррентная формула имеет следующий вид:

 

p

 

 

ψi = ϕj ψi−j , i > 0,

 

(14.32)

j=1

 

 

где ψ0 = 1 и ψi = 0 при i < 0.

Это разностное уравнение, которое фактически совпадает с уравнением для автокорреляций (14.18). Соответственно, если все корни характеристического уравнения различны, то общее решение такого уравнения такое же, как указано в (14.30), т.е.

ψi = B1Gi1 + B2Gi2 + . . . + BpGip, i > −p,

где Bi — некоторые константы. Коэффициенты Bi можно вычислить, исходя из известных значений ψi при i 0.

Очевидно, что если |Gj | < 1 j, то все слагаемые здесь экспоненциально затухают, и поэтому ряд, составленный из коэффициентов ψi сходится абсолютно:

i| < ∞.

i=0

Таким образом, указанное условие гарантирует, что процесс авторегрессии является стационарным. Это дополняет вывод, полученный при анализе автокорреляционной функции.

Итак, условием стационарности процесса AR(p) является то, что корни λi характеристического уравнения лежат вне единичного круга на комплексной плоскости.

Для процесса AR(2) имеем два уравнения для коэффициентов B1, B2 :

B1 + B2 = ψ1 = 0, G1 G2

B1 + B2 = ψ0 = 1,

14.3. Процессы авторегрессии

 

 

 

 

 

449

откуда B1 =

G1

 

 

 

=

G2

 

 

 

и B2

 

 

 

 

. Таким образом, в случае процесса Юла

G1−G2

 

 

G1−G2

имеем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ψ

i

=

G1i+1 − G2i+1

, i >

1,

 

 

 

 

 

G1 − G2

 

и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

xt =

 

 

i=0(G1i+1 G2i+1)εt−i.

 

 

 

G1 − G2

Оценивание авторегрессий

Термин авторегрессия для обозначения модели (14.7) используется потому, что она фактически представляет собой модель регрессии, в которой регрессорами служат лаги изучаемого ряда xt. По определению авторегрессии ошибки εt являются белым шумом и некоррелированы с лагами xt. Таким образом, выполнены все основные предположения регрессионного анализа: ошибки имеют нулевое математическое ожидание, некоррелированы с регрессорами, не автокоррелированы и гомоскедастичны. Следовательно, модель (14.7) можно оценивать с помощью обычного метода наименьших квадратов.

Отметим, что при таком оценивании p начальных наблюдений теряются. Пусть имеется ряд x1, . . . , xT . Тогда регрессия в матричной записи будет иметь следующий вид:

xp+1

 

xp

· · ·

x1

ϕ1

 

εp+1

xp+2

 

xp+1 · · ·

x2

 

εp+2 .

=

..

+

.

 

.

 

.

.

 

.

.

 

.

 

.

 

 

.

.

 

.

 

.

 

 

.

xT

 

xT −1 · · ·

xT −p

ϕp

 

εT

 

 

 

Как видим, здесь используется T − p наблюдений.

 

ϕ = M 1m, где ϕ =

Оценки МНК

параметров

авторегрессии

равны

= (ϕ1, ϕ2, . . . , ϕp) , а матрицы M и m, как нетрудно увидеть, фактически состоят из выборочных автоковариаций ряда xt. Отличие от стандартных выборочных автоковариаций состоит в том, что используются не все наблюдения.

Можно рассматривать данную регрессию как решение уравнений Юла— Уокера для автоковариаций (14.21) (или, что эквивалентно, уравнений для автокорреляций (14.19)), где теоретические автоковариации заменяются выборочными.

450

Глава 14. Линейные стохастические модели ARIMA

Действительно, уравнения Юла—Уокера (14.21) без первой строки записываются в виде

γ = Γϕ,

где

 

γ1

 

1

γ1

γ2

· · ·

γp−1

 

γ =

γ2

, Γ =

γ1

1

γ1

· · ·

γp−2

,

 

.

 

.

.

.

.

.

 

.

 

 

.

 

.

.

.

 

.

.

 

 

.

 

.

.

.

 

 

.

 

 

γp

 

γp−1

γp−2

γp−3 · · ·

1

 

откуда

ϕ = Γ1γ.

Замена теоретических значений автоковариаций γk выборочными автоковариациями ck позволяет найти параметры процесса авторегрессии. Ясно, что при этом можно использовать и стандартные формулы выборочных автоковариаций. Тем самым, мы получаем еще один из возможных методов оценивания авторегрессий — метод моментов.

Частная автокорреляционная функция

Как мы видели, автокорреляционная функция процесса авторегрессии состоит из экспоненциально затухающих компонент. Такая характеристика не очень наглядна, поскольку соседние автокорреляции сильно связаны друг с другом, и, кроме того, для полного описания свойств ряда используется бесконечная последовательность автокорреляций.

Более наглядными характеристиками авторегрессии являются частные автокорреляции. Частная автокорреляция измеряет «чистую» корреляцию между уровнями временного ряда xt и xt−k при исключении опосредованного влияния промежуточных уровней ряда. Такой показатель корреляции между элементами ряда более информативен.

Пусть {xt} — произвольный стационарный ряд (не обязательно авторегрессия) и ρj — его автокорреляции. Применим к нему уравнения Юла—Уокера (14.19), как если бы процесс представлял собой авторегрессию k-го порядка, и найдем по автокорреляциям коэффициенты. Если обозначить j-й коэффициент уравнения авторегрессии порядка k через ϕkj , то уравнения Юла—Уокера

14.3. Процессы авторегрессии

451

принимают вид:

1

ρ1

ρ2

. . . ρk−1

ϕk1

 

ρ1

 

ρ1

1

ρ1

. . . ρk−2

ϕk2

=

ρ2

 

ρ2

ρ1

1

. . . ρk−3

ϕk3

ρ3

.

 

 

.

.

.

. .

 

.

.

 

.

 

.

.

.

.

.

.

 

.

 

.

.

.

 

.

.

 

.

 

ρk−1

ρk−2

ρk−3

. . .

1

ϕkk

 

ρk

 

Частная автокорреляция k-го порядка определяется как величина ϕkk , полученная из этих уравнений.

Решение этих уравнений соответственно для k = 1, 2, 3 дает следующие результаты (здесь используется правило Крамера):

 

 

 

 

 

 

 

 

1

 

ρ1

ρ1

 

 

1

ρ1

 

 

 

 

ρ1

1

ρ2

ϕ11 = ρ1,

ϕ22 =

ρ1

ρ2

=

ρ2 − ρ12

,

ϕ33 =

ρ2

ρ1

ρ3

.

1

 

1 − ρ12

1

 

 

 

 

 

ρ1

 

 

 

ρ1

ρ2

 

 

ρ1

1

 

 

 

 

ρ1

1

ρ1

 

 

 

 

 

 

 

 

ρ2

ρ1

1

 

Частная автокорреляционная функция рассматривается как функция частной автокорреляции от задержки k, где k = 1, 2, . . ..

Для процесса авторегрессии порядка p частная автокорреляционная функция kk } будет ненулевой для k p и равна нулю для k > p, то есть обрывается на задержке p.

Значение выборочного частного коэффициента автокорреляции ϕkk вычисляется как МНК-оценка последнего коэффициента в уравнении авторегрессии AR(k).

Частная автокорреляционная функция может оказаться полезной в решении задачи идентификации модели временного ряда: если она быстро затухает, то это авторегрессия, причем ее порядок следует выбрать по последнему большому значению частной автокорреляционной функции.

452

Глава 14. Линейные стохастические модели ARIMA

14.4. Процессы скользящего среднего

Другой частный случай модели линейного фильтра, широко распространенный в анализе временных рядов, — модель скользящего среднего, когда xt линейно зависит от конечного числа q предыдущих значений ε:

xt = εt − θ1εt−1 − θ2εt−2 − . . . − θq εt−q .

(14.33)

Модель скользящего среднего q-го порядка обозначают MA(q) (от английского moving average).

Данную модель можно записать и более сжато:

xt = θ(L)εt,

 

через оператор скользящего среднего:

 

θ(L) = 1 − θ1L − θ2L2 − . . . − θq Lq .

(14.34)

Легко видеть, что процесс MA(q) является стационарным без каких-либо ограничений на параметры θj .

Действительно, математическое ожидание процесса

E(xt) = 0,

а дисперсия

γ0 = (1 + θ12 + θ22 + . . . + θq2)σε2,

т.е. равна дисперсии белого шума, умноженной на конечную величину (1 + θ12 + + θ22 + . . . + θq2).

Остальные моменты второго порядка (γk , ρk ) также от времени не зависят.

Автоковариационная функция и спектр процесса MA(q)

Автоковариационная функция MA(q)

γk =

(−θk + θ1θk+1 + . . . + θq−kθq )σε2,

k = 1, 2, . . . , q,

(14.35)

 

0,

k > q.

 

В частном случае для MA(1) имеем:

γ0 = (1 + θ12)σε2,

γ1

= −θ1σε2,

γk

= 0, k > 1,