Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Ведение в социально - экономическую статистику. Учебник. Новосибирск, 2004. 739 с

.pdf
Скачиваний:
43
Добавлен:
22.08.2013
Размер:
4.02 Mб
Скачать
имеет вид
(см. стр. 367).

14.7 Оценивание, распознавание и диагностика модели ARIMA

473

ряда длиной в 1000 наблюдений, полученного по модели ARIMA(3, 1, 2), заданной уравнением (14.53). Справа на том же рисунке изображена коррелограмма первых разностей того же ряда, которые подчиняются стационарной модели ARMA(3, 2), заданной уравнением (14.54).

Формальные критерии выбора d рассматриваются в пункте 17.4.

Следует понимать, что достаточно сложно отличить процесс, который имеет единичный корень, от стационарного процесса, в котором есть корень близкий к единице.

Если d окажется меньше, чем требуется, то дальнейшее оценивание будет применяться к нестационарному процессу, что должно проявиться в оценках параметров авторегрессии — в сумме они будут близки к единице. Если d окажется больше, чем требуется, то возникнет эффект избыточного взятия разности (overdifferencing), который проявляется в том, что в характеристическом уравнении скользящего среднего появляется единичный корень. Это может создать трудности при оценивании скользящего среднего.

Для выбора порядка авторегрессии можно использовать выборочную частную автокорреляционную функцию. Как известно, теоретическая частная автокорреляционная функция процесса AR(p) обрывается на лаге p. Таким образом, p следует выбрать равным порядку, при котором наблюдается последнее достаточно большое (по модулю) значение выборочной частной автокорреляционной функции. Доверительные интервалы можно основывать на стандартной ошибке выборочного частного коэффициента автокорреляции, которая равна примерно 1 T для по-

рядков выше p (для которых теоретическая автокорреляционная функция равна нулю).

Аналогично, для выбора порядка скользящего среднего можно использовать выборочную автокорреляционную функцию, поскольку теоретическая автокорреляционная функция процесса MA(q) обрывается на лаге q. Таким образом, q следует выбрать равным порядку, при котором наблюдается последнее достаточно большое (по модулю) значение выборочной автокорреляционной функции. Стандартная ошибка выборочного коэффициента автокорреляции тоже примерно равна 1 T .

Более точная формула стандартной ошибки для автокорреляции порядка k ( k > q)

T − k

T (T + 2)

Если же нет уверенности, что процесс является чистой авторегрессией или чистым процессом скользящего среднего, то эти методы не подходят. Но, по крайней мере, по автокорреляционной функции и частной автокорреляционной функции можно проследить, насколько быстро угасает зависимость в ряде.

474

Глава 14. Линейные стохастические модели ARIMA

Порядок модели ARMA(p, q) можно выбирать на основе информационных критериев:

информационный критерий Акаике:

AIC = ln(se2) +

2(p + q + n + 1)

;

T

 

 

байесовский информационный критерий Шварца:

BIC = ln(se2) +

(p + q + n + 1) ln T

.

 

 

T

Здесь s2e — остаточная дисперсия, рассчитанная по модели, n + 1 относится к дополнительным оцениваемым параметрам — константе и коэффициентам при факторах регрессии (14.60). Порядок (p, q) выбирается посредством перебора из некоторого множества моделей так, чтобы информационный критерий достигал минимума. Критерий Акаике нацелен на повышение точности прогнозирования, а байесовский критерий — на максимизацию вероятности выбора истинного порядка модели.

Можно также выбирать порядок по тому принципу, что остатки должны быть похожи на белый шум, для чего использовать проверку остатков на автокорреляцию. Если остатки автокоррелированы, то следует увеличить p или q.

Диагностика

В основе модели ARIMA лежит предположение, что ошибки εt являются белым шумом. Это предполагает отсутствие автокорреляции и гомоскедастичность ошибок. Для проверки ошибок на гомоскедастичность могут использоваться те же критерии, которые были рассмотрены ранее в других главах. Здесь мы рассмотрим диагностику автокорреляции ошибок.

Простейший способ диагностики — графический, состоящий в изучении коррелограммы и спектрограммы остатков. Кореллограмма должна показывать только малые, статистически незначимые значения автокорреляций. Спектрограмма должна быть достаточно «плоской», не иметь наклона и не содержать сильно выделяющихся пиков.

Для формальной проверки отсутствия автокорреляции ошибок можно использовать Q-статистику Бокса—Пирса и ее модификацию — статистику Льюнга— Бокса, которые основаны на квадратах нескольких ( m) первых выборочных коэффициентов автокорреляции9 (см. стр. 368).

9При выборе числа m следует помнить, что при малом m, если имеется автокорреляция высокого порядка, критерий может не показать автокорреляцию. При большом же m присутствие значитель-

14.8. Прогнозирование по модели Бокса—Дженкинса

475

Статистика Бокса—Пирса:

 

 

 

 

˜

m

 

2

 

 

Q = n

rk .

 

k=1

 

Статистика Льюнга—Бокса:

 

 

 

 

Q = n(n + 2)

m r2

 

 

k

 

k=1

 

.

 

n − k

 

Здесь в качестве rk следует использовать выборочные коэффициенты авто-

корреляции, рассчитанные на основе остатков et

модели ARIMA:

 

n

 

rk =

t=k+1 etet−k

.

n

 

e2

 

 

t

 

t=1

Поскольку для вычисления rk используется не белый шум, а остатки, то асимптотическое распределение этих Q-статистик отличается от того, которое имеет место для истинного белого шума, на количество параметров авторегрессии и скользящего среднего, оцененных по модели, т.е. на величину (p + q). Обе статистики

асимптотически распределены как χ2 − − . Как показали Льюнг и Бокс, предло-

m p q

женная ими модифицированная Q-статистика, которая придает меньший вес дальним автокорреляциям, имеет распределение, которое ближе аппроксимирует свой асимптотический аналог, поэтому более предпочтительно использовать именно ее.

Нулевая гипотеза состоит в том, что ошибка представляет собой белый шум (автокорреляция отсутствует). Если Q-статистика превышает заданный квантиль распределения хи-квадрат, то нулевая гипотеза отвергается и делается вывод о том, что модель некорректна. Возможная причина некорректности — неудачный выбор порядка модели (слишком малые значения p и q).

14.8.Прогнозирование по модели Бокса—Дженкинса

Прогнозирование стационарного процесса ARMA

Пусть для стационарного обратимого процесса ARMA в момент t делается прогноз процесса x на τ шагов вперед, т.е. прогноз величины xt+τ . Для упрощения

ных автокорреляций может быть не замечено при наличии большого числа незначительных. То есть мощность критерия зависит от правильного выбора m.

476

Глава 14. Линейные стохастические модели ARIMA

рассуждений предположим, что при прогнозировании доступна вся информация о процессе x до момента t включительно, т.е. информация, на основе которой строится прогноз, совпадает с полной предысторией процесса

t = (xt, xt−1, . . . ) .

Заметим, что на основе (xt, xt−1, . . . ) можно однозначно определить ошибки (εt, εt−1, . . . ) и наоборот, поэтому при сделанных предположениях ошибки (εt, εt−1, . . . ) фактически входят в информационное множество. Кроме того, имея полную предысторию, можно точно вычислить параметры процесса, поэтому будем далее исходить из того, что параметры процесса нам известны.

Из теории прогнозирования известно, что прогнозом, минимизирующим средний квадрат ошибки, будет математическое ожидание xt+τ , условное относительно Ωt, т.е. E (xt+τ |t). Убедимся в этом, воспользовавшись представлением модели ARMA в виде модели линейного фильтра (разложением Вольда) (14.52)

xt+τ = εt+τ + ψ1εt+τ −1 + . . . + ψτ −1εt+1 + ψτ εt + ψτ +1εt−1 + . . . ,

где во вторую строчку вынесены слагаемые, относящиеся к предыстории; получим таким образом следующее представление условного математического ожидания:

E(xt+τ |t) = E (εt+τ |t) + ψ1E (εt+τ −1|t) + . . . +

+ψτ −1E (εt+1 |t) + ψτ εt + ψτ +1εt−1 + . . . .

Вторую строчку формулы пишем без оператора условного математического ожидания, поскольку соответствующие слагаемые входят в предысторию Ωt.

Будем предполагать, что условное относительно предыстории математическое ожидание будущих ошибок равно нулю, т.е. E (εt+k |t) = 0 при k > 0. Это будет выполнено, например, если все ошибки εt независимы между собой. (Отсутствия автокорреляции тут недостаточно. В приложении приводится пример белого шума, для которого это неверно.) Тогда рассматриваемое выражение упрощается:

E (xt+τ |t) = ψτ εt + ψτ +1εt−1 + . . . ,

что дает нам линейную по ошибкам формулу для оптимального прогноза:

 

xt (τ ) = ψτ εt + ψτ +1εt−1 + . . . = ψτ +iεt−i,

(14.64)

i=0

 

где мы обозначили через xt (τ ) прогноз на τ периодов, сделанный в момент t.

14.8. Прогнозирование по модели Бокса—Дженкинса

477

Проверим, что эта прогнозная функция будет оптимальной (в смысле минимума среднего квадрата ошибки) среди линейных прогнозных функций, т.е. среди прогнозных функций, представимых в виде линейной комбинации случайных ошибок, входящих в предысторию:

xt(τ ) = ψτ εt + ψτ +1εt−1 + ψτ +2εt−2 + . . . = ψτ +iεt−i.

i=0

Для этого найдем веса ψτ , ψτ +1, ψτ +2, . . ., которые обеспечивают минимум сред-

него квадрата ошибки. С учетом того, что xt+τ = ψiεt+τ −i , ошибка такого

i=0

прогноза ηt(τ ) равна

ηt(τ ) = xt+τ − xt(τ ) =

ψiεt+τ −i ψτ +iεt−i =

i=0

i=0

τ −1

=ψiεt+τ −i + (ψτ +i ψτ +i)εt−i,

i=0 i=0

а средний квадрат ошибки прогноза (с учетом некоррелированности ошибок) равен

τ −1

2

 

E[ηt(τ )2] = E

ψiεt+τ −i + (ψτ +i ψτ +i)εt−i

=

i=0

i=0

 

τ −1

 

= E ψi2εt2+τ −i + (ψτ +i − ψτ +i)2εt2−i

=

i=0

i=0

 

= σε2(1 + ψ12 + ψ22 + . . . + ψτ21) + σε2 (ψτ +i − ψτ +i)2.

i=0

Очевидно, что средний квадрат ошибки достигает минимума при ψτ +i = ψτ +i и равен

 

τ −1

E[ηt(τ )2 ] = σ2

1 + ψ2 .

ε

i

 

i=1

Ошибка такого прогноза рассчитывается по формуле

τ −1

 

ηt(τ ) =

ψiεt+τ −i.

i=0

 

Из формулы видно, что эта ошибка проистекает из будущих ошибок εt+k , которые в момент t еще неизвестны. Беря математическое ожидание от обеих частей,

478

Глава 14. Линейные стохастические модели ARIMA

видим, что математическое ожидание ошибки прогноза равно нулю. Таким образом, прогноз, полученный по формуле (14.64), будет несмещенным.

Из несмещенности прогноза следует, что дисперсия ошибки прогноза равна среднему квадрату ошибки прогноза, т.е.

 

= E[η (τ )2

] = σ2

1 +

τ −1

σ2

ψ2 .

p

t

ε

 

i

i=1

или

 

= σ2

τ −1

 

σ2

ψ2

,

p

ε

i

 

 

 

i=0

 

где ψ0 = 1.

Хотя представление в виде бесконечного скользящего среднего удобно для анализа прогнозирования, однако для вычисления прогноза предпочтительнее вернуться к исходному представлению модели ARMA в виде разностного уравнения (со сдвигом на τ периодов вперед):

xt+τ = ϕ1xt+τ −1 + . . . + ϕpxt+τ −p + +εt+τ θ1εt+τ −1 . . . θq εt+τ −q .

Возьмем от обеих частей уравнения условное относительно предыстории математическое ожидание:

xt(τ ) = E[xt+τ |t] = ϕ1E[xt+τ −1|t] + . . . + ϕpE[xt+τ −p|t] +

+ E[εt+τ |t] − θ1E[εt+τ −1|t] − . . . − θq E[εt+τ −q |t].

Введем более компактные обозначения:

E[xt+i|t] = x¯t+i, E[xt+τ |i] = ε¯t+i.

Вэтих обозначениях

xt(τ ) = x¯t+τ = ϕ1x¯t+τ −1 + . . . + ϕpx¯t+τ −p +

+ε¯t+τ − θ1ε¯t+τ −1 − . . . − θq ε¯t+τ −q . (14.65)

14.8. Прогнозирование по модели Бокса—Дженкинса

479

При вычислении входящих в эту формулу условных математических ожиданий используют следующие правила:

xt+i,

i 0,

x¯t+i = E[xt+i|t] =

 

xt(i),

i > 0,

εt+i,

i 0,

ε¯t+i = E[εt+i|t] =

 

0,

i > 0,

дающие удобную рекуррентную формулу для вычисления прогнозов.

Для вычисления показателя точности прогноза (дисперсии ошибки прогноза или, что в данном случае то же самое, поскольку прогноз несмещенный, среднего квадрата ошибки прогноза), удобно опять вернутся к представлению модели в виде бесконечного скользящего среднего. Как мы видели, дисперсия ошибки прогно-

за равна σ2

= σ2

(1 +

τ −1

ψ2). Формулы для вычисления коэффициентов ψi

p

ε

 

i=1

i

скользящего среднего приведены на стр. 462.

Мы вывели формулы для расчета точечного прогноза по модели ARMA и дисперсии этого прогноза. Если дополнительно предположить, что ошибки εt подчиняются нормальному закону (т.е. представляют собой гауссовский процесс), то можно получить также интервальный прогноз. При этом предположении при известных значениях процесса до момента t распределение будущего значения процесса xt+τ (т.е. условное распределение xt+τ |t) также будет нормальным со средним значением xt(τ ) и дисперсией σp2 :

xt+τ |t N xt(τ ), σp2 .

Учитывая это, получаем доверительный интервал для xt+τ , т.е. интервальный прогноз:

[xt(τ ) − ξ1−ασp, xt(τ ) + ξ1−ασp] ,

или

xt(τ ) − ξ1−ασε

τ −1 2

, xt(τ ) + ξ1−ασε

τ −1 2

 

(14.66)

i=0 ψi

i=0 ψi

,

где ξ1−α — двусторонний (1 α)-квантиль стандартного нормального распределения. Это (1 − α) · 100-процентный доверительный интервал.

480 Глава 14. Линейные стохастические модели ARIMA

Прогнозирование процесса ARIMA

Для прогнозирования процесса ARIMA(p, d, q) при d > 0 можно воспользоваться представлением его в виде ARMA(p + d, q):

f (L)xt = θ(L)εt,

где

f (L) = 1 − f1L − f2L2 − . . . − fp+dLp+d = ϕ(L)(1 L)d,

а коэффициенты f1, f2, . . . , fp+d выражаются через ϕ1, ϕ2, . . . , ϕp . В развернутой записи

p+d

q

 

xt =

fj xt−j + εt θj εt−j .

(14.67)

j=1

j=1

 

Например, модель ARIMA(1, 1, 1),

(1 − ϕ1L)(1 L)xt = (1 − θ1L)εt,

можно записать в виде:

xt = (1 + ϕ1)xt−1 − ϕ1xt−2 + εt − θ1εt−1 = f1xt−1 + f2xt−2 + εt − θ1εt−1,

где f1 = 1 + ϕ1 , f2 = −ϕ1 .

При расчетах можно использовать те же приемы, что и выше для ARMA. Некоторую сложность представляет интерпретация ARIMA(p, d, q) в виде модели линейного фильтра, поскольку ряд модулей коэффициентов такого разложения является расходящимся. Однако это только технические сложности обоснования формул (в которые мы не будем вдаваться), а сами формулы фактически не меняются.

Таким образом, отвлекаясь от технических тонкостей, можем записать

ARIMA(p, d, q) в виде MA():

x

 

=

θ(L)

ε

 

= ε

+ ψ ε

+ ψ ε

+ . . . = ψ(L)ε .

(14.68)

 

 

 

 

t

 

f (L)

t

t

1 t−1

2 t−2

t

 

Функцию реакции на импульсы можно рассчитать по рекуррентной формуле

p+d

 

ψi = fj ψi−j − θi,

(14.69)

j=1

 

14.8. Прогнозирование по модели Бокса—Дженкинса

481

где ψ0 = 1, ψi = 0 при i < 0 и θi = 0 при i > q.

Кроме того, прогнозы xt(τ ) можно вычислять по рекуррентной формуле, которая получается из (14.67) по аналогии с (14.65):

p+d

q

 

xt(τ ) = x¯t+τ =

fj x¯t+τ −j + ε¯t+τ θj ε¯t+τ −j ,

(14.70)

j=1

j=1

 

где условные математические ожидания x¯t+i = E[xt+i|t] и ε¯t+i = E[εt+i|t] рассчитываются по тому же принципу, что и в (14.65).

Таким образом, для прогнозирования в модели ARIMA можно использовать формулы (14.70), (14.8) и (14.66), где коэффициенты ψi рассчитываются в соответствии с (14.69).

Альтернативный подход к прогнозированию в модели ARIMA(p, d, q) состоит в том, чтобы сначала провести необходимые вычисления для wt = (1 L)dxt, т.е. процесса ARMA(p, q), который лежит в основе прогнозируемого процесса ARIMA(p, d, q), а потом на их основе получить соответствующие показатели для xt.

Так, (14.70) можно записать в виде

E[f (L)xt+τ |t] = E[ϕ(L)(1 L)dxt+τ |t] = E[θ(L)εt+τ |t],

т.е.

E[ϕ(L)wt+τ |t] = E[θ(L)εt+τ |t]

или

ϕ(L)w¯t+τ = θ(L)¯εt+τ .

Здесь по аналогии w¯t+i = E[wt+i|t], причем w¯t+i = wt(i) (равно прогнозу) при i > 0 и w¯t+i = wt+i (равно значению самого ряда) при i 0.

Отсюда видно, что можно получить сначала прогнозы для процесса wt по формулам (14.65), заменив xt на wt, а затем применить к полученным прогнозам оператор Sd = (1 L)−d, т.е. попросту говоря, просуммировать такой ряд d раз, добавляя каждый раз нужную константу суммирования. В частности, при d = 1 получаем

i

 

 

xt(i) = xt +

wt(j).

 

 

 

 

j=0

 

Далее, ψ(L) можно записать в виде

 

 

ψ(L) =

θ(L)

= (1 L)−d

θ(L)

= (1

L)−dψw (L) = Sdψw (L).

 

 

f (L)

ϕ(L)

482

Глава 14. Линейные стохастические модели ARIMA

Здесь ψw (L) = θ(L)(L) — оператор представления MA( ) для wt. Таким образом, коэффициенты ψi можно рассчитать из коэффициентов ψiw . Например, при d = 1 получаем

 

 

i

ψ

=

ψw .

 

i

j

 

 

j=0

Получение общих формул для прогнозирования в модели ARIMA с помощью решения разностных уравнений

Формула (14.70) представляет собой разностное уравнение для x¯t+τ , решив которое получаем в явном виде общую формулу прогноза. Проиллюстрируем этот прием на примере процесса ARIMA(1, 1, 1), для которого f1 = 1 + ϕ1 , f2 = −ϕ1 :

xt+τ = (1 + ϕ1)xt+τ −1 ϕ1xt+τ −2 + εt+τ θ1εt+τ −1 .

(14.71)

Берем условное математическое ожидание от обеих частей равенства (14.71), получаем точечные прогнозы на 1, 2, . . . , τ шагов вперед.

xt(1) = (1 + ϕ1)xt − ϕ1xt−1 − θ1εt, xt(2) = (1 + ϕ1)xt(1) − ϕ1xt,

xt(3) = (1 + ϕ1)xt(2) − ϕ1xt(1),

.

.

.

xt(τ ) = (1 + ϕ1)xt(τ − 1) − ϕ1xt(τ − 2), τ > 2.

Мы видим, что начиная с τ > q = 1 природу прогнозирующей функции определяет только оператор авторегрессии:

x¯t+τ = (1 + ϕ1xt+τ −1 − ϕ1x¯t+τ −2, τ > 1.

Общее решение этого разностного уравнения имеет следующий вид:

x¯t+τ = A0 + A1ϕτ1 .

Чтобы вычислить неизвестные коэффициенты, необходимо учесть, что x¯t = xt и x¯t+1 = xt(1) = (1 + ϕ1)xt − ϕ1xt−1 − θ1εt. Получается система уравнений:

A0 + A1 = xt,

A0 + A1ϕ1 = (1 + ϕ1)xt − ϕ1xt−1 − θ1εt,

из которой находятся A0 и A1 .

Соседние файлы в предмете Политология