![](/user_photo/_userpic.png)
Ведение в социально - экономическую статистику. Учебник. Новосибирск, 2004. 739 с
.pdf![](/html/611/244/html_qKdwZuTrJr.UoU7/htmlconvd-RhTpcp471x1.jpg)
14.7 Оценивание, распознавание и диагностика модели ARIMA |
473 |
ряда длиной в 1000 наблюдений, полученного по модели ARIMA(3, 1, 2), заданной уравнением (14.53). Справа на том же рисунке изображена коррелограмма первых разностей того же ряда, которые подчиняются стационарной модели ARMA(3, 2), заданной уравнением (14.54).
Формальные критерии выбора d рассматриваются в пункте 17.4.
Следует понимать, что достаточно сложно отличить процесс, который имеет единичный корень, от стационарного процесса, в котором есть корень близкий к единице.
Если d окажется меньше, чем требуется, то дальнейшее оценивание будет применяться к нестационарному процессу, что должно проявиться в оценках параметров авторегрессии — в сумме они будут близки к единице. Если d окажется больше, чем требуется, то возникнет эффект избыточного взятия разности (overdifferencing), который проявляется в том, что в характеристическом уравнении скользящего среднего появляется единичный корень. Это может создать трудности при оценивании скользящего среднего.
Для выбора порядка авторегрессии можно использовать выборочную частную автокорреляционную функцию. Как известно, теоретическая частная автокорреляционная функция процесса AR(p) обрывается на лаге p. Таким образом, p следует выбрать равным порядку, при котором наблюдается последнее достаточно большое (по модулю) значение выборочной частной автокорреляционной функции. Доверительные интервалы можно основывать на стандартной ошибке выборочного частного коэффициента автокорреляции, которая равна примерно 1 √T для по-
рядков выше p (для которых теоретическая автокорреляционная функция равна нулю).
Аналогично, для выбора порядка скользящего среднего можно использовать выборочную автокорреляционную функцию, поскольку теоретическая автокорреляционная функция процесса MA(q) обрывается на лаге q. Таким образом, q следует выбрать равным порядку, при котором наблюдается последнее достаточно большое (по модулю) значение выборочной автокорреляционной функции. Стандартная ошибка выборочного коэффициента автокорреляции тоже примерно равна 1 √T .
Более точная формула стандартной ошибки для автокорреляции порядка k ( k > q)
T − k
T (T + 2)
Если же нет уверенности, что процесс является чистой авторегрессией или чистым процессом скользящего среднего, то эти методы не подходят. Но, по крайней мере, по автокорреляционной функции и частной автокорреляционной функции можно проследить, насколько быстро угасает зависимость в ряде.
![](/html/611/244/html_qKdwZuTrJr.UoU7/htmlconvd-RhTpcp472x1.jpg)
![](/html/611/244/html_qKdwZuTrJr.UoU7/htmlconvd-RhTpcp473x1.jpg)
476 |
Глава 14. Линейные стохастические модели ARIMA |
рассуждений предположим, что при прогнозировании доступна вся информация о процессе x до момента t включительно, т.е. информация, на основе которой строится прогноз, совпадает с полной предысторией процесса
Ωt = (xt, xt−1, . . . ) .
Заметим, что на основе (xt, xt−1, . . . ) можно однозначно определить ошибки (εt, εt−1, . . . ) и наоборот, поэтому при сделанных предположениях ошибки (εt, εt−1, . . . ) фактически входят в информационное множество. Кроме того, имея полную предысторию, можно точно вычислить параметры процесса, поэтому будем далее исходить из того, что параметры процесса нам известны.
Из теории прогнозирования известно, что прогнозом, минимизирующим средний квадрат ошибки, будет математическое ожидание xt+τ , условное относительно Ωt, т.е. E (xt+τ |Ωt). Убедимся в этом, воспользовавшись представлением модели ARMA в виде модели линейного фильтра (разложением Вольда) (14.52)
xt+τ = εt+τ + ψ1εt+τ −1 + . . . + ψτ −1εt+1 + ψτ εt + ψτ +1εt−1 + . . . ,
где во вторую строчку вынесены слагаемые, относящиеся к предыстории; получим таким образом следующее представление условного математического ожидания:
E(xt+τ |Ωt) = E (εt+τ |Ωt) + ψ1E (εt+τ −1|Ωt) + . . . +
+ψτ −1E (εt+1 |Ωt) + ψτ εt + ψτ +1εt−1 + . . . .
Вторую строчку формулы пишем без оператора условного математического ожидания, поскольку соответствующие слагаемые входят в предысторию Ωt.
Будем предполагать, что условное относительно предыстории математическое ожидание будущих ошибок равно нулю, т.е. E (εt+k |Ωt) = 0 при k > 0. Это будет выполнено, например, если все ошибки εt независимы между собой. (Отсутствия автокорреляции тут недостаточно. В приложении приводится пример белого шума, для которого это неверно.) Тогда рассматриваемое выражение упрощается:
E (xt+τ |Ωt) = ψτ εt + ψτ +1εt−1 + . . . ,
что дает нам линейную по ошибкам формулу для оптимального прогноза:
∞ |
|
xt (τ ) = ψτ εt + ψτ +1εt−1 + . . . = ψτ +iεt−i, |
(14.64) |
i=0 |
|
где мы обозначили через xt (τ ) прогноз на τ периодов, сделанный в момент t.
14.8. Прогнозирование по модели Бокса—Дженкинса |
477 |
Проверим, что эта прогнозная функция будет оптимальной (в смысле минимума среднего квадрата ошибки) среди линейных прогнозных функций, т.е. среди прогнозных функций, представимых в виде линейной комбинации случайных ошибок, входящих в предысторию:
∞
xt(τ ) = ψτ εt + ψτ +1εt−1 + ψτ +2εt−2 + . . . = ψτ +iεt−i.
i=0
Для этого найдем веса ψτ , ψτ +1, ψτ +2, . . ., которые обеспечивают минимум сред-
∞
него квадрата ошибки. С учетом того, что xt+τ = ψiεt+τ −i , ошибка такого
i=0
прогноза ηt(τ ) равна
∞ |
∞ |
ηt(τ ) = xt+τ − xt(τ ) = |
ψiεt+τ −i − ψτ +iεt−i = |
i=0 |
i=0 |
τ −1 ∞
=ψiεt+τ −i + (ψτ +i − ψτ +i)εt−i,
i=0 i=0
а средний квадрат ошибки прогноза (с учетом некоррелированности ошибок) равен
τ −1 |
∞ |
2 |
|
||
E[ηt(τ )2] = E |
ψiεt+τ −i + (ψτ +i − ψτ +i)εt−i |
= |
i=0 |
i=0 |
|
τ −1 |
∞ |
|
= E ψi2εt2+τ −i + (ψτ +i − ψτ +i)2εt2−i |
= |
|
i=0 |
i=0 |
|
∞
= σε2(1 + ψ12 + ψ22 + . . . + ψτ2−1) + σε2 (ψτ +i − ψτ +i)2.
i=0
Очевидно, что средний квадрат ошибки достигает минимума при ψτ +i = ψτ +i и равен
|
τ −1 |
E[ηt(τ )2 ] = σ2 |
1 + ψ2 . |
ε |
i |
|
i=1 |
Ошибка такого прогноза рассчитывается по формуле |
|
τ −1 |
|
ηt(τ ) = |
ψiεt+τ −i. |
i=0 |
|
Из формулы видно, что эта ошибка проистекает из будущих ошибок εt+k , которые в момент t еще неизвестны. Беря математическое ожидание от обеих частей,
478 |
Глава 14. Линейные стохастические модели ARIMA |
видим, что математическое ожидание ошибки прогноза равно нулю. Таким образом, прогноз, полученный по формуле (14.64), будет несмещенным.
Из несмещенности прогноза следует, что дисперсия ошибки прогноза равна среднему квадрату ошибки прогноза, т.е.
|
= E[η (τ )2 |
] = σ2 |
1 + |
τ −1 |
σ2 |
ψ2 . |
|||
p |
t |
ε |
|
i |
i=1
или
|
= σ2 |
τ −1 |
|
σ2 |
ψ2 |
, |
|
p |
ε |
i |
|
|
|
i=0 |
|
где ψ0 = 1.
Хотя представление в виде бесконечного скользящего среднего удобно для анализа прогнозирования, однако для вычисления прогноза предпочтительнее вернуться к исходному представлению модели ARMA в виде разностного уравнения (со сдвигом на τ периодов вперед):
xt+τ = ϕ1xt+τ −1 + . . . + ϕpxt+τ −p + +εt+τ − θ1εt+τ −1 − . . . − θq εt+τ −q .
Возьмем от обеих частей уравнения условное относительно предыстории математическое ожидание:
xt(τ ) = E[xt+τ |Ωt] = ϕ1E[xt+τ −1|Ωt] + . . . + ϕpE[xt+τ −p|Ωt] +
+ E[εt+τ |Ωt] − θ1E[εt+τ −1|Ωt] − . . . − θq E[εt+τ −q |Ωt].
Введем более компактные обозначения:
E[xt+i|Ωt] = x¯t+i, E[xt+τ |Ωi] = ε¯t+i.
Вэтих обозначениях
xt(τ ) = x¯t+τ = ϕ1x¯t+τ −1 + . . . + ϕpx¯t+τ −p +
+ε¯t+τ − θ1ε¯t+τ −1 − . . . − θq ε¯t+τ −q . (14.65)
![](/html/611/244/html_qKdwZuTrJr.UoU7/htmlconvd-RhTpcp477x1.jpg)
14.8. Прогнозирование по модели Бокса—Дженкинса |
479 |
При вычислении входящих в эту формулу условных математических ожиданий используют следующие правила:
xt+i, |
i 0, |
x¯t+i = E[xt+i|Ωt] = |
|
xt(i), |
i > 0, |
εt+i, |
i 0, |
ε¯t+i = E[εt+i|Ωt] = |
|
0, |
i > 0, |
дающие удобную рекуррентную формулу для вычисления прогнозов.
Для вычисления показателя точности прогноза (дисперсии ошибки прогноза или, что в данном случае то же самое, поскольку прогноз несмещенный, среднего квадрата ошибки прогноза), удобно опять вернутся к представлению модели в виде бесконечного скользящего среднего. Как мы видели, дисперсия ошибки прогно-
за равна σ2 |
= σ2 |
(1 + |
τ −1 |
ψ2). Формулы для вычисления коэффициентов ψi |
p |
ε |
|
i=1 |
i |
скользящего среднего приведены на стр. 462.
Мы вывели формулы для расчета точечного прогноза по модели ARMA и дисперсии этого прогноза. Если дополнительно предположить, что ошибки εt подчиняются нормальному закону (т.е. представляют собой гауссовский процесс), то можно получить также интервальный прогноз. При этом предположении при известных значениях процесса до момента t распределение будущего значения процесса xt+τ (т.е. условное распределение xt+τ |Ωt) также будет нормальным со средним значением xt(τ ) и дисперсией σp2 :
xt+τ |Ωt N xt(τ ), σp2 .
Учитывая это, получаем доверительный интервал для xt+τ , т.е. интервальный прогноз:
[xt(τ ) − ξ1−ασp, xt(τ ) + ξ1−ασp] ,
или
xt(τ ) − ξ1−ασε |
τ −1 2 |
, xt(τ ) + ξ1−ασε |
τ −1 2 |
|
(14.66) |
i=0 ψi |
i=0 ψi |
, |
где ξ1−α — двусторонний (1 − α)-квантиль стандартного нормального распределения. Это (1 − α) · 100-процентный доверительный интервал.
480 Глава 14. Линейные стохастические модели ARIMA
Прогнозирование процесса ARIMA
Для прогнозирования процесса ARIMA(p, d, q) при d > 0 можно воспользоваться представлением его в виде ARMA(p + d, q):
f (L)xt = θ(L)εt,
где
f (L) = 1 − f1L − f2L2 − . . . − fp+dLp+d = ϕ(L)(1 − L)d,
а коэффициенты f1, f2, . . . , fp+d выражаются через ϕ1, ϕ2, . . . , ϕp . В развернутой записи
p+d |
q |
|
xt = |
fj xt−j + εt − θj εt−j . |
(14.67) |
j=1 |
j=1 |
|
Например, модель ARIMA(1, 1, 1),
(1 − ϕ1L)(1 − L)xt = (1 − θ1L)εt,
можно записать в виде:
xt = (1 + ϕ1)xt−1 − ϕ1xt−2 + εt − θ1εt−1 = f1xt−1 + f2xt−2 + εt − θ1εt−1,
где f1 = 1 + ϕ1 , f2 = −ϕ1 .
При расчетах можно использовать те же приемы, что и выше для ARMA. Некоторую сложность представляет интерпретация ARIMA(p, d, q) в виде модели линейного фильтра, поскольку ряд модулей коэффициентов такого разложения является расходящимся. Однако это только технические сложности обоснования формул (в которые мы не будем вдаваться), а сами формулы фактически не меняются.
Таким образом, отвлекаясь от технических тонкостей, можем записать
ARIMA(p, d, q) в виде MA(∞):
x |
|
= |
θ(L) |
ε |
|
= ε |
+ ψ ε |
+ ψ ε |
+ . . . = ψ(L)ε . |
(14.68) |
|
|
|
||||||||
|
t |
|
f (L) |
t |
t |
1 t−1 |
2 t−2 |
t |
|
Функцию реакции на импульсы можно рассчитать по рекуррентной формуле
p+d |
|
ψi = fj ψi−j − θi, |
(14.69) |
j=1 |
|
14.8. Прогнозирование по модели Бокса—Дженкинса |
481 |
где ψ0 = 1, ψi = 0 при i < 0 и θi = 0 при i > q.
Кроме того, прогнозы xt(τ ) можно вычислять по рекуррентной формуле, которая получается из (14.67) по аналогии с (14.65):
p+d |
q |
|
xt(τ ) = x¯t+τ = |
fj x¯t+τ −j + ε¯t+τ − θj ε¯t+τ −j , |
(14.70) |
j=1 |
j=1 |
|
где условные математические ожидания x¯t+i = E[xt+i|Ωt] и ε¯t+i = E[εt+i|Ωt] рассчитываются по тому же принципу, что и в (14.65).
Таким образом, для прогнозирования в модели ARIMA можно использовать формулы (14.70), (14.8) и (14.66), где коэффициенты ψi рассчитываются в соответствии с (14.69).
Альтернативный подход к прогнозированию в модели ARIMA(p, d, q) состоит в том, чтобы сначала провести необходимые вычисления для wt = (1 − L)dxt, т.е. процесса ARMA(p, q), который лежит в основе прогнозируемого процесса ARIMA(p, d, q), а потом на их основе получить соответствующие показатели для xt.
Так, (14.70) можно записать в виде
E[f (L)xt+τ |Ωt] = E[ϕ(L)(1 − L)dxt+τ |Ωt] = E[θ(L)εt+τ |Ωt],
т.е.
E[ϕ(L)wt+τ |Ωt] = E[θ(L)εt+τ |Ωt]
или
ϕ(L)w¯t+τ = θ(L)¯εt+τ .
Здесь по аналогии w¯t+i = E[wt+i|Ωt], причем w¯t+i = wt(i) (равно прогнозу) при i > 0 и w¯t+i = wt+i (равно значению самого ряда) при i 0.
Отсюда видно, что можно получить сначала прогнозы для процесса wt по формулам (14.65), заменив xt на wt, а затем применить к полученным прогнозам оператор Sd = (1 − L)−d, т.е. попросту говоря, просуммировать такой ряд d раз, добавляя каждый раз нужную константу суммирования. В частности, при d = 1 получаем
i
|
|
xt(i) = xt + |
wt(j). |
||
|
|
|
|
j=0 |
|
Далее, ψ(L) можно записать в виде |
|
|
|||
ψ(L) = |
θ(L) |
= (1 − L)−d |
θ(L) |
= (1 |
− L)−dψw (L) = Sdψw (L). |
|
|
||||
f (L) |
ϕ(L) |
482 |
Глава 14. Линейные стохастические модели ARIMA |
Здесь ψw (L) = θ(L)/ϕ(L) — оператор представления MA( ∞) для wt. Таким образом, коэффициенты ψi можно рассчитать из коэффициентов ψiw . Например, при d = 1 получаем
|
|
i |
ψ |
= |
ψw . |
|
i |
j |
|
|
j=0 |
Получение общих формул для прогнозирования в модели ARIMA с помощью решения разностных уравнений
Формула (14.70) представляет собой разностное уравнение для x¯t+τ , решив которое получаем в явном виде общую формулу прогноза. Проиллюстрируем этот прием на примере процесса ARIMA(1, 1, 1), для которого f1 = 1 + ϕ1 , f2 = −ϕ1 :
xt+τ = (1 + ϕ1)xt+τ −1 − ϕ1xt+τ −2 + εt+τ − θ1εt+τ −1 . |
(14.71) |
Берем условное математическое ожидание от обеих частей равенства (14.71), получаем точечные прогнозы на 1, 2, . . . , τ шагов вперед.
xt(1) = (1 + ϕ1)xt − ϕ1xt−1 − θ1εt, xt(2) = (1 + ϕ1)xt(1) − ϕ1xt,
xt(3) = (1 + ϕ1)xt(2) − ϕ1xt(1),
.
.
.
xt(τ ) = (1 + ϕ1)xt(τ − 1) − ϕ1xt(τ − 2), τ > 2.
Мы видим, что начиная с τ > q = 1 природу прогнозирующей функции определяет только оператор авторегрессии:
x¯t+τ = (1 + ϕ1)¯xt+τ −1 − ϕ1x¯t+τ −2, τ > 1.
Общее решение этого разностного уравнения имеет следующий вид:
x¯t+τ = A0 + A1ϕτ1 .
Чтобы вычислить неизвестные коэффициенты, необходимо учесть, что x¯t = xt и x¯t+1 = xt(1) = (1 + ϕ1)xt − ϕ1xt−1 − θ1εt. Получается система уравнений:
A0 + A1 = xt,
A0 + A1ϕ1 = (1 + ϕ1)xt − ϕ1xt−1 − θ1εt,
из которой находятся A0 и A1 .