Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Эконометрика. Начальный курс

.pdf
Скачиваний:
16
Добавлен:
20.11.2023
Размер:
21.93 Mб
Скачать

11.4. Модели Бокса-Дженкииса (АШМА)

301

Autocorrelation

Partial Correlation

 

АС

РАС

Q-Stat

Prob

1

 

t

1

0.778

0.778

242.73

0.000

1

 

l

2

0.532

-0.185

356.60

0.000

J

 

1 l

3

0.336

-0.027

402.15

0.000

1

l| i

4

0.188

-0.037

416.43

0.000

11

1 t

5

0.087

-0.010

419.51

0.000

1|l

1 |t

6

0.045

0.044

420.32

0.000

11

l l

7

0.024

-0.010

420.55

0.000

t |l

1 >

8

0.042

0.073

421.26

0.000

1

|1

1 l

9

0.060

-0.002

422.73

0.000

i

>

1 l

10

0.072

0.013

424.88

0.000

1

|l

'Il

11

0.055

-0.050

426.11

0.000

1

|l

1 l

12

0.045

0.035

426.94

0.000

Рис. 11.14. AR(2). Yt = оду;-! - 0.2rt_2 + et. Корни ц\ = 2.5, fj,2 = 2

Autocorrelation

Partial Correlation

 

AC

РАС

Q-Stat

Prob

I

 

i ■

1

0.163

0.163

10.689

0.001

I

 

t

1

2

0.269

0.249

39.806

0.000

1 1

t

3

0.094

0.022

43.355

0.000

11

i

1

4

0.080

-0.001

45.919

0.000

t

1

4 l

5

-0.023

-0.067

46.126

0.000

t It

1 1

6

0.034

0.025

46.595

0.000

ll

1

1 1

7

-0.039

-0.028

47.211

0.000

t

1

J |l

8

0.039

0.043

47.842

0.000

1 1

J 1

g

0.007

0.018

47.863

0.000

1 |l

10

0.079

0.063

50.413

0.000

1 1

l| J

и

-0.009

-0.035

50.444

0.000

J 1

t

1

12

0.041

0.003

51.134

0.000

Рис. 11.15. AR(2). Yt = 0 .irt_i +0.2Yt-2 + £t. Корни щ = -2.5, ц2 = 2

Autocorrelation

Partial Correlation

 

АС

РАС

Q-Stat

Prob

 

t

 

1

1 -0.593

-0.593

140.88

0.000

I 1

 

1

2

0.124

-0.351

147.01

0.000

I

1

1

3

0.004

-0.185

147.02

0.000

I

l

\

t

4

0.026

-0.034

147.29

0.000

4 1

4

J

5

-0.069

-0.068

149.21

0.000

I )

1 t

6

0.076

0.003

151.55

0.000

1

1

lj

l

7

-0.074

-0.050

153.79

0.000

t H

1

1

8

0.056

-0.014

155.06

0.000

n 1

4

1

9

-0.055 -0.058

156.32

0.000

t 1

1||

10

0.088

0.050

159.47

0.000

(

t

1

1

11

-0.077

0.024

161.89

0.000

1 1

1

1

12

0.035

0.010

162.40

0.000

Рис. 11.16. МА(2). Yt = et - 0.9£t_! +0.2et_2. Корни щ = 2.5, Ц2 = 2

302

Гл. 11. Временпые ряды

Autocorrelation

Partial Correlation

 

АС

РАС

Q-Stat

Prob

« 1

в|

1 -0.074 -0.074

2.1884

0.139

■ 1

1

2 -0.151 -0.156

11.407

0.003

1 ||

\

1

3

0.048

0.024

12.338

0.006

1 1

1 1

4

0.008

-0.010

12.365

0.015

|| 1

|| 1

5 -0.052 -0.042

13.451

0.020

1 J

1 1

6

0.016

0.008

13.559

0.035

|| 1

i|

\

7 -0.043 -0.057

14.316

0.046

1 1

\

1

8

0.009

0.008

14.352

0.073

1 1

1 1

9

0.015

0.000

14.438

0.108

\ »

1 »

10

0.067

0.075

16.307

0.091

1 1

1 1

11 -0.040 -0.027

18.974

0.109

1 1

1 1

12 -0.002

0.009

16.975

0.151

Рис. 11.17.

МА(2). Yt =

 

0.1et_i

- 0.2е -2-

 

Корни ц\ = -2.5, ^2 = 2

 

 

Autocorrelation

Partial Correlation

 

АС

РАС

Q-Stat

Prob

1

1

 

1

0.449

0.449

80.885

0.000

1

1

2

0.369

0.234

141.60

0.000

1

1 1

3

0.320

0.108

182.89

0.000

1

1 t

4

0.246

0.025

207.30

0.000

' ■

)| 1

5

0.162

-0.037

217.92

0.000

1 ■

1 l

6

0.161

0.040

228.44

0.000

1 1

1 1

7

0.100 -0.021

232.54

0.000

1 1

1 |t

8

0.121

0.053

238.50

0.000

l 1

1 1

9

0.102

0.019

242.73

0.000

1 В

1 |l

10

0.123

0.052

248.91

0.000

1 |i

l|

1

11

0.057

-0.053

250.23

0.000

1 »

1 1

12

0.067

0.002

252.10

0.000

Рис. 11.18. ARMA(1,1). У| =0.8Yt_ i+ £ t -0.5<rt_i. Корни цап = 1.125, ныл = 2

Autocor relation

Partial Correlation

 

AC

РАС

Q-Stat

Prob

 

 

 

1

1 -0.416 -0.416

69.346

0 .0 0 0

l

 

1

2

0.381

0.251

127.65

0 .0 0 0

 

 

H 1

3 -0.271 -0.062

157.27

0 .0 0 0

> Щ

i

1

4

0.267

0.094

186.02

0 .0 0 0

 

1

i

5

-0.251

-0.085

211.62

0 .0 0 0

1

1

1

6

0.211

0.024

229.87

0 .0 0 0

 

 

l|

1

7 -0.206 -0.045

246.96

0 .0 0 0

1

1

t

8

0.174

0.015

259.28

0 .0 0 0

a

 

l

1

9

-0.141

0.013

267.43

0 .0 0 0

1

1 |t

10

0.172

0.064

279.54

0 .0 0 0

1

 

1

1

11

-0.132

0.002

286.71

0 .0 0 0

1 3

l

1

12

0.115

-0.015

292.13

0 .0 0 0

Рис. 11.19. ARMA(1,1). Yt = -0.8У(-1 + £« +0.5et-i- Корни пая = 1.125, ныл = -2

11.4. Модели Бокса-Дженкинса (AR1MA)

 

 

 

 

303

Autocorrelation

Partial Correlation

 

АС

РАС Q-Stat Prob

1

н

1

1

1

0.887

0.887

189.53

0.000

J

 

2

0.336

-0.259

235.01

0.000

1

1 1

3

0Л77

0.129

247.59

0.000

1

»

1

1

4

0.071

-0.107

249.63

0.000

1 1

1

1

5

0.003

0.018

249.63

0.000

1 1

\

1

в -0.013

0.004

249.70

0.000

1 J

1

1

7 -0.015

-0.009

249.79

0.000

1 1

1

»

8

0.016

0.067

249.90

0.000

> ||

1

1

9

0.051

0.009

250.97

0.000

J

1

1

1

10

0.066

0.023

252.76

0.000

1 |1

||

\

11

0.042

-0.044

253.50

0.000

1

1

1 ||

12

0.039

0.057

254.13

0.000

Рис. 11.20. ARMA(1,1). Yt = 0.4У»_1 + et + 0.5et-i- Корни цац = 2ф м а = -2

Autocorrelation

Partial Correlation

 

АС

РАС

Q-Stat

Prob

1

1

1

1 -0.662 -0.662

175.75

0.000

 

■ 1

2

0.281

-0.279

207.58

0.000

1 Г

1 1

3

-0.114

-0.117

212.83

0.000

J

1

1 1

4

0.082

0.021

215.55

0.000

1 1

|| 1

5

-0.095

-0.047

219.20

0.000

1 1

1 1

6

0.095

0.008

222.85

0.000

1 1

|| 1

7

-0.095

-0.047

226.53

0.000

 

»

1 1

8

0.082

-0.006

229.26

0.000

1 1

|| 1

9 -0.079

-0.046

231.83

0.000

1 1

1 ||

10

0.102

0.054

236.10

0.000

1

 

1 1

11

-0.091

0.029

239.50

0.000

1

 

1 1

12

0.063

0.014

241.12

0.000

Рис. 11.21. ARMA(1,1). Yt = -0.4У»_1 + et - 0.5et_i Корни мая = -2, ммA = 2

II. Оценивание модели и проверка адекватности модели

II.1. Для каждой из выбранных на первом этапе моделей оцени­ ваются их параметры и вычисляются остатки.

II.2. Каждая из моделей проверяется, насколько она соответству­ ет данным. Из моделей, адекватных данным, выбирается самая простая модель, т. е. модель с наименьшим количеством парамет­ ров.

304

Гл. 11. Временные ряды

III. Прогнозирование

После того как на втором этапе выбрана модель, можно строить прогноз на один или несколько шагов по времени и оценивать доверительные границы прогнозных значений.

Остановимся подробнее на втором и третьем этапах методики Бокса-Дженкинса.

Оценивание ARMA моделей

В современные компьютерные пакеты включены различные ме­ тоды оценивания ARMA моделей, такие, как линейный или нели­ нейный МНК, полный или условный метод максимального прав­ доподобия.

Рассмотрим пример ARMA(1,1) модели (11.86). Запишем ее в виде:

0 (L )-1yt = e ( L ) - \6 + Фт- i) + ей

(11.89)

где 0(L) = 1 —9iL и 0(L)_1 = 1 + 0I L + ^ L 2+ . .. В (11.89) надо каким-то образом интерпретировать переменную у* = 0(L )-1yt, которая является бесконечной взвешенной суммой предыдущих значений ytОдним из возможных решений является следующее. Приравняем нулю все значения, предшествующие началу наблю­ дений: уо = у - 1 = ... = 0. При этом получим:

3/1 = У ь Уг = 3 /2 + 013/1. ••• У? =

Уг + 0\V t-i + • • • +

0 i- 1 !/l-

В этих обозначениях уравнение (11.89) принимает вид

 

Уг = <5*+ ФхУ'г- 1 + £t,

** =

U1-90)

В том случае, если вх известно, это уравнение является линейным по 6*, ф\, однако в общем случае оно нелинейно по параметрам.

Для оценивания уравнения (11.89) применим условный метод максимального правдоподобия (conditional ML)t когда у\ предпо­ лагается заданным, считая, что ошибки £f ~ iidN(0,<r2). Условная

11.4. Модели Бокса-Дженкинса (ARIMA)

305

функция правдоподобия равна

п

L* = р{У2,Уз> • • • ,2/nh/I) = n ^ l ^ -г)

Логарифм условной функции максимального правдоподобия ра­ вен

I* = In L* = const -

1п сг2—

 

2

Из вида функции I*

видно, что оценка коэффициентов 6, ф\

по условному методу максимального правдоподобия совпадает с оценкой нелинейного метода наименьших квадратов. (Заметим, что сумма в правой части (11.92) является нелинейной функцией параметров <5,<f>i.)

Полный метод максимального правдоподобия (full ML) состо­ ит в максимизации функции правдоподобия

L = p(yi)L'.

Известно (см.(11.39),(11.40)), что при гипотезе нормальности оши­ бок у1 ~ N (S*/(l — <f>i),a2/( l - ф\)). Поэтому логарифм функции правдоподобия равен

(Конечно, в (11.93) следует подставить выражения для S* и у? через 6 и 0J.)

Проверка адекватности ARMA моделей

Есть несколько критериев оценки того, насколько ARMA модель, которую мы оцениваем, соответствует нашим данным.

306 Гл. 11. Временные ряды

Во-первых, оценки коэффициентов модели должны статисти­ чески достоверно отличаться от нуля, т. е. соответствующие Р- значения t-статистик должны быть меньше выбранного порого­ вого значения.

Во-вторых, согласно модели ошибки et являются белым шу­ мом. Соответственно их оценки, т.е. остатки регрессии et, долж­ ны быть также похожи на белый шум. Поэтому остатки должны иметь нулевую автокорреляцию.

В модели, включающей константу, среднее остатков равно 0. Поэтому выборочная автокорреляционная функция остатков вы­

числяется по формуле:

 

 

Гк =

Ht=fc+16tet-fc

fc = 1,2,.

(11.94)

V'" *>2 ’

 

2^t=i et

 

 

Если модель адекватна данным, ошибки являются белым шумом, и при больших значениях п и к величина г*. имеет распределе­ ние, близкое к нормальному N (0, ^). Причем на практике хоро­ шая аппроксимация начинается с к = 5 ч- 6. Поэтому значение г* вне интервала 0 ± позволяет на 5%-ном уровне значимости от­ вергнуть гипотезу равенства нулю коэффициента корреляции рк-

Другие тесты проверяют гипотезу равенства нулю сразу К первых значений автокорреляционной функции остатков.

Q-статистика Бокса-Пирса (Box, Pierce, 1970) определяется

как

к

(11.95)

Q = n ' £ r l

fc=i

 

При нулевой гипотезе отсутствия автокорреляции Q имеет рас­ пределение х 2(К — р - q), где p,q — параметры ARMА модели. Нулевая гипотеза отвергается, если полученное значение Q боль­ ше соответствующего критического значения.

Тест Лъюнга-Бокса (Ljung, Box, 1978) является модификаци­ ей теста Бокса-Пирса. Соответствующая статистика

к

гк2

Q п(п + 2 )] £

(11.96)

fc=i

п — к

11.4. Модели Бокса-Дженкинса (ARIMA)

307

имеет такое же асимптотическое распределение, как и Q, однако ее распределение ближе к х 2 Для конечных выборок.

Бели тесты показывают наличие автокорреляции остатков, это означает, что рассматриваемая ARMA модель не подходит, и ее надо модифицировать. Например, если в автокорреляцион­ ной функции отличны от нуля значения с номерами, кратными 4, то стоит попробовать ввести сезонную авторегрессию четвертого порядка. Если единственное отличающееся от нуля значение со­ ответствует лагу, равному 4, можно попробовать ввестн сезонный МА-член порядка 4.

Если мы имеем ситуацию, когда несколько ARMA моделей оказываются адекватными данным, то, руководствуясь принци­ пом «экономии мышления», следует выбрать модель с наимень­ шим количеством параметров.

В компьютерных пакетах среди результатов оценивания при­ водится информационный критерий Акаике AIC (Akaike informa­ tion criterion) (Akaike, 1973), определяемый формулой

(11.97)

Критерий Акаике является эвристической попыткой свести в одни показатель два требования: уменьшение числа параметров модели и качество подгонки модели. Согласно этому критерию, из двух моделей следует выбрать модель с меньшим значением AIC.

Обычно также приводится значение критерия Шварца (Schwarz criterion) (Schwarz, 1978)

(11.98)

отличие которого от AIC состоит в большем штрафе за количество параметров.

Заметим, что по своей идеологии критерии Акаике и Шварца близки к скорректированному R2 (3.28).

308

Гл. 11. Временные ряды

Прогнозирование с ARIMA моделями

Главная цель использования ARIMA моделей — построение про­ гноза за пределы выборки. Есть два источника неточности про­ гноза: первый — игнорирование будущих ошибок et>второй — от­ клонение оценок коэффициентов модели от их истинных значе­ ний. В данном разделе мы будем рассматривать только первый источник ошибок прогноза или, другими словами, прогнозирова­ ние в рамках теоретических моделей.

Рассмотрим проблему прогнозирования на примере ARMA(1,1) и АШМА( 1,1,0) моделей (несколько более простых примеров вы­ несено в упражнения).

ARMA(1,1) модель. Прогнозирование

Из (11.86) получаем значение у в момент п + 1:

Уп+1 = 6 + ф\уп + £п+1 - #1 £»»•

Используя обозначение /х = E(yt) = 6 / ( 1 - фi), получаем:

( з /п + 1 “ /* ) = Ф\(Уп — /* ) + £ п + 1 - 0 1 £ п -

( 1 1 . 9 9 )

Прогноз на один шаг, минимизирующий среднеквадратичное от­ клонение, равен Уп+i = Е(уп+х|/п) (см. МС, п.2), где 1п — инфор­ мация, доступная в момент п. Из (11.99) получаем:

(Уп+i - м) = ФЛУп - м) - 01

( 11.100)

Ошибка прогноза и ее дисперсия равны

en+i = Уп+i - Уп+i = £п+ь

V(e„+i) = <T2.

(11.101)

Используя две итерации уравнения (11.99), получаем

(Уп+2 —р) = ф\(Уп — р) + еп+2 + (Ф\ —0l)£n+l —Ф1@1£п- (11.102)

Отсюда аналогично (11.100) вычисляется прогноз на два шага:

(Уп+2 - м) = Ф\{Уп - /*) - Ф\0\£п>

(11.103)

V(en+2)=<72 (l + ( ^ i - 0 1)2).

Продолжая итерации, можно получить

(Уп+s —р) —Ф\(Уп —р) —Ф\ % е п>

(11.104)

11.4. Модели Бокса-Дженкинса (ARJMA)

309

откуда видно, что прогноз стремится к среднему д, когда горизонт прогноза возрастает. Можно показать, что

Д ш У (е*+,) = ^ ( ^ М р 1 ) .

(11.105)

Заметим, что это выражение совпадает с дисперсией ряда у, по­ лученной в (11.876).

АШМА(1,1,0) модель. Прогнозирование

Прогноз нестационарного временного ряда несколько отличается от выше разобранного случая. Рассмотрим временной ряд yt, пер­ вые разности которого zt являются AR(1) процессом (см. (11.67)):

zt = y t - V t~ 1,

Н~Р- = Ф\(.Ч-\ ~ p) + £t-

(11.106)

Многократное применение (11.106) дает

Уп+8 — Уп + «п+1 + Zn+2 + •••+ Zn+s

= (Уп + Sfl) + (z„+1 - д) + • • • + (2n+s - д).

(11.107)

Подставляя zt д из (11.106) в (11.107), получаем:

Уп+з = Уп + sp, + ~ r ~ T ^ ( j / n Уп—1 - ^) + еп+а»

(11.108)

1 - 0 1

 

где

 

&П+3 — £n+s + (1 + 0 i ) e n+ a - l Н------

 

+ (1 + 01 + 01-1— ' + 01 l)£n+i-

(11.109)

Очевидно, что прогноз, минимизирующий среднеквадратичное отклонение, решен сумме первых трех слагаемых в (11.108). За­ метим, что второе и третье слагаемые растут с ростом s. Ошибка прогноза на з шагов равна e„+s. В силу формулы (11.109) диспер­ сия ошибки равна

V(en+e) = <T2(1 + (1 + 0I )2 + >--

 

+ (1 + 01 + 0? + --> + 0 Г 1)2).

(И.110)

Мы видим, что в случае нестационарного временного ряда дис­ персия ошибки прогноза монотонно растет с ростом горизонта прогноза з.

310

Гл. 11. Временные ряды

Еще раз отметим, что все вычисления в этом разделе бы­ ли проведены для теоретической модели, т.е. в предположении, что коэффициенты модели известны точно. Обычно на практи­ ке мы имеем дело с оценками коэффициентов, что добавляет до­ полнительную неопределенность в прогноз. Поэтому полученные оценки точности прогноза являются излишне «оптимистически­ ми». Заметим, что некоторые компьютерные пакеты (например, EViews) корректно рассчитывают дисперсии ошибок прогноза, учитывая и неопределенность в коэффициентах.

Сезонность в ARIMA моделях

В этом разделе мы лишь кратко упомянем обобщение АШМА моделей на случай наличия сезонной компоненты. Рассмотрим следующий пример. Пусть ряд yt имеет сезонную (квартальную) компоненту. Тогда можно написать простейшую модель, связыва­ ющую значение переменной в текущем квартале с ее значением в том же квартале предыдущего года:

Vt = 4>[a)yt-A + «t-

Так как временные ряды обладают статистической связью сосед­ них значений, то можно предположить, что ошибки щ удовлетво­ ряют AR(1) процессу

щ = Ф1Щ - 1 + £ (,

et ~ iid ( 0 , а 2).

Из двух последних уравнений получаем:

(1 - фгЩ 1 - ^ s)L4)y{ = £t,

или

Vt = Ф т - 1 +

- Ф х Ф ^ У ^ ь + S t-

Такая модель обозначается AR(l)xSAR(l). Она похожа на AR(5) модель с тремя (нелинейными) ограничениями на коэффициенты.

Подробнее о свойствах подобных моделей можно прочитать, например, в (Johnston and DiNardo, 1997), (Box and Jenkins, 1976).