Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ЭКОНОМЕТРИКА и математическая экономика / Эконометрика. Учебник продвинутый (2005)

.pdf
Скачиваний:
512
Добавлен:
20.04.2015
Размер:
4.02 Mб
Скачать

13.6. Упражнения и задачи

423

2.2.Остатки ряда, получившиеся после исключения тренда, разложите в ряд Фурье.

2.3.Найдите коэффициенты αj и βj разложения этого ряда по гармоникам.

2.4.Постройте периодограмму ряда остатков и выделите наиболее существенные гармоники.

2.5.Постройте модель исходного временного ряда как линейную комбинацию модели тренда и совокупности наиболее значимых гармоник.

2.6.Вычислите выборочные коэффициенты автоковариации и автокорреляции для ряда остатков после исключения тренда.

2.7.Найдите значение периодограммы для частоты 0.5 разными способами (в том числе через автоковариационную функцию).

Упражнение 3

Используя данные таблицы 12.2, выполните следующие задания.

 

 

 

3.1. С помощью периодограммы вычислите оценку спектра на частоте

fj =

j

,

 

2K

K = 4 . Получите сглаженную оценку спектра с помощью спектрального окна Тьюки—Хэннинга.

3.2.Рассчитайте автокорреляционную функцию rj , j = 1, . . . , 4. Оцените спектр с помощью корреляционного окна Тьюки—Хэннинга при K = 4. Сравните с предыдущим результатом.

3.3.Оцените спектр с помощью корреляционного окна Парзена при K = 4.

3.4.Постройте график оценки спектра для корреляционного окна Тьюки— Хэннинга в точках fj = 40j , j = 0, . . . , 20.

Задачи

1.Записать гармонику для ряда x = (1, −1, 1, −1, 1, −1, . . . ).

2.Пусть временной ряд xt имеет гармонический тренд: τt = 3 cos(πt) +

+ 4 sin(πt). Найти значения амплитуды, фазы и периода.

3.Записать ортогональный базис, по которому разлагается исследуемый процесс xt в ряд Фурье для T = 6, T = 7.

424

Глава 13. Спектральный и гармонический анализ

4.Записать ковариационную матрицу для гармонических переменных, составляющих ортогональный базис, если T = 6, T = 7.

5.Привести формулу расчета коэффициентов гармонических составляющих временного ряда.

6. Что описывает формула: I(f ) =

T

(αf2 + βf2 ), где 0

f

 

1

? Почему f

2

2

меняется в указанном диапазоне значений?

7. Как соотносятся понятия интенсивности и амплитуды, периодограммы и спектра?

8. Вывести формулу для определения периодограммы на нулевой частоте.

9. Как связаны выборочный спектр и автокорреляционная функция для чисто случайного процесса? Записать формулу с расшифровкой обозначений.

10. Пусть для ряда из 4-х наблюдений выборочная автокорреляционная функция равна: r1 = 1 2 , r2 = 1 2 , r3 = 1 2 , дисперсия равна 1. Вычислить

значение выборочного спектра на частоте 1 4 .

11. Как соотносится выборочный спектр с автоковариационной функцией, спектральными и корреляционными окнами?

12. Пусть для ряда из 4-х наблюдений выборочная автокорреляционная функция равна: r1 = 1 2 , r2 = 1 4 , r3 = 1 4 , дисперсия равна 1. Вычислить значение сглаженной оценки выборочного спектра на частоте 1 4 с помощью окна Парзена с весами mk , k = 1, 2.

13. По некоторому временному ряду рассчитана периодограмма:

I(0) = 2, I 1 6 = 6, I 1 3 = 1, I 1 2 = 4.

Найти оценки спектральной плотности для тех же частот с использованием окна Тьюки—Хэннинга.

14.Записать уравнение процесса с одной периодической составляющей для частоты 0.33, амплитуды 2 и фазы 0.

15.Изобразить графики спектра для стационарных и нестационарных процессов.

13.6. Упражнения и задачи

425

Рекомендуемая литература

1.Андерсон Т. Статистический анализ временных рядов. — М.: «Мир», 1976. (Гл. 4, 9).

2.Бокс Дж., Дженкинс Г. Анализ временных рядов. Прогноз и управление. Вып. 1. — М.: «Мир», 1974. (Гл. 2).

3.Гренджер К., Хатанака М. Спектральный анализ временных рядов в экономике. — М.: «Статистика», 1972.

4.Дженкинс Г., Ваттс Д. Спектральный анализ и его приложения. — М.: «Мир», 1971.

5.Кендалл М. Дж., Стьюарт А. Многомерный статистический анализ и временные ряды. — М.: «Наука», 1976. (Гл. 49).

6.Маленво Э. Статистические методы эконометрии. Вып. 2. — М.: «Статистика», 1976. (Гл. 11, 12).

7.Бриллинджер Д. Временные ряды. Обработка данных и теория. — М.: Мир, 1980. (Гл. 5).

8.Hamilton James D., Time Series Analysis. — Princeton University Press, 1994. (Ch. 6).

9.Judge G.G., Griffiths W.E., Hill R.C., Luthepohl H., Lee T. Theory and Practice of Econometrics. — New York: John Wiley & Sons, 1985. (Ch. 7).

Глава 14

Линейные стохастические модели ARIMA

14.1. Модель линейного фильтра

Стационарный стохастический процесс {xt} с нулевым математическим ожиданием иногда полезно представлять в виде линейной комбинации последовательности возмущений εt, εt−1, εt−2 , . . ., т.е.

 

xt = εt + ψ1εt−1 + ψ2εt−2 + . . . = ψiεt−i,

(14.1)

i=0

 

или с использованием лагового оператора:

 

xt = (1 + ψ1L + ψ2L2 + · · · )εt,

 

где ψ0 = 1 и выполняется

 

(14.2)

i| < ∞,

i=0

 

т.е. ряд абсолютных значений коэффициентов сходится.

Уравнение (14.1) называется моделью линейного фильтра, а линейный оператор:

ψ(L) = 1 + ψ1L + ψ2L2 + · · · = ψiLi,

i=0

14.1. Модель линейного фильтра

427

преобразующий εt в xt, — оператором линейного фильтра.

Компактная запись модели линейного фильтра выглядит следующим образом:

xt = ψ(L)εt.

Предполагается, что последовательность { εt } представляет собой чисто случайный процесс или, другими словами, белый шум (см. стр. 353). Напомним, что автоковариационная и автокорреляционная функции белого шума имеют очень простую форму:

σ2

, k = 0,

ρε

1,

k = 0,

γε =

ε

 

=

 

k

 

k = 0,

k

 

k = 0,

0,

 

0,

а его спектральная плотность имеет вид

pε(f ) = 2γ0ε = 2σε2 = const.

Таким образом, белый шум легко идентифицируется с помощью графиков автокорреляционной функции и спектра. Часто предполагается, что последовательность t} состоит из независимых одинаково распределенных величин. Упростить анализ помогает дополнительное предположение о том, что t} имеет нормальное распределение, т.е. представляет собой гауссовский белый шум.

Данная модель не является произвольной. Фактически, согласно теореме Вольда, любой слабо стационарный ряд допускает представление в виде модели линейного фильтра, а именно: разложение Вольда ряда xt1. Следует помнить, однако, что разложение Вольда единственно, в то время как представление (14.1), вообще говоря, неоднозначно2. Таким образом, разложение Вольда представляет процесс в виде модели линейного фильтра, в то время как модель линейного фильтра не обязательно задает разложение Вольда.

Как мы увидим в дальнейшем, модель линейного фильтра (14.1) применима не только к стационарным процессам, таким что выполняется (14.2), — с соответствующими оговорками она упрощает анализ и многих нестационарных процессов.

Если процесс {xt} подчинен модели (14.1), то при выполнении условия (14.2) он имеет математическое ожидание, равное нулю:

E(xt) = ψiE(εt−i) = 0.

i=0

1В разложении Вольда произвольного стационарного процесса может присутствовать также полностью предсказуемая (линейно детерминированная) компонента. Однако такая компонента, если

еесвойства известны, не создает больших дополнительных сложностей для анализа. 2См. ниже в этой главе анализ обратимости процесса скользящего среднего.

428

Глава 14. Линейные стохастические модели ARIMA

Если требуется, чтобы математическое ожидание xt не было равно нулю, то уравнение модели линейного фильтра должно включать константу:

xt = µ + ψiεt−i = µ + ψ(L)εt.

i=0

Выведем формулы для автоковариаций рассматриваемой модели:

γk = E(xtxt+k ) = E

=

 

 

 

 

ψiεt−i

ψj εt+k−j

 

 

 

 

 

i=0

j=0

 

 

 

 

 

 

∞ ∞

 

 

 

 

 

=

ψ ψ E(ε

ε

) = σ2

ψ ψ

i+k

. (14.3)

 

 

i j

t−i t+k−j

ε

i

 

 

i=0 j=0

 

 

i=0

 

 

Здесь учитывается, что для белого шума

E(εt−iεt+k−j ) = σε2, j = i + k, 0, j = i + k.

Заметим, что из (14.2) следует сходимость возникающих здесь рядов. Это говорит о том, что данное условие подразумевает стационарность.

Действительно, пусть (14.2) выполнено. Тогда существует индекс I , такой что i| 1 при i > I (иначе бы ряд не сошелся). Тогда

I

 

iψi+k | |ψi||ψi+k | |ψi||ψi+k | +

i+k |.

i=0

i=0

i=0

i=I+1

Поскольку оба слагаемых здесь конечны, то

iψi+k | < ∞.

i=0

Ясно, что модель линейного фильтра (14.1) в общем виде представляет в основном теоретический интерес, поскольку содержит бесконечное число параметров. Для прикладного моделирования желательно использовать уравнения с конечным числом параметров. В основе таких моделей может лежать так называемая рациональная аппроксимация для ψ(L), т.е. приближение в виде частного двух лаговых многочленов:

ψ(L) θ(L) , ϕ(L)

14.1 Влияние линейной фильтрации . . .

429

где лаговые многочлены θ(L) и ϕ(L) имеют уже конечное число параметров. Как показывает практика, многие ряды можно достаточно хорошо аппроксимировать этим методом.

Частными случаями применения рациональной аппроксимации являются модели авторегрессии AR(p) и скользящего среднего MA(q). В общем случае получаем смешанные процессы авторегрессии — скользящего среднего ARMA(p, q). Прежде чем перейти к рассмотрению этих широко используемых линейных моделей временных рядов, рассмотрим общий вопрос о том, как изменяет применение линейного фильтра характеристики случайного процесса.

14.2.Влияние линейной фильтрации на автоковариации и спектральную плотность

Пусть два стационарных процесса c нулевым математическим ожиданием {zt} и {yt} связаны между собой соотношением:

zt = αj yt−j ,

j

т.е. zt получается применением к yt линейного фильтра

α(L) = αj Lj .

j

Пределы суммирования не указываем, поскольку они могут быть произвольными3.

Пусть γky — автоковариации процесса yt, а py (f ) — его спектральная плотность. Найдем те же величины для zt . Автоковариации zt равны

γz

= E(z z

) = E

 

 

α y

t−j

α y

t−k−s

=

 

k

 

t

t−k

 

 

 

j

s

 

 

 

 

 

 

 

j

 

 

s

 

 

 

 

 

=

 

α α E(y

t−j

y

t−k−s

) =

 

α α γy

.

 

 

 

j s

 

 

 

j s

k+s−j

 

 

j

 

s

 

 

 

 

 

 

j s

 

 

Спектральную плотность zt можно записать в виде

 

 

 

 

 

 

pz (f ) = 2

 

 

 

 

 

 

 

 

 

 

γz ei2πf k .

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

k=−∞

3В том числе, при соответствующих предположениях, пределы суммирования могут быть бесконечными. Кроме того, zt здесь может зависеть от опережающих значений yt .

430

Глава 14. Линейные стохастические модели ARIMA

Подставим сюда формулы для ковариаций:

 

 

 

 

 

 

γy

 

 

 

pz (f ) = 2

 

αj αs

ei2πf k =

 

k=−∞

j

s

k+s−j

 

 

 

 

 

 

 

 

 

= 2

 

γy

 

ei2πf k .

 

 

αj αs

 

 

 

 

 

k+s−j

 

j

s

k=−∞

 

 

Произведем здесь замену k = k + s − j:

pz (f ) = 2

αj αs

j s

k =−∞

γky ei2πf k ·

= 2

k =−∞

j

γk ei2πf k ·

= 2

k =−∞

j

γky ei2πf (k +j−s) =

αj ei2πf j αse−i2πf s =

s

αj ei2πf j · αse−i2πf s. s

Первый множитель — это спектральная плотность yt. Два последних множителя представляют собой сопряженные комплексные числа, поэтому их произведение равно квадрату их модуля. Окончательно получим

 

pz (f ) = py (f )

αj e−i2πf j 2

 

(14.4)

 

j

 

 

 

 

или

 

 

 

 

 

 

2

 

 

2

 

pz (f ) = py (f )

αj cos 2πf j

+

αj sin 2πf j

.

(14.5)

 

j

 

j

 

 

Данную теорию несложно применить к модели линейного фильтра (14.1). Для этого заменяем zt на xt, а yt на εt . Автоковариации xt равны

γk =

∞ ∞

ψiψj γε

 

.

 

 

 

i=0 j=0

k+j−i

 

 

 

 

 

Поскольку γ0ε = σε2 , и γkε = 0 при k = 0, то

 

 

 

 

= σ2

 

 

 

γ

ψ ψ

i+k

,

 

k

ε

i

 

 

i=0

14.3. Процессы авторегрессии

 

431

что совпадает с полученной ранее формулой (14.3).

 

Для спектральной плотности из (14.4) получаем

 

p(f ) = 2σ2

ψ e−i2πf j 2.

(14.6)

ε

j

 

j=0

Поскольку |e−i2πf j | = 1, то ряд здесь сходится и | p(f )| < ∞ .

14.3. Процессы авторегрессии

В модели авторегрессии текущее значение процесса xt представляется в виде линейной комбинации конечного числа предыдущих значений процесса и белого шума εt :

xt = ϕ1xt−1 + ϕ2xt−2 + · · · + ϕpxt−p + εt,

(14.7)

при этом предполагается, что текущее значение εt не коррелировано с лагами xt. Такая модель называется авторегрессией p-го порядка и обозначается AR(p) (от английского autoregression).

Используя лаговый оператор L, представим уравнение авторегрессии в виде:

(1 − ϕ1L − ϕ2L2 − . . . − ϕpLp)xt = εt,

или кратко, через лаговый многочлен ϕ(L) = 1 − ϕ1L − ϕ2L2 − . . . − ϕpLp:

ϕ(L)xt = εt.

Нетрудно показать, что модель авторегрессии является частным случаем модели линейного фильтра:

xt = ψ(L)εt,

где ψ(L) = ϕ1(L), т.е. ψ(L) — оператор, обратный оператору ϕ(L).

Удобным и полезным инструментом для изучения процессов авторегрессии является характеристический многочлен (характеристический полином)

p

ϕ(z) = 1 − ϕ1z − ϕ2z2 − . . . − ϕpzp = 1 − ϕj zj

j=1

и связанное с ним характеристическое уравнение

1 − ϕ1z − ϕ2z2 − . . . − ϕpzp = 0.

432

Глава 14. Линейные стохастические модели ARIMA

Как мы увидим в дальнейшем, от того, какие корни имеет характеристическое уравнение, зависят свойства процесса авторегрессии, в частности, является ли процесс стационарным или нет.

Рассмотрим наиболее часто использующиеся частные случаи авторегрессионных процессов.

Процесс Маркова

Процессом Маркова (марковским процессом) называется авторегрессионный процесс первого порядка, AR(1):

xt = ϕxt−1 + εt,

(14.8)

где εt представляет собой белый шум, который не коррелирует с xt−1 . Здесь мы упростили обозначения, обозначив ϕ = ϕ1 .

Найдем необходимые условия стационарности марковского процесса. Предположим, что процесс {xt} слабо стационарен. Тогда его первые и вторые моменты неизменны. Находя дисперсии от обеих частей (14.8), получим, учитывая, что cov(xt−1 , εt) = 0:

var(xt) = ϕ2var(xt−1) + var(εt)

или

σx2 = ϕ2σx2 + σε2.

Ясно, что при |ϕ| 1, с учетом σε2 > 0, правая часть этого равенства должна быть больше левой, что невозможно. Получаем, что у стационарного марковского процесса |ϕ| < 1.

Пусть, с другой стороны, |ϕ| < 1. Представим xt через белый шум { εt }. Это можно осуществить с помощью последовательных подстановок по формуле (14.8):

xt = ϕxt−1 + εt = ϕ(ϕxt−2 + εt−1) + εt = ϕ2xt−2 + ϕεt−1 + εt,

потом

xt = ϕ2(ϕxt−3 + εt−3) + ϕεt−1 + εt = ϕ3xt−3 + ϕ2εt−3 + ϕεt−1 + εt,

ит.д.

Впределе, поскольку множитель при лаге xt стремится к нулю, получим следующее представление xt в виде модели линейного фильтра:

xt = εt + ϕεt−1 + ϕ2εt−2 + . . . .