
- •95 «Эконометрика» Модуль 8. Анализ временных рядов
- •8.1. Временные ряды
- •Примеры временных рядов
- •Пример 8.1
- •Пример 8.2
- •8.1.1. Основные задачи анализа временных рядов
- •8.2. Автоковариационная и автокорреляционная функции
- •8.2.1. Автоковариационная функция
- •8.2.2. Автокорреляционная функция
- •8.3. Методы сглаживания временного ряда
- •8.3.1. Метод скользящего среднего
- •8.3.2. Метод экспоненциального взвешенного скользящего среднего (метод Брауна)
- •8.3.3.Случай «бесконечно» удаленного прошлого
- •8.4. Модели стационарных временных рядов и их идентификация
- •8.4.1. Модель авторегрессии 1-го порядка (ар(1))
- •8.4.2. Модель авторегрессии второго порядка - ар(2)
- •8.4.3. Модель авторегрессии ар(s)
- •8.4.4. Модель авторегрессии – скользящего среднего арсс(1,1)
- •8.5. Модели нестационарных временных рядов и их идентификация
- •8.5.1. Метод последовательных разностей
- •Пример 8.3
- •8.5.2. Преобразование Бокса-Дженкинса
- •Лабораторная работа №8.5
- •Выполнение
- •8. Вопросы
8.5.1. Метод последовательных разностей
Метод последовательных разностей (МПР)
используется для подбора неслучайной
составляющей временного ряда (в частности
локального аппроксимирующего полинома
степени p). МПР основан на
следующем математическом факте: если
анализируемый временной рядx(t)
содержит в качестве неслучайной
составляющей алгебраический полиномпорядкаp, то переход к
последовательным разностям, повторенныйp+1 раз (порядкаp+1),
исключает неслучайную составляющую,
включая0,
оставляя компоненты, выражающиеся
только через случайную составляющую(t).
Процедура
Имеется ряд x(1),x(2), …,x(T). Введем
(8.
0)
(8.
0)
…
(8.0) где
-
число сочетаний изk
элементов по i.
Теперь мы можем обсудить способ подбора полинома порядка p, представляющего собой неслучайную составляющуюF(t) в разложении анализируемого рядаx(t).
Пример 8.3
Подбор аппроксимирующего полинома порядка p=1
Пусть
,
тогда
8.5.2. Преобразование Бокса-Дженкинса
Автокорреляция остатков первого порядка,
выявляемая с помощью статистики
Дарбина-Уотсона, говорит о неверной
спецификации уравнения либо о наличии
неучтенных факторов. Естественно, для
её устранения нужно попытаться выбрать
более адекватную формулу зависимости,
отыскать и включить важные неучтенные
факторы или уточнить период оценивания
регрессии. В некоторых случаях, однако,
это не даст результата, а отклонения еtпросто связаны авторегрессионной
зависимостью. Если это авторегрессия
первого порядка, то её формула имеет
вид(- коэффициент авторегрессии, (||<1),
и мы предполагаем, что остаткиutв этой формуле обладают нужными
свойствами, в частности - взаимно
независимы. Оценив,
введем новые переменные
,
(это преобразование называется
авторегрессионным (AР), или
преобразованием Бокса-Дженкинса). Пусть
мы оцениваем первоначально формулу
линейной регрессии
.
Тогда
Если величины utдействительно обладают нужными
свойствами, то в линейной регрессионной
зависимости
автокорреляции остатковutуже не будет, и статистика DW окажется
близкой к двум. Коэффициентbэтой
формулы принимается для исходной формулы
непосредственно, а коэффициент а
рассчитывается по формуле
.
Оценки коэффициентов а и bнужно сравнить с первоначальными оценками, полученными для расчета отклонений еt. Если эти оценки совпадают, то процесс заканчивается; если нет - то при новых значениях а иbвновь рассчитываются отклонения еtдо тех пор, пока оценки а иbна двух соседних итерациях не совпадут с требуемой точностью.
В случае, когда остатки иtтакже автокоррелированы, авторегрессионное преобразование может быть применено еще раз. Это означает использование авторегрессионного преобразования более высокого порядка, которое заключается в оценке коэффициентов авторегрессии соответствующего порядка для отклонении еtи использовании их для построения новых переменных. Такое преобразование вместо АР(1) называется АР(s) - если используется авторегрессия порядкаs.
О целесообразности применения авторегрессионного преобразования говорит некоррелированность полученных отклонений иt. Однако даже в этом случае истинной причиной первоначальной автокорреляции остатков может быть нелинейность формулы или неучтенный фактор. Мы же, вместо поиска этой причины, ликвидируем ее бросающееся в глаза следствие. В этом - основной недостаток метода АР и содержательное ограничение для его применения.
Во многих случаях сочетание методов АР и СС позволяет решить проблему автокорреляции остатков даже при небольших sиq. Еще раз повторим, что адекватным такое решение проблемы является лишь в том случае, если автокорреляция остатков имеет собственные внутренние причины, а не вызвана наличием неучтенных (одного или нескольких) факторов.
Методы АР и СС могут использоваться в сочетании с переходом от объемных величин в модели к приростным, для которых статистическая взаимосвязь может быть более точной и явной. Модель, сочетающая все эти подходы, называется моделью АРПСС. В общем виде ее формулу можно записать так
где {t} и {t} - неизвестные параметры, иt- независимые, одинаково нормально распределенные случайные величины с нулевым средним. Величины у* представляют собой конечные разности порядкаsвеличину, а модель обозначается как АРПСС(p,s,q).
Преобразования АР, СС и модель АРПСС полезно использовать в тех случаях, когда уже ясен круг объясняющих переменных и общий вид оцениваемой формулы, но в то же время остается существенная автокорреляция остатков. В качестве примера укажем оценивание производственных функции, где объясняющими переменными служат используемые объемы или темпы прироста труда и капитала, а требуемой формулой является, например, производственная функция Кобба-Дугласа или СЕS.