Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
econometrika / econometrika / Модуль8.doc
Скачиваний:
80
Добавлен:
27.03.2016
Размер:
374.78 Кб
Скачать

8.5.1. Метод последовательных разностей

Метод последовательных разностей (МПР) используется для подбора неслучайной составляющей временного ряда (в частности локального аппроксимирующего полинома степени p). МПР основан на следующем математическом факте: если анализируемый временной ряд x(t) содержит в качестве неслучайной составляющей алгебраический полином порядкаp, то переход к последовательным разностям, повторенный p+1 раз (порядка p+1), исключает неслучайную составляющую, включая 0, оставляя компоненты, выражающиеся только через случайную составляющую (t).

Процедура

Имеется ряд x(1), x(2), …, x(T). Введем

где - число сочетаний изk элементов по i.

Теперь мы можем обсудить способ подбора полинома порядка p, представляющего собой неслучайную составляющую F(t) в разложении анализируемого ряда x(t).

Пример 8.3

Подбор аппроксимирующего полинома порядка p=1

Пусть , тогда

Конец примера

8.5.2. Преобразование Бокса-Дженкинса

Автокорреляция остатков первого порядка, выявляемая с помощью статистики Дарбина-Уотсона, говорит о неверной спецификации уравнения либо о наличии неучтенных факторов. Естественно, для её устранения нужно попытаться выбрать более адекватную формулу зависимости, отыс­кать и включить важные неучтенные факторы или уточнить период оценивания регрессии. В некоторых случаях, однако, это не даст результата, а отклонения еt просто связаны авторегрессионной зави­симостью. Если это авторегрессия первого порядка, то её формула имеет вид ( - коэффициент авторегрессии, (||<1), и мы предполагаем, что остатки ut в этой формуле обладают нужными свойствами, в частности - взаимно независимы. Оценив , введем новые переменные , (это преобразование называется авторегрессионным (AР), или преобразованием Бокса-Дженкинса). Пусть мы оцениваем первоначально формулу линей­ной регрессии . Тогда

Если величины ut действительно обладают нужными свойствами, то в линейной регрессионной зависимости авто­корреляции остатков ut уже не будет, и статистика DW окажется близкой к двум. Коэффициент b этой формулы принимается для исходной формулы непосредственно, а коэффициент а

рассчитывается по формуле .

Оценки коэффициентов а и b нужно сравнить с первоначальными оценками, полученными для расчета отклонений еt. Если эти оценки совпадают, то процесс заканчивается; если нет - то при новых значениях а и b вновь рассчитываются отклонения еt до тех пор, пока оценки а и b на двух соседних итерациях не совпадут с требуемой точностью.

В случае, когда остатки иt также автокоррелированы, авторегрессионное преобразование может быть применено еще раз. Это означает использование авторегрессионного преобразования более высокого порядка, которое заключается в оценке коэффициентов авто­регрессии соответствующего порядка для отклонении еt и использовании их для построения новых переменных. Такое преобразование вместо АР(1) называется АР(s) - если используется авторегрессия порядка s.

О целесообразности применения авторегрессионного преобразо­вания говорит некоррелированность полученных отклонений иt. Однако даже в этом случае истинной причиной первоначальной автокорреляции остатков может быть нелинейность формулы или неучтенный фактор. Мы же, вместо поиска этой причины, ликви­дируем ее бросающееся в глаза следствие. В этом - основной недостаток метода АР и содержательное ограничение для его применения.

Во многих случаях сочетание методов АР и СС позволяет решить проблему автокорреляции остатков даже при небольших s и q. Еще раз повторим, что адекватным такое решение проблемы является лишь в том случае, если автокорреляция остатков имеет собственные внутренние причины, а не вызвана наличием неучтенных (одного или нескольких) факторов.

Методы АР и СС могут использоваться в сочетании с переходом от объемных величин в модели к приростным, для которых статистическая взаимосвязь может быть более точной и явной. Модель, сочетающая все эти подходы, называется моделью АРПСС. В общем виде ее формулу можно записать так

где {t} и {t} - неизвестные параметры, и t - независимые, оди­наково нормально распределенные случайные величины с нулевым средним. Величи­ны у* представляют собой конечные разности порядка d величин у, а модель обозначается как АРПСС(p,d,q).

Преобразования АР, СС и модель АРПСС полезно использовать в тех случаях, когда уже ясен круг объясняющих переменных и общий вид оцениваемой формулы, но в то же время остается сущес­твенная автокорреляция остатков. В качестве примера укажем оце­нивание производственных функции, где объясняющими перемен­ными служат используемые объемы или темпы прироста труда и капитала, а требуемой формулой является, например, производственная функция Кобба-Дугласа или СЕS.

Соседние файлы в папке econometrika