
4.3.3. Методы оценивания параметра
в моделях с автокоррелированными остатками
Реализация метода
построения регрессионных моделей с
автокоррелированными остатками возможна
в ситуации, когда параметрявляется
известной величиной.
В практике
такие ситуации встречаются крайне
редко. Поэтому возникает необходимость
в процедурах построения таких моделей,
когда
неизвестно.
Опишем несколько таких процедур.
Расчет
с
использованием статистики Дарбина –
Уотсона. Известно,
что статистику Дарбина – Уотсона можно
представить в виде
.
Из этого соотношения
легко получить оценку параметра
,
приняв за нее автокорреляцию
.
(4.119)
Такой метод оценивания рекомендуют применять при достаточно большом числе наблюдений.
Метод Кохрейне – Оркатта. Метод представляет собой итерационную процедуру из нескольких шагов:
-
С помощью обычного МНК строится регрессионная модель
и рассчитывается вектор остатков
;
-
По полученным остаткам
строится авторегрессионное уравнение
, оценка параметра которого
принимается за искомый параметр;
-
С помощью найденного значения
осуществляется преобразование исходных данных, и находятся МНК-оценки
регрессионной модели;
-
Рассчитывается новый вектор остатков
;
-
Процедура повторяется, начиная со второго шага.
Процедура
заканчивается, когда очередное приближение
мало отличается от предыдущего.
Метод Кохре йна – Оркатта предусмотрен большинством современных компьютерных пакетов.
Метод Хилдрета
– Лу. Этот
метод основан на подборе параметра
из интервала
его возможных значений (-1; 1). Подбор
осуществляется следующим образом.
Последовательно для каждого значения
параметра
,
определяемого с некоторым шагом
(например, 0,1 или 0,05), исходные данные
преобразуются по формулам (3.90), (3.91) и
рассчитываются МНК-оценки. В качестве
финального выбирается то значение
параметра
,
при котором сумма квадратов отклонений
минимальна. Для получения уточненного
значения в окрестности так полученного
параметра устраивается более мелкая
сетка и процесс повторяется.
Метод Дарбина. Для реализации этого метода уравнение линейной регрессии записывается в виде
.
(4.120)
Смысл записанного
таким образом уравнения в том, что
включается в число регрессоров, а
–
число оцениваемых параметров.
Введем обозначения
и
и перепишем (4.120) следующим образом:
.
(4.121)
Оценив параметры
и
уравнения (4.121) с помощью обычного МНК,
можем получить оценки исходного уравнения
регрессии в виде
;
.
(4.122)
В этом методе
первое наблюдение исключается из
расчетов, так как (4.120) записывается для
.
4.3.4. Прогнозные расчеты при автокоррелированных остатках
В расчетах по модели с автокоррелированными остатками для повышения надежности прогнозных оценок можно использовать информацию об ошибках. Если ошибки в регрессионной модели образуют авторегрессионный процесс первого порядка
,
,
(4.123)
где
– последовательность независимых
нормально распределенных случайных
величин с нулевым средним, постоянной
дисперсией
и
,
то в качестве прогнозной оценки можно
вместо
взять
.
(4.124)
Так как
,
(4.125)
то
.
(4.126)
Можно получить
выражение для дисперсии остатка
,
для чего вычислим квадрат этой ошибки
.
(4.127)
Дисперсия равна математическому ожиданию полученного выражения
.
(4.128)
Таким образом, если в прогнозных расчетах учитывается автокорреляция ошибки, то дисперсия прогнозной оценки уменьшается.
Чтобы этот результат
можно было использовать в практике
прогнозных расчетов, необходимо значения
параметров
и
в формуле (4.124) заменить оценками,
полученными с помощью одной из выше
описанных процедур построения регрессии
с автокоррелированными остатками
.
(4.129)
Среднеквадратическая
ошибка прогноза рассчитывается по
формуле (4.128), в которой дисперсия
заменяется оценкой
,
получаемой по остаткам построенной
регрессии.