4.3.3. Методы оценивания параметра
в моделях с автокоррелированными остатками
Реализация метода построения регрессионных моделей с автокоррелированными остатками возможна в ситуации, когда параметрявляется известной величиной. В практике такие ситуации встречаются крайне редко. Поэтому возникает необходимость в процедурах построения таких моделей, когда неизвестно. Опишем несколько таких процедур.
Расчет с использованием статистики Дарбина – Уотсона. Известно, что статистику Дарбина – Уотсона можно представить в виде
.
Из этого соотношения легко получить оценку параметра , приняв за нее автокорреляцию
. (4.119)
Такой метод оценивания рекомендуют применять при достаточно большом числе наблюдений.
Метод Кохрейне – Оркатта. Метод представляет собой итерационную процедуру из нескольких шагов:
-
С помощью обычного МНК строится регрессионная модель и рассчитывается вектор остатков ;
-
По полученным остаткам строится авторегрессионное уравнение , оценка параметра которого принимается за искомый параметр;
-
С помощью найденного значения осуществляется преобразование исходных данных, и находятся МНК-оценки регрессионной модели;
-
Рассчитывается новый вектор остатков ;
-
Процедура повторяется, начиная со второго шага.
Процедура заканчивается, когда очередное приближение мало отличается от предыдущего.
Метод Кохре йна – Оркатта предусмотрен большинством современных компьютерных пакетов.
Метод Хилдрета – Лу. Этот метод основан на подборе параметра из интервала его возможных значений (-1; 1). Подбор осуществляется следующим образом. Последовательно для каждого значения параметра , определяемого с некоторым шагом (например, 0,1 или 0,05), исходные данные преобразуются по формулам (3.90), (3.91) и рассчитываются МНК-оценки. В качестве финального выбирается то значение параметра , при котором сумма квадратов отклонений минимальна. Для получения уточненного значения в окрестности так полученного параметра устраивается более мелкая сетка и процесс повторяется.
Метод Дарбина. Для реализации этого метода уравнение линейной регрессии записывается в виде
. (4.120)
Смысл записанного таким образом уравнения в том, что включается в число регрессоров, а – число оцениваемых параметров.
Введем обозначения и и перепишем (4.120) следующим образом:
. (4.121)
Оценив параметры и уравнения (4.121) с помощью обычного МНК, можем получить оценки исходного уравнения регрессии в виде
; . (4.122)
В этом методе первое наблюдение исключается из расчетов, так как (4.120) записывается для .
4.3.4. Прогнозные расчеты при автокоррелированных остатках
В расчетах по модели с автокоррелированными остатками для повышения надежности прогнозных оценок можно использовать информацию об ошибках. Если ошибки в регрессионной модели образуют авторегрессионный процесс первого порядка
, , (4.123)
где – последовательность независимых нормально распределенных случайных величин с нулевым средним, постоянной дисперсией и , то в качестве прогнозной оценки можно вместо взять
. (4.124)
Так как
, (4.125)
то
. (4.126)
Можно получить выражение для дисперсии остатка , для чего вычислим квадрат этой ошибки
. (4.127)
Дисперсия равна математическому ожиданию полученного выражения
. (4.128)
Таким образом, если в прогнозных расчетах учитывается автокорреляция ошибки, то дисперсия прогнозной оценки уменьшается.
Чтобы этот результат можно было использовать в практике прогнозных расчетов, необходимо значения параметров и в формуле (4.124) заменить оценками, полученными с помощью одной из выше описанных процедур построения регрессии с автокоррелированными остатками
. (4.129)
Среднеквадратическая ошибка прогноза рассчитывается по формуле (4.128), в которой дисперсия заменяется оценкой , получаемой по остаткам построенной регрессии.