Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
3454.doc
Скачиваний:
8
Добавлен:
18.09.2019
Размер:
2.24 Mб
Скачать

60.Постановка задачі прогнозування Рассмотрим вначале классическую регрессионную модель

, (9.1)

которая в матричном виде записывается в виде (5.9)

. (9.2)

В соответствии с условиями Гаусса-Маркова математическое ожидание ошибок равно нулю, а их ковариационная матрица имеет диагональный вид с равными диагональными элементами:

. (9.3)

Пусть мы оценили модель (9.2):

, (9.4)

и проверка показала, что уравнение (9.4) адекватно отражает исходные данные.

Если теперь возьмем дополнительный набор

(9.5)

объясняющих переменных, не включенных в выборку, то естественно предположить, что соответствующая зависимая переменная удовлетворяет исходной модели (9.2), т. е.

, (9.6)

причем для ошибки по-прежнему выполняются условия Гаусса-Маркова

. (9.7)

Требуется оценить неизвестное значение . Отметим, что - случайная величина.

Задача прогнозирования сформулирована. Здесь возникают следующие вопросы.

1 Как оценивать при безусловном и условном прогнозированиях?

2 Насколько устойчива регрессионная модель при прогнозировании, т. е. сравнимо ли поведение модели в момент времени с ее поведением в период выборки ( )?

3 Как оценивать качество прогноза?

61.Безумовне прогнозування

Оценка прогнозируемого значения является предсказанием, если вектор объясняющих переменных известен точно. Например, мы строим временной тренд, т. е. зависимость показателя от времени ; здесь значение объясняющей переменной - ожидаемое время . Или все объясняющие переменные – лаговые переменные с запаздыванием, тогда при их значения принадлежат выборке.

Поскольку, в соответствии с (9.6), (9.2), значение порождается тем же процессом, что и выборочные данные , то в качестве оценки логично взять МНК-оценку

. (9.8)

Величина

(9.9)

называется ошибкой предсказания в момент времени .

Вычислим математическое ожидание и дисперсию ошибки (9.9). Имеем

Здесь при получении дисперсии ошибки использованы выражения (5.13) – (5.15) для вектор-оценки и его ковариационной матрицы, а также условия Гаусса-Маркова (8.7). Таким образом,

. (9.10)

Видим, что ошибка предсказания (9.9) несмещена относительно нуля. Покажем также, что она является эффективной, т.е. что ее дисперсия (9.10) является минимальной в классе линейных (по ) несмещенных ошибок предсказания.

Действительно, пусть - возможная оценка , отличная от (9.8), которая (как и ) линейна по наблюдениям

, (9.11)

причем

. (9.12)

Тогда ошибка предсказания составит величину

.

Необходимо показать, что .

Воспользуемся следующим фактом: МНК-ошибка предсказания (9.9) не коррелирует с величиной , если - МНК-оценка предсказания, а - произвольная линейная по наблюдениям несмещенная оценка предсказания:

. (9.13)

Теперь

так как при .

Заменим в (9.10) неизвестную дисперсию ее оценкой . В результате получим такую оценку дисперсии ошибки предсказания:

. (9.14)

Величина называется среднеквадратической ошибкой предсказания. Если и имеют совместное нормальное распределение, то можно считать, что случайная величина имеет t-распределение с степенями свободы. Поэтому доверительным интервалом для прогнозного значения с уровнем значимости будет интервал

, (9.15)

где - двусторонний квантиль распределения Стьюдента с степенями свободы.

Нетрудно заметить, что формула (9.14) для оценки дисперсии ошибки предсказания имеет сходство с формулой (5.18) для ковариационной матрицы оцененной регрессии на базисных данных. Учитывая выражение (3.56) для дисперсии значения оцененной регрессии на базисных данных в случае двумерной регрессии, мы по аналогии можем записать формулу (9.14) для двумерной регрессии

, t = 1, ..., n.

Имеем

, (9.16)

откуда вытекает, что среднеквадратическая ошибка предсказания принимает наименьшее значение в середине данных по x. По мере удаления xn+1 от соответствующий доверительный интервал (9.15) становится шире (см. рис. 3.1).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]