- •1. Природа економетрії.
- •2. Особливості економетричних моделей
- •4. Виробнича функція Кобба — Дугласа
- •5. Моделі пропозиції і попиту на конкурентному ринку
- •6. Модель Кейнса
- •7. Модель споживання
- •8. Загальний вигляд лінійної економетричної моделі, її структура та етапи побудови.
- •9. Передумови застосування методу найменших квадратів (1мнк). Оператор оцінювання 1мнк
- •13.Поняття мультиколінеaрності
- •14. .Ознаки мультиколінеарності
- •15.. Алгоритм Фаррара - Глобера
- •17. Суть гомо- та гетероскедастичності
- •19. Методи визначення гетероскедастичності
- •21. Узагальнений метод найменших квадратів (метод Ейткена)
- •24. Критерій Дарбіна — Уотсона
- •25. Критерій фон Неймана
- •26. Коефіцієнти автокореляції та їх застосування.
- •28. Метод Ейткена
- •29. Метод Кочрена — Оркатта
- •30. Метод перетворення вихідної інформації
- •31. Метод Дарбіна
- •40. Оцінювання параметрів авторегресійних моделей
- •41. Метод Ейткена
- •42. Ітеративний метод
- •43. Двокрокова процедура
- •44. Інструментальні змінні
- •46. Проблеми ідентифікації структурних моделей
- •51. Рекурсивні системи
- •53.Сутність методу інструментальних змінних
- •54. Методи інструментальних змінних
- •55.Оператор оцінювання Вальда
- •56. Особливості оцінювання методом Бaртлета
- •57. Оператор оцінювання Дарбіна
- •58.Приклад побудови економетричної моделі на основі даних, що мають помилки вимірювання
- •59.Проблеми прогнозування
- •60.Постановка задачі прогнозування Рассмотрим вначале классическую регрессионную модель
- •Если теперь возьмем дополнительный набор
- •61.Безумовне прогнозування
- •62.Умовне прогнозування
- •63.Стійкість регресійної моделі
- •64.Оцінка якості прогнозів
60.Постановка задачі прогнозування Рассмотрим вначале классическую регрессионную модель
, (9.1)
которая в матричном виде записывается в виде (5.9)
. (9.2)
В соответствии с условиями Гаусса-Маркова математическое ожидание ошибок равно нулю, а их ковариационная матрица имеет диагональный вид с равными диагональными элементами:
. (9.3)
Пусть мы оценили модель (9.2):
, (9.4)
и проверка показала, что уравнение (9.4) адекватно отражает исходные данные.
Если теперь возьмем дополнительный набор
(9.5)
объясняющих переменных, не включенных в выборку, то естественно предположить, что соответствующая зависимая переменная удовлетворяет исходной модели (9.2), т. е.
, (9.6)
причем для ошибки по-прежнему выполняются условия Гаусса-Маркова
. (9.7)
Требуется оценить неизвестное значение . Отметим, что - случайная величина.
Задача прогнозирования сформулирована. Здесь возникают следующие вопросы.
1 Как оценивать при безусловном и условном прогнозированиях?
2 Насколько устойчива регрессионная модель при прогнозировании, т. е. сравнимо ли поведение модели в момент времени с ее поведением в период выборки ( )?
3 Как оценивать качество прогноза?
61.Безумовне прогнозування
Оценка прогнозируемого значения является предсказанием, если вектор объясняющих переменных известен точно. Например, мы строим временной тренд, т. е. зависимость показателя от времени ; здесь значение объясняющей переменной - ожидаемое время . Или все объясняющие переменные – лаговые переменные с запаздыванием, тогда при их значения принадлежат выборке.
Поскольку, в соответствии с (9.6), (9.2), значение порождается тем же процессом, что и выборочные данные , то в качестве оценки логично взять МНК-оценку
. (9.8)
Величина
(9.9)
называется ошибкой предсказания в момент времени .
Вычислим математическое ожидание и дисперсию ошибки (9.9). Имеем
Здесь при получении дисперсии ошибки использованы выражения (5.13) – (5.15) для вектор-оценки и его ковариационной матрицы, а также условия Гаусса-Маркова (8.7). Таким образом,
. (9.10)
Видим, что ошибка предсказания (9.9) несмещена относительно нуля. Покажем также, что она является эффективной, т.е. что ее дисперсия (9.10) является минимальной в классе линейных (по ) несмещенных ошибок предсказания.
Действительно, пусть - возможная оценка , отличная от (9.8), которая (как и ) линейна по наблюдениям
, (9.11)
причем
. (9.12)
Тогда ошибка предсказания составит величину
.
Необходимо показать, что .
Воспользуемся следующим фактом: МНК-ошибка предсказания (9.9) не коррелирует с величиной , если - МНК-оценка предсказания, а - произвольная линейная по наблюдениям несмещенная оценка предсказания:
. (9.13)
Теперь
так как при .
Заменим в (9.10) неизвестную дисперсию ее оценкой . В результате получим такую оценку дисперсии ошибки предсказания:
. (9.14)
Величина называется среднеквадратической ошибкой предсказания. Если и имеют совместное нормальное распределение, то можно считать, что случайная величина имеет t-распределение с степенями свободы. Поэтому доверительным интервалом для прогнозного значения с уровнем значимости будет интервал
, (9.15)
где - двусторонний квантиль распределения Стьюдента с степенями свободы.
Нетрудно заметить, что формула (9.14) для оценки дисперсии ошибки предсказания имеет сходство с формулой (5.18) для ковариационной матрицы оцененной регрессии на базисных данных. Учитывая выражение (3.56) для дисперсии значения оцененной регрессии на базисных данных в случае двумерной регрессии, мы по аналогии можем записать формулу (9.14) для двумерной регрессии
, t = 1, ..., n.
Имеем
, (9.16)
откуда вытекает, что среднеквадратическая ошибка предсказания принимает наименьшее значение в середине данных по x. По мере удаления xn+1 от соответствующий доверительный интервал (9.15) становится шире (см. рис. 3.1).