- •1. Природа економетрії.
- •2. Особливості економетричних моделей
- •4. Виробнича функція Кобба — Дугласа
- •5. Моделі пропозиції і попиту на конкурентному ринку
- •6. Модель Кейнса
- •7. Модель споживання
- •8. Загальний вигляд лінійної економетричної моделі, її структура та етапи побудови.
- •9. Передумови застосування методу найменших квадратів (1мнк). Оператор оцінювання 1мнк
- •13.Поняття мультиколінеaрності
- •14. .Ознаки мультиколінеарності
- •15.. Алгоритм Фаррара - Глобера
- •17. Суть гомо- та гетероскедастичності
- •19. Методи визначення гетероскедастичності
- •21. Узагальнений метод найменших квадратів (метод Ейткена)
- •24. Критерій Дарбіна — Уотсона
- •25. Критерій фон Неймана
- •26. Коефіцієнти автокореляції та їх застосування.
- •28. Метод Ейткена
- •29. Метод Кочрена — Оркатта
- •30. Метод перетворення вихідної інформації
- •31. Метод Дарбіна
- •40. Оцінювання параметрів авторегресійних моделей
- •41. Метод Ейткена
- •42. Ітеративний метод
- •43. Двокрокова процедура
- •44. Інструментальні змінні
- •46. Проблеми ідентифікації структурних моделей
- •51. Рекурсивні системи
- •53.Сутність методу інструментальних змінних
- •54. Методи інструментальних змінних
- •55.Оператор оцінювання Вальда
- •56. Особливості оцінювання методом Бaртлета
- •57. Оператор оцінювання Дарбіна
- •58.Приклад побудови економетричної моделі на основі даних, що мають помилки вимірювання
- •59.Проблеми прогнозування
- •60.Постановка задачі прогнозування Рассмотрим вначале классическую регрессионную модель
- •Если теперь возьмем дополнительный набор
- •61.Безумовне прогнозування
- •62.Умовне прогнозування
- •63.Стійкість регресійної моделі
- •64.Оцінка якості прогнозів
60.Постановка задачі прогнозування Рассмотрим вначале классическую регрессионную модель
,
(9.1)
которая в матричном виде записывается в виде (5.9)
.
(9.2)
В соответствии с условиями Гаусса-Маркова математическое ожидание ошибок равно нулю, а их ковариационная матрица имеет диагональный вид с равными диагональными элементами:
.
(9.3)
Пусть мы оценили модель (9.2):
,
(9.4)
и проверка показала, что уравнение (9.4) адекватно отражает исходные данные.
Если теперь возьмем дополнительный набор
(9.5)
объясняющих
переменных, не включенных в выборку, то
естественно предположить, что
соответствующая зависимая переменная
удовлетворяет исходной модели (9.2), т.
е.
,
(9.6)
причем
для ошибки
по-прежнему выполняются условия
Гаусса-Маркова
.
(9.7)
Требуется оценить неизвестное значение . Отметим, что - случайная величина.
Задача прогнозирования сформулирована. Здесь возникают следующие вопросы.
1 Как оценивать при безусловном и условном прогнозированиях?
2
Насколько устойчива регрессионная
модель при прогнозировании, т. е. сравнимо
ли поведение модели в момент времени
с ее поведением в период выборки (
)?
3 Как оценивать качество прогноза?
61.Безумовне прогнозування
Оценка
прогнозируемого значения
является предсказанием, если вектор
объясняющих переменных
известен точно. Например, мы строим
временной тренд, т. е. зависимость
показателя
от времени
;
здесь значение объясняющей переменной
-
ожидаемое время
.
Или все объясняющие переменные – лаговые
переменные с запаздыванием, тогда при
их значения принадлежат выборке.
Поскольку,
в соответствии с (9.6), (9.2), значение
порождается тем же процессом, что и
выборочные данные
,
то в качестве оценки
логично взять МНК-оценку
.
(9.8)
Величина
(9.9)
называется ошибкой предсказания в момент времени .
Вычислим математическое ожидание и дисперсию ошибки (9.9). Имеем
Здесь при
получении дисперсии ошибки
использованы выражения (5.13) – (5.15) для
вектор-оценки
и его ковариационной матрицы, а также
условия Гаусса-Маркова (8.7). Таким образом,
.
(9.10)
Видим, что ошибка предсказания (9.9) несмещена относительно нуля. Покажем также, что она является эффективной, т.е. что ее дисперсия (9.10) является минимальной в классе линейных (по ) несмещенных ошибок предсказания.
Действительно,
пусть
-
возможная оценка
,
отличная от
(9.8), которая (как и
)
линейна по наблюдениям
,
(9.11)
причем
.
(9.12)
Тогда ошибка предсказания составит величину
.
Необходимо
показать, что
.
Воспользуемся
следующим фактом: МНК-ошибка предсказания
(9.9) не коррелирует с величиной
,
если
-
МНК-оценка предсказания, а
-
произвольная линейная по наблюдениям
несмещенная оценка предсказания:
.
(9.13)
Теперь
так как
при
.
Заменим
в (9.10) неизвестную дисперсию
ее оценкой
.
В результате получим такую оценку
дисперсии ошибки предсказания:
.
(9.14)
Величина
называется среднеквадратической
ошибкой предсказания.
Если
и
имеют совместное нормальное распределение,
то можно считать, что случайная величина
имеет t-распределение
с
степенями свободы. Поэтому доверительным
интервалом для прогнозного значения
с уровнем значимости
будет интервал
,
(9.15)
где - двусторонний квантиль распределения Стьюдента с степенями свободы.
Нетрудно заметить, что формула (9.14) для оценки дисперсии ошибки предсказания имеет сходство с формулой (5.18) для ковариационной матрицы оцененной регрессии на базисных данных. Учитывая выражение (3.56) для дисперсии значения оцененной регрессии на базисных данных в случае двумерной регрессии, мы по аналогии можем записать формулу (9.14) для двумерной регрессии
,
t
= 1, ..., n.
Имеем
,
(9.16)
откуда
вытекает, что среднеквадратическая
ошибка предсказания
принимает наименьшее значение в середине
данных по x.
По мере удаления xn+1
от
соответствующий доверительный интервал
(9.15) становится шире (см. рис. 3.1).
