
- •В.В. Давнис, в.И. Тинякова эконометрические методы прогнозирования
- •1. Теоретические основы прогнозирования
- •1.1. Сущность экономического прогнозирования
- •1.2. Типология прогнозов
- •1.3. Этапы прогнозирования
- •2. Экстраполяция временных рядов
- •2.1. Сущность экстраполяции
- •2.2. Типы роста и трендовые модели
- •2.3. Метод наименьших квадратов (мнк)
- •В общем случае поиск оптимальных параметров сводится к решению нелинейной экстремальной задачи. Обычно рассматривают линейный случай
- •Решая линейную систему (2.26) с помощью замены
- •2.4. Адекватность. Критерий Дарбина – Уотсона
- •2.5. Критерии точности прогнозных расчетов
- •3. Регрессионный анализ и прогноз
- •3.1. Множественная регрессия
- •3.1.1. Основные понятия регрессионного анализа
- •3.1.2. Общий вид модели множественной регрессии
- •3.1.3. Метод наименьших квадратов в матричной форме
- •3.1.4. Парная регрессия как частный случай множественной
- •3.1.5. Мультиколлинеарность факторов
- •3.1.6. Особенности применение регрессионных моделей в прогнозных расчетах
- •3.2. Обобщенный регрессионный анализ
- •3.2.1. Обобщенная схема мнк
- •Здесь использован тот факт, что
- •3.2.2. Метод взвешенных наименьших квадратов
- •3.2.3. Корректировка стандартных ошибок
- •3.2.4. Тесты на гетероскедастичность
- •3.3. Регрессионные модели с автокоррелированными остатками
- •3.3.1.Общая схема мнк в случае автокорреляции первого порядка
- •3.3.2. Методы тестирования на автокорреляцию
- •3.3.3. Методы оценивания параметра
- •3.3.4. Прогнозные расчеты при автокоррелированных остатках
- •3.4. Регрессионные модели с лаговыми переменными
- •3.4.1. Общий вид моделей с лагами в независимых переменных
- •4. Авторегрессионные процессы и их модели
- •4.1. Стационарность
- •4.2. Модель авторегрессии
- •4.3. Понятие интеграции
- •4.4. Модели скользящей средней
- •4.5. Авторегрессионные модели скользящей средней
- •4.6. Авторегрессионные интегрированные модели скользящей средней
- •4.7. Коэффициент автокорреляции и проверка его значимости
- •4.8. Определение порядка моделей arma
- •4.9. Построение моделей arima
- •4.10. Проверка адекватности моделей arma
- •4.11. Оценка точности прогнозных расчетов по моделям arima
- •5. Адаптивные модели прогнозирования
- •5.1. Специфика адаптивного моделирования
- •5.2. Полиномиальные модели
- •5.3. Рекуррентный метод наименьших квадратов
- •5.4. Многофакторные адаптивные модели
- •5.5. Адаптивные многошаговые модели
- •5.6. Выбор начальных значений и
- •6. Прогнозирование сезонных колебаний
- •6.1. Моделирование периодических колебаний
- •Эта запись получена с использованием тригонометрического тождества
- •6.2. Аддитивная и мультипликативная модели
- •6.3. Моделирование сезонных колебаний
- •6.4. Адаптивные модели сезонных явлений
3.2.2. Метод взвешенных наименьших квадратов
Неоднородность дисперсии. Частным случаем обобщенного метода наименьших квадратов является метод взвешенных наименьших квадратов. Его обычно применяют для построения моделей, когда дисперсия случайных остатков неоднородна, т.е. имеет место гетероскедастичность. Предположения, лежащие в основе построения этой модели, выглядят следующим образом:
1.
–
спецификация модели;
2.
–
детерминированная матрица, имеющая
максимальный ранг
;
3а.
,
3b.
,
где матрица
диагональная с неравными элементами.
В
некоторых случаях удобно считать, что
элементы ковариационной матрицы
представимы в виде
,
а весовые коэффициенты
нормированы так, что
.
Если
для всех
,
то модель с гетероскедастичностью
сводится к классической с гомоскедастичными
остатками.
Применение формулы (3.75) для расчета оценок регрессионного уравнения в условиях гетероскедастичности эквивалентно минимизации взвешенной суммы квадратов
.
(3.76)
Последнее выражение
позволяет понять содержательный смысл
метода взвешенных наименьших квадратов.
Как было показано выше, применение
стандартного МНК к неоднородным данным
дает неэффективные оценки. Причина в
том, что не учитывается зависящий от
дисперсии уровень статистического
вклада каждого слагаемого. «Взвешивание»
каждого отклонения с помощью величины
,
предусмотренное в методе взвешенных
наименьших квадратов, устраняет
неоднородность, причем более точным
наблюдениям (с меньшей дисперсией)
придается «больший вес».
В практических расчетах применяют различные приемы для устранения эффектов гетероскедастичности в зависимости от того, что принимается за оценку неизвестной дисперсии.
Пропорциональность
дисперсии независимой переменной.
Если есть основания считать, что дисперсия
ошибки прямо пропорциональна квадрату
одной из независимых переменных модели,
т.е.
,
то путем деления на эту независимую
переменную всех (зависимой и независимых)
переменных модели случай гетероскедастичности
сводится к классической модели.
В более сложном
случае можно считать, что дисперсия
зависит от нескольких независимых
переменных, например
и
,
.
(3.77)
Тогда моделирование осуществляется в три этапа с использованием идей доступного МНК. На первом этапе с помощью стандартного МНК строится регрессия
(3.78)
и
вычисляются остатки, квадраты которых
принимаются за оценки
.
На втором этапе для этих оценок строится регрессия, расчетные значения которой используются для получения весовых коэффициентов, применяемых в методе взвешенных наименьших квадратов на завершающем этапе построения модели.
Двухуровневая
дисперсия. Встречаются ситуации,
когда данные неоднородны по дисперсии,
но их можно разделить на две группы
однородных. Пусть, например, в первой
группе
наблюдение с дисперсией
для
,
а во второй –
наблюдений
с дисперсией
для
.
Значения
и
неизвестны.
Для этого случая также можно предложить многоэтапную процедуру оценивания коэффициентов регрессии на основе доступного МНК.
На первом этапе
стандартным МНК получают коэффициенты
обычной регрессии и с ее помощью
рассчитывают остатки
.
На втором этапе в соответствии с группировкой данных строят оценки неизвестных значений дисперсий
,
.
(3.79)
На следующем этапе
все переменные первых
уравнений делятся на
,
а остальные – на
.
К преобразованным уравнениям применяется
обычный МНК, завершающий построение
модели.
Этот подход к построению регрессии в условиях гетероскедастичности с двухуровневой дисперсией допускает обобщение на случай, когда дисперсия имеет не два, а несколько различных уровней.