- •В.В. Давнис, в.И. Тинякова эконометрические методы прогнозирования
- •1. Теоретические основы прогнозирования
- •1.1. Сущность экономического прогнозирования
- •1.2. Типология прогнозов
- •1.3. Этапы прогнозирования
- •2. Экстраполяция временных рядов
- •2.1. Сущность экстраполяции
- •2.2. Типы роста и трендовые модели
- •2.3. Метод наименьших квадратов (мнк)
- •В общем случае поиск оптимальных параметров сводится к решению нелинейной экстремальной задачи. Обычно рассматривают линейный случай
- •Решая линейную систему (2.26) с помощью замены
- •2.4. Адекватность. Критерий Дарбина – Уотсона
- •2.5. Критерии точности прогнозных расчетов
- •3. Регрессионный анализ и прогноз
- •3.1. Множественная регрессия
- •3.1.1. Основные понятия регрессионного анализа
- •3.1.2. Общий вид модели множественной регрессии
- •3.1.3. Метод наименьших квадратов в матричной форме
- •3.1.4. Парная регрессия как частный случай множественной
- •3.1.5. Мультиколлинеарность факторов
- •3.1.6. Особенности применение регрессионных моделей в прогнозных расчетах
- •3.2. Обобщенный регрессионный анализ
- •3.2.1. Обобщенная схема мнк
- •Здесь использован тот факт, что
- •3.2.2. Метод взвешенных наименьших квадратов
- •3.2.3. Корректировка стандартных ошибок
- •3.2.4. Тесты на гетероскедастичность
- •3.3. Регрессионные модели с автокоррелированными остатками
- •3.3.1.Общая схема мнк в случае автокорреляции первого порядка
- •3.3.2. Методы тестирования на автокорреляцию
- •3.3.3. Методы оценивания параметра
- •3.3.4. Прогнозные расчеты при автокоррелированных остатках
- •3.4. Регрессионные модели с лаговыми переменными
- •3.4.1. Общий вид моделей с лагами в независимых переменных
- •4. Авторегрессионные процессы и их модели
- •4.1. Стационарность
- •4.2. Модель авторегрессии
- •4.3. Понятие интеграции
- •4.4. Модели скользящей средней
- •4.5. Авторегрессионные модели скользящей средней
- •4.6. Авторегрессионные интегрированные модели скользящей средней
- •4.7. Коэффициент автокорреляции и проверка его значимости
- •4.8. Определение порядка моделей arma
- •4.9. Построение моделей arima
- •4.10. Проверка адекватности моделей arma
- •4.11. Оценка точности прогнозных расчетов по моделям arima
- •5. Адаптивные модели прогнозирования
- •5.1. Специфика адаптивного моделирования
- •5.2. Полиномиальные модели
- •5.3. Рекуррентный метод наименьших квадратов
- •5.4. Многофакторные адаптивные модели
- •5.5. Адаптивные многошаговые модели
- •5.6. Выбор начальных значений и
- •6. Прогнозирование сезонных колебаний
- •6.1. Моделирование периодических колебаний
- •Эта запись получена с использованием тригонометрического тождества
- •6.2. Аддитивная и мультипликативная модели
- •6.3. Моделирование сезонных колебаний
- •6.4. Адаптивные модели сезонных явлений
5.3. Рекуррентный метод наименьших квадратов
Прежде чем рассмотреть адаптивные многофакторные модели, приведем схемы рекуррентного метода наименьших квадратов (РМНК), лежащих в основе построения этих моделей. Благодаря совместному использованию рекуррентной схемы оценивания и процедуры экспоненциального сглаживания удается построить прогнозные модели, в которых, по сути, реализованы основные принципы адаптации.
Изложим сначала одношаговую схему РМНК. Для этого введем следующие обозначения:
n – объем выборочной совокупности;
– число независимых переменных моделей;
– -я вектор-строка независимых переменных;
–( n x (m+1))-матрица из независимых переменных.
Чтобы понять, как формируется матрица системы нормальных уравнений, запишем выражение для произведения вектора-столбца на вектор-строку
.
Используя данное представление, можно записать схему вычисления матрицы системы нормальных уравнений следующим образом:
.
Такая схема формирования матрицы делает понятным запись
.
Аналогично можно записать
,
где – вектор-столбец из n зависимых переменных.
Рассмотрим линейную регрессионную модель
, (5.33)
где – вектор-столбец коэффициентов модели,
– вектор-столбец ненаблюдаемых случайных составляющих.
Предположим, что уже получены оценки ее коэффициентов по данным выборочной совокупности из () наблюдения. Требуется в ситуации, когда в выборочную совокупность добавлено новое наблюдение , пересчитать оценки коэффициентов регрессии, используя для этого ранее полученные оценки . Такие ситуации возникают при обработке очень больших массивов данных, когда их хранение вызывает определенные затруднения, а также, как уже отмечалось, в тех случаях, когда по смыслу решаемой задачи требуется последовательная обработка вновь поступающих наблюдений.
В рассматриваемой ситуации формулу для вычисления вектора оценок коэффициентов регрессионной модели можно записать следующим образом:
. (5.34)
Для удобства обозначим
.
Далее будем использовать формулу Шермана – Моррисона для рекуррентного обращения матриц
. (5.35)
Используя формулу (5.35), выражение (5.34) можно переписать в виде
Перегруппируем члены полученного выражения
Объединив второй и третий члены и вынеся общие множители и , а также, выполнив умножение в последнем члене выражения, получаем
Окончательно, выполнив приведение к общему знаменателю в квадратных скобках, получаем
. (5.36)
Полученная формула позволяет осуществлять пересчет оценок рекуррентно по мере появления новых наблюдений. С ее помощью реализуются основные идеи построения адаптивных многофакторных регрессионных моделей.
Перейдем к изложению схемы многошагового РМНК. Применение многошаговой процедуры возникает в тех ситуациях, когда выборочная совокупность пополняется одновременно несколькими наблюдениями. В принципе эти наблюдения можно обработать последовательно с помощью рассмотренной выше одношагового РМНК. Однако не всегда такой подход удобен. Кроме того, при настройке параметров адаптивной модели в некоторых случаях возникает необходимость учитывать информацию, полученную в результате нескольких одновременно проведенных измерений. Поэтому имеет смысл обратиться к многошаговой процедуре.
Введем дополнительные обозначения:
– матрица из k последних строк независимых переменных выборочной совокупности;
– вектор-столбец, компонентами которого являются k последних наблюдений зависимой переменной;
– (k x k)-единичная матрица.
Используя прием, аналогичный рассмотренному выше, запишем формулу для расчета вектора оценок коэффициентов регрессионной модели следующим образом:
. (5.37)
Для удобства обозначим
.
Используя формулу Шермана – Моррисона – Вутбери
, (5.38)
перепишем выражение (5.37), заменив в нем обратную матрицу на (5.38), и проведем ряд очевидных преобразований полученного выражения
Результат перемножения в третьем члене взаимоуничтожается со вторым членом, а вынесение общего множителя из четвертого и пятого членов приводит к рекуррентной форме
. (5.39)
С помощью полученной формулы осуществляется рекуррентный пересчет оценок в тех случаях, когда новые наблюдения появляются не по одному, а целыми группами сразу.