- •2. Основные этапы построения модели временного ряда
- •4. Метод декомпозиции временного ряда. Предпосылки к его применению для прогнозирования. Основные структурно образующие компоненты в декомпозиции временного ряда. (с. 62)
- •5. Понятие тренда. Понятие кривой роста. Примеры кривых роста, используемых в прогнозировании социально-экономических процессов. (с. 33)
- •6. Полиномиальные кривые. Их свойства. Использование метода характеристик прироста для выбора степени полинома. (с 16,37)
- •8. Что такое линеаризация модели? Как выполняется линеаризация простой экспоненты? Как используется это преобразование в оценке параметров модели и получении интервального прогноза?
- •9. Метод оценки параметров моделей линейного и экспоненциального тренда по двум точкам.
- •11.Свойства мнк-оценок параметров модели. Условия Гаусса-Маркова.
- •2.Условие постоянства дисперсии случайной компоненты (гомоскедастичность).
- •13. Показатели, используемые для оценки точности трендовых прогнозных моделей.
- •14. Понятия адекватности прогнозной модели.
- •15. Формула интервального прогноза по модели линейного тренда. Для каких ещё кривых роста можно её применять?
- •16.Ретроспективный прогноз. Верификация прогноза.
- •17.Сезонная неравномерность, ее показатели. Понятие индекса сезонности. Метод оценки сезонной компоненты усреднением по числу периодов сезонности.
- •18. Понятия экстраполяции и периода упреждения в прогнозировании. Выбор длины периода упреждения.
- •20. Модели авторегрессии. Предпосылки к применению этих моделей. Преобразование исходных данных для построения модели авторегрессии.
- •21. Понятие частной автокорреляционной функции. Ее применение для оценки порядка модели авторегрессии.
- •22. Применение метода скользящего среднего в краткосрочном прогнозировании. Простое скользящее среднее и экспоненциальное сглаживание.
- •23. Модели Брауна нулевого и первого порядка.
- •24.Многофакторная модель временного ряда. Методы отбора факторов
- •25.Построение модели регрессии на главных компонентах.
25.Построение модели регрессии на главных компонентах.
Регрессия на главных компонентах обеспечивает увеличение значимости параметров модели за счёт введения искусственной ортогональности между новыми независимыми переменными (главными компонентами), число которых может быть меньше, чем число первоначально включённых факторов.
Найдём собственные числа матрицы парных корреляций между факторами из набора Х. (Множество собственных чисел квадратной матрицы А совпадает с множеством решений характеристического уравнения ). В MathCad для нахождения собственных чисел матрицы есть функция eigenvals.
Затем определим собственные векторы для матрицы парных корреляций. (Нулевой вектор Λ называется собственным вектором квадратной матрицы А, принадлежащим её собственному значению λ, если АΛ=λΛ). Собственные векторы симметричной матрицы ортогональны . В MathCad для нахождения собственных векторов матрицы есть функция eigenvecs.
Центруем векторы Х (вычитаем среднее значение и делим на средне квадратичное отклонение). Получаем набор векторов Z. Переходим к новым факторам F, так называемым главным компонентам, умножением матрицы Z на собственные векторы .
Уравнение регрессии на главных компонентах F имеет такой же коэффициент детерминации, как и регрессия X и Y. Исключив незначимые факторы из набора F, получим уравнение, в котором представлены все факторы из набора Х, но в виде их линейных комбинаций.
В факторном анализе этим комбинациям факторов рекомендуется присвоить новые названия в соответствии с экономическим смыслом.