- •Раздел 1. Основные понятия эконометрики
- •1.1. Предмет и задачи дисциплины эконометрики
- •1.2. Виды взаимосвязей между признаками
- •1.3. Виды эконометрических моделей
- •Раздел 2. Модели множественной регрессии
- •2.1. Особенности проведения этапа спецификации при построении модели множественной регрессии
- •2.2. Оценка мультиколлинеарности в моделях множественной регрессии
- •2.3. Подходы к устранению мультиколлинеарности в моделях множественной регрессии
- •2.4. Компонентный анализ
- •Матрица факторных нагрузок
- •Матрицы главных компонент
- •2.5. Непосредственная оценка параметров множественной регрессии
- •2.6. Пример построения линейной парной регрессионной модели
- •2.7. Нелинейная регрессия. Виды моделей нелинейной регрессии
- •2.8. Оценка качества регрессионной модели в целом
- •2.9. Оценка значимости факторов, включаемых в модель множественной регрессии
- •2.10. Оценка погрешности регрессионной модели
- •2.11. Анализ влияния факторов на результативный показатель
- •2.12. Фиктивные переменные модели множественной регрессии
- •2.13. Предпосылки метода наименьших квадратов
- •2.14. Обобщенный мнк
- •2.15. Метод наименьших модулей отклонений
- •Раздел 3. Система эконометрических уравнений
- •3.1. Классификация систем эконометрических уравнений
- •3.2. Приведенная форма системы эконометрических уравнений. Проблема идентификации в системах взаимозависимых уравнений
- •3.3. Косвенный мнк (кмнк)
- •3.4. Необходимое условие идентификации структурной формы системы эконометрических уравнений
- •3.5. Достаточное условие идентификации структурной системы эконометрических уравнений
- •3.6. Двухшаговый мнк
- •Раздел 4. Динамические эконометрические модели
- •4.1. Виды динамических зконометрических моделей
- •4.2. Одномерные временные ряды
- •4.3. Временные ряды с детерминированными зависимостями
- •4.4. Моделирование временных рядов со стохастическими зависимостями
- •4.5. Анализ автокорреляции остатков
- •Пример 1, иллюстрирующий проблему автокорреляции
- •Пример 2, иллюстрирующий проблему лагов и изменения условий
- •Пример 3
- •Решение
- •4.7. Динамические модели авторегрессии
- •4.8. Выравнивание одномерного временного ряда
- •4.9. Адаптация эконометрических моделей
- •Раздел 5. Экономико-статистическое прогнозирование
- •5.1. Сущность прогнозов и их классификация
- •Экономические прогнозы в свою очередь могут подразделяться в зависимости от масштаба объекта на:
- •5.2. Методы прогнозирования и их классификация
- •5.3. Прогнозная статистическая экстраполяция
- •5.4. Прогнозные модели технического анализа
- •Раздел 6. Информационные технологии эконометрических исследований
- •Литература
- •Терминологический словарь
2.3. Подходы к устранению мультиколлинеарности в моделях множественной регрессии
Существует ряд подходов преодоления мультиколлинеарности:
Самый простой путь – исключение из модели одного или нескольких факторов, ответственных за мультиколлинеарность.
Другой подход связан с преобразованием факторов, при котором уменьшается корреляция между ними. Основным методом такого рода является метод главных компонент (компонентный анализ)
Путем учета внутренней корреляции факторов является также переход к совмещенным уравнениям регрессии, то есть к уравнениям, которые отражают не только влияние факторов, но и их взаимодействие. Например, для
возможно построение совмещенного
уравнения вида
.
Эта зависимость включает взаимодействия
первого порядка. При большом числе
переменных возможно включение в модель
взаимодействий более высокого порядка.
Проблема: возникают трудности с
интерпретацией параметров. Выбор формы
уравнения регрессии производится
исходя из содержательного анализа
явлений и имеющегося фактического
материала. Чаще всего используются
линейные модели множественной регрессии.
2.4. Компонентный анализ
С его помощью преобразуется система m
исходных признаков x в
систему m комбинированных
признаков f, которые
называются главными компонентами и
которые упорядочены по величине их
дисперсии, то есть по их влиянию на
результативную переменную. При этом
первая главная компонента имеет
наибольшую дисперсию, а последняя –
наименьшую. Тем самым можно
снизить размерность уравнения регрессии,
используя только первые компоненты,
так как влияние компонент с малыми
дисперсиями на результирующую переменную
очень мало. На практике ограничиваются
таким числом компонент, которые объясняют
70-80 % общей дисперсии. Компонентный
анализ разработан в начале XX
века К. Пирсоном.
Пример
Пусть мы имеем 3 фактора, от которых
зависит результатная переменная.
Обозначим их через
.
Значения факторов приведены в таблице.
Матрица парных коэффициентов имеет вид:
,
т. е. имеет место высокая корреляция
между
.
Кроме того,
т.
е. имеет место значительная
мультиколлинеарность факторов.
Выясним, какой из факторов в наибольшей степени ответственен за мультиколлинеарность. Для этого определим коэффициент детерминации, выделяя каждый фактор в качестве зависимой переменной:
А)
,
;
Б)
,
;
В)
,
.
Таким образом, мультиколлинеарность вносится 1 и 2 признаками в равной степени и в меньшей степени – третьим признаком. Однако отбросить первый и второй признаки в данном случае нельзя.
Применим метод главных компонент.
Решение задачи в программе STATGRAPHICS
Special-Multyvariative methods – Principal Components
Analysis. Summary
Component number |
Eigenvalue () |
Percent of variance |
Cumulative Percentage |
|
1 |
1,9303 |
64,344 |
64,344 |
Это матрица собствен. значений |
2 |
1,0356 |
34,521 |
98,865 |
|
3 |
0,0340 |
1,135 |
100 |
Т. е. 98,865 % общей дисперсии содержится в двух первых компонентах х. Следовательно, третья компонента может быть отброшена.
Component Weights
-
Главные компоненты
Признаки
f1
f2
X1
-0,095
0,97
X2
-0,696
-0,215
X3
-0,711
0,08
Это матрица факторных нагрузок А. Из
нее видно, что главная компонента
связана с
и
,
а компонента
- связана с
.
Data Table
-
Row
Component 1
Component 2
1
0,156245
1,18691
2
0,532782
0,690533
3
-1,48884
0,487154
4
2,24722
-0,22817
5
-1,44105
-0,46866
6
-0,00636
1,66866
Коэффициент корреляции между
:
,
таким образом, три признака преобразованы
в 2 главные компоненты, не коррелированные
между собой.
Рассмотрим более простой пример.
-
1
5
2
4
3
3
4
2
5
1
Переменные полностью коррелированы,
.
Матрица собственных значений:
Матрица парных коэффициентов корреляции
Из уравнения
получим
обозначим
.
Получим:
т. е.
т. е. вся дисперсия в первой компоненте.
