- •Тема 1. Природа эконометрики
- •1.1. Общие понятия эконометрических моделей
- •1. 2. Типы эконометрических моделей
- •1. 3. Типы данных
- •Тема 2. Корреляционный анализ в эконометрических исследованиях
- •2.1. Функциональная, статистическая и корреляционная зависимости
- •2.2. Понятие о двумерном корреляционном анализе
- •2.3. Понятие о многомерном корреляционном анализе
- •2.4. Ранговая корреляция
- •Тема 3. Регрессионный анализ в эконометрических исследованиях
- •3.1. Задача регрессионного анализа
- •3.2. Идентификация модели регрессии
- •3.3. Линейная парная регрессия и оценка параметров
- •3.4. Проверка значимости параметров линейной парной регрессии
- •3.5. Интервалы прогноза по линейному уравнению регрессии
- •3.6. Нелинейная регрессия
- •3.7. Корреляционное отношение и индекс корреляции
- •3.8. Множественный регрессионный анализ
- •4.9. Ковариационная матрица и ее выборочная оценка
- •4.10. Определение доверительных интервалов для коэффициентов и функции множественной регрессии
- •4.11. Мультиколлинеарность
- •Тема 5. Методы и модели анализа динамики экономических процессов
- •5.1. Понятия экономических рядов динамики
- •5.2. Предварительный анализ динамических рядов экономических показателей
- •5.3. Сглаживание динамических рядов
- •4.3. Расчет показателей динамики развития эконометрических процессов
- •4.4. Тренд-сезонные экономические процессы и их анализ
- •Тема 5. Модели прогнозирования экономических процессов
- •5.7. Трендовые модели на основе кривых роста
- •5.2. Оценка адекватности и точности трендовых моделей
- •5.3. Прогнозирование экономической динамики на основе трендовых моделей
- •5.4. Адаптивные модели прогнозирования
- •Лучшая модель ар(1,1)
- •Характеристика остатков
- •Тема 8. Системы взаимозависимых эконометрических моделей
- •8.1. Особенности систем взаимозависимьех моделей
- •8.2. Формы представления систем взаимозависимых эконометрических моделей
- •8.3. Косвенный метод оценки коэффициентов структурной формы систем взаимозависимых эконометрических моделей
- •8.4. Оценивание параметров структурной формы на основе двухшагового мнк с использованием инструментальных переменных
- •1. На первом шаге конструируются новые значения зависимых
- •2. На втором шаге значения используются вместо значений
- •8.5. Оценки параметров системы взаимозависимых эконометрических моделей с использованием трехшагового мнк
4.11. Мультиколлинеарность
Под мульттоллинеарностью понимается высокая взаимная коррелированность объясняющих переменных. Мультиколлинеарность может проявляться в функциональной (явной) и стохастической (скрытой) формах.
При
функциональной
форме
мультиколлинеарности по крайней
мере одна из парных связей между
объясняющими переменными является
линейной функциональной зависимостью.
В
этом
случае матрица
особенная,
так как содержит линейно зависимые
векторы-столбцы и ее определитель равен
нулю, т.е. нарушается предпосылка 6
регрессионного
анализа. Это приводит к невозможности
решения соответствующей системы
нормальных уравнений и получения оценок
параметров регрессионной модели.
Однако
в экономических исследованиях
мультиколлинеарность чаще проявляется
в стохастической
форме,
когда между хотя бы двумя объясняющими
переменными существует тесная
корреляционная связь. Матрица
в
этом случае является неособенной, но
ее определитель очень мал. В
то
же время вектор оценок
и
его ковариационная матрица К
в
соответствии с формулами (13.28)
и
(13.36)
пропорциональны
обратной матрице
а
значит, их элементы обратно пропорциональны
величине определителя
В
результате
получаются значительные средние
квадратические отклонения (стандартные
ошибки) коэффициентов регрессии
и
оценка их значимости по
критерию
не имеет смысла, хотя в целом регрессионная
модель может оказаться значимой по
критерию.
Оценки
становятся
очень чувствительными к незначительному
изменению результатов наблюдений и
объема выборки. Уравнения регрессии в
этом случае, как правило, не имеют
реального смысла, так как некоторые
из его коэффициентов могут иметь
неправильные с точки зрения экономической
теории знаки и неоправданно большие
значения.
Один
из методов выявления мультиколлинеарности
заключается в анализе корреляционной
матрицы между объясняющими переменными
и
выявлении пар переменных, имеющих
высокие коэффициенты корреляции (обычно
больше 0,8). Если такие переменные
существуют, то говорят о мультиколлинеарности
между ними.
Полезно также находить множественные коэффициенты корреляции между одной из объясняющих переменных и некоторой группой из них. Наличие высокого множественного коэффициента корреляции (обычно принимают больше 0,8) свидетельствует о мультиколлинеарности.
Другой
подход состоит в исследовании матрицы
.
Если
определитель матрицы
близок
к нулю (например, одного порядка с
накапливающимися ошибками вычислений),
то это говорит о наличии мультиколлинеарности.
Для устранения или уменьшения мультиколлинеарности используется ряд методов. Один из них заключается в том, что из двух объясняющих переменных, имеющих высокий коэффициент корреляции (больше 0,8), одну переменную исключают из рассмотрения. При этом, какую переменную оставить, а какую удалить из анализа, решают в первую очередь на основании экономических соображений. Если с экономической точки зрения ни одной из переменных нельзя отдать предпочтение, то оставляют ту из двух переменных, которая имеет больший коэффициент корреляции с зависимой переменной.
Другим из возможных методов устранения или уменьшения мультиколлинеарности является использование пошаговых процедур отбора наиболее информативных переменных. Например, вначале рассматривается линейная регрессия зависимой переменной Кот объясняющей переменной, имеющей с ней наиболее высокий коэффициент корреляции (или индекс корреляции при нелинейной форме связи). На втором шаге включается в рассмотрение та объясняющая переменная, которая имеет наиболее высокий частный коэффициент корреляции с Y и вычисляется множественный коэффициент (индекс) корреляции. На третьем шаге вводится новая объясняющая переменная, которая имеет наибольший частный коэффициент корреляции с Y, и вновь вычисляется множественный коэффициент корреляции и т.д.
Процедура введения новых переменных продолжается до тех пор, пока добавление следующей объясняющей переменной существенно не увеличивает множественный коэффициент корреляции.
