Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
книжка----11.06-2.doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
5.5 Mб
Скачать

Методы устранения мультиколлинеарности

Для устранения или уменьшения влияния мультиколлинеарности используется ряд методов:

1) Самый простой из них (но далеко не всегда возможный) состоит в том, что из двух объясняющих переменных, имеющих высокий по абсолютной величине коэффициент парной корреляции (больше 0,8), одну переменную исключают из рассмотрения. При этом, какую переменную оставить, а какую удалить из анализа, решают в первую очередь на основании экономических соображений. Если с экономической точки зрения ни одной из переменных нельзя отдать предпочтение, то оставляют ту из двух переменных, которая имеет больший коэффициент корреляции с зависимой переменной [6].

2) Другой метод использует переход от несмещенных оценок, определенных по методу наименьших квадратов, к смещенным, обладающим, однако, меньшим рассеянием относительно оцениваемого параметра, т.е. меньшим математическим ожиданием квадрата отклонения оценки от параметра . Оценки, определяемые вектором (4.17), обладают в соответствии с теоремой Гаусса–Маркова минимальными дисперсиями в классе всех линейных несмещенных оценок, но при наличии мультиколлинеарности эти дисперсии могут оказаться слишком большими, и обращение к соответствующим смещенным оценкам может повысить качество оценивания параметров регрессии (см., в частности, п. 5.1.5 ниже).

3) Для устранения мультиколлинеарности может быть использован переход от исходных объясняющих переменных , связанных между собой достаточно тесной корреляционной зависимостью, к новым переменным, представляющим собой линейные комбинации исходных. При этом новые переменные должны быть слабокоррелированными либо вообще некоррелированными. В качестве таких переменных берут, например, так называемые главные компоненты вектора исходных объясняющих переменных, изучаемые в компонентном анализе, и рассматривают регрессию на главных компонентах, в которой последние выступают в качестве обобщенных объясняющих переменных, подлежащих в дальнейшем содержательной (экономической) интерпретации.

Ортогональность главных компонент предотвращает проявление эффекта мультиколлинеарности. Кроме того, применяемый метод позволяет ограничиться малым числом главных компонент при сравнительно большом количестве исходных объясняющих переменных [6].

4) Еще одним из возможных методов устранения или уменьшения мультиколлинеарности является использование пошаговых процедур отбора наиболее информативных переменных. Например, на первом шаге рассматривается лишь одна объясняющая переменная, имеющая с зависимой переменной наибольший коэффициент детерминации. На втором шаге включается в регрессию новая объясняющая переменная, которая вместе с первоначально отобранной образует пару объясняющих переменных, имеющую с наиболее высокий скорректированный коэффициент детерминации. На третьем шаге вводится в регрессию еще одна объясняющая переменная, которая вместе с двумя первоначально отобранными образует тройку объясняющих переменных, имеющую с наибольший (скорректированный) коэффициент детерминации, и т. д.

Процедура введения новых переменных продолжается до тех пор, пока будет увеличиваться соответствующий скорректированный коэффициент детерминации (более точно – минимальное значение ) [6].

5) Еще одним заслуживающим внимания методом устранения мультиколлинеарности является использование ридж-оценок (гребневой регрессии). Суть метода заключается в нахождении такого смещения несмещенных оценок параметров, которое приводит к повышению их устойчивости.

Рассмотрим алгоритм реализации гребневой регрессии. Запишем исходную систему нормальных уравнений в виде

, (5.1)

где , . В случае наличия мультиколлинеарности, определитель матрицы А окажется близким к нулю, а оценки параметров – неустойчивыми.

В связи с этим предлагается воспользоваться несколько иной системой уравнений, а именно:

, (5.2)

где – скалярный параметр регуляризации (достаточно малое число).

Проведем некоторые преобразования:

, (5.3)

. (5.4)

Заметим, что параметр можно взять настолько малым, что добавка не будет менять свойств обратимости .

Таким образом, получаем семейство решений:

. (5.5)

Обозначив

, (5.6)

полученное семейство решений можно записать в виде

. (5.7)

При использовании ридж-оценок выбирают такое , которое стабилизировало бы оценки всех параметров регрессии. Нужное целесообразно выбирать на том участке, где смещенная оценка начинает стабилизироваться, так как далее оценки уже становятся настолько смещенными, что не представляют интереса. По мере дальнейшего увеличения параметра оценки уменьшаются по абсолютной величине и стремятся к нулю при (см. рис. 5.1)

Рис. 5.1

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]