Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Эконометрика ужс.docx
Скачиваний:
1
Добавлен:
01.07.2025
Размер:
1.46 Mб
Скачать

Методы устранения мультиколлинеарности

1 Также, корреляционная матрица позволяет выявить факторы, которые находятся в тесной линейной корреляционной взаимосвязи. Считается, что 2 фактора коллинеарные, если больше 0,7.

Если факторы явно коллинеарные, то 1 из них рекомендуется исключить из регрессии. Предпочтение дается не тому фактору, который более тесно связан с рез.переменной, а тому, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами.

2. Метод дополнительных регрессий

    • Строятся уравнения регрессии, которые связывают каждый из регрессоров со всеми остальными

    • Вычисляются коэффициенты детерминации   для каждого уравнения регрессии

    • Проверяется статистическая гипотеза   с помощью F-теста

Вывод: если гипотеза   не отвергается, то данный регрессор не приводит к мультиколлинеарности.

3. Метод последовательного присоединения

    • Строится регрессионная модель с учетом всех предполагаемых регрессоров. По признакам делается вывод о возможном присутствии мультиколлинеарности

    • Рассчитывается матрица корреляций и выбирается регрессор, имеющий наибольшую корреляцию с выходной переменной

    • К выбранному регрессору последовательно добавляются каждый из оставшихся регрессоров и вычисляются скорректированные коэффициенты детерминации для каждой из моделей. К модели присоединяется тот регрессор, который обеспечивает наибольшее значение скорректированного 

Процесс присоединения регрессоров прекращается, когда значение скорректированного   становится меньше достигнутого на предыдущем шаге.

К аким бы образом не осуществлялся отбор факторов, уменьшение их числа приводит к улучшению обусловленности матрицы Хтр*Х, а, следовательно, и к повышению качества оценок параметров модели.

4. Получение доп. данных или новой выборки. Иногда для уменьш-я МК достаточно увеличить объем выборки. Однако, это связано с определенными издержками и может усилить автокорреляцию. Эти проблемы ограничивают использовать данный метод.

5. Изменение спецификации модели: либо изменяется форма модели, либо добавляются об.перем-ые, не учтенные в первоначальной модели, но существенно влияющие на завис. переменную.

23. Проверка адекватности модели множественной регрессии

Проверить значимость (качество) уравнения регрессии–значит установить, соответствует ли математическая модель, выражающая  зависимость между переменными, экспериментальным данным, достаточно ли включенных в уравнение  объясняющих  переменных для описания зависимой переменной. Чтобы иметь общее суждение о качестве модели, по каждому наблюдению из относительных отклонений определяют среднюю ошибку аппроксимации. Проверкаадекватности уравнения регрессии (модели) осуществляется с помощью средней ошибки аппроксимации, величина которой  не должна превышать 12-15% (максимально допустимое значение).

Чтобы проверить достаточно ли высока степень адаптации модели, необходимо проверить гипотезу о значимости R2:

1. Выдвигаются 2 противополож. гипотезы о коэффициенте ДЕТЕРМИНАЦИИ.

а)Но-истинность которой проверяется: Но: R2=0

б)альтернативная гипотеза: Н1: R2не равно 0

2. Рассчитаем R2, для этого вычисли суммы: Sфакт. =

Sобщ. = =>R2= Sфакт./Sобщ.

3. Вычислим выборочное значение проверочной статистики:

4. Зададим уровень значимости альфа и по таблице распределения Фишера установим критическое значение: Fкр (альфа, К1;К2) , К1=м, К2=n-m-1

Применим решающее правило: Если Выборочное значение меньше критического

, то нулевую гипотезу принимаем на уровне значимости альфа (коэффициент детерминации не существенно отличается от нуля) , если же Выборочное значение больше критического, то нулевую гипотезу отклоняем в пользу альтернативной на уровне значимости альфа (т.е.R2 имеет существенное значение и модель регрессии в целом значима на уровне значимости альфа, т.е. хорошо адаптирована к данным наблюдений).