
- •2. Линейная парная регрессия
- •3. Основные предпосылки регрессионной модели
- •4. Точность уравнения линейной регрессии
- •5. Оценка значимости уравнения регрессии
- •6. Нелинейная регрессия
- •7. Множественная линейная регрессия
- •8. Оценка значимости отдельных факторов множественной регрессии
- •9. Фиктивные переменные в множественной регрессии
- •10. Системы эконометрических уравнений
- •11. Косвенный метод наименьших квадратов
- •12. Временные ряды. Общие понятия
- •13. Методы выделения тенденции временного ряда. Кривые роста.
- •14. Выделение циклической составляющей временного ряда
- •15. Экспоненциальное сглаживание
- •16. Выявление структурных изменений временного ряда
- •17. Оценка соблюдения условий применимости мнк
- •19. Взвешенный и обобщенный мнк
- •21. Оценка взаимосвязи двух временных рядов
- •22. Динамические эконометрические модели
8. Оценка значимости отдельных факторов множественной регрессии
Возможны два подхода:
1) на основе вычисления с использованием t-распределения Стьюдента доверительных интервалов для полученных оценок параметров регрессии и признания фактора незначимым, если этот интервал содержит 0;
2) путем проверки значимости с помощью т.н. частного F – критерия
При первом подходе доверительные интервалы для истинных, неизвестных нам параметров множественной регрессии βk, k = 0,1...p находятся из уравнения
,
k = 0,1...p
где s2 – ПОСК,
S = (XTX),
а
-
обратная матрица, получаемая путем
вычеркивания к-го столбца и к-ой
строки матрицы S
tn-p(α) – табличное значение распределения Стъюдента с (n-p) степенями свободы и уровнем значимости α,
X – матрица исходных данных (7.4)
Второй подход основывается на следующем. Из выражения для коэффициента детерминации множественной регрессии следует
Если разделить числитель и знаменатель последнего выражения на соответствующее число степеней свободы, то получим соотношение, связывающее коэффициент детерминации с критериальной статистикой F
(8.1)
для множественной регрессии важным является не только значимость в целом, но и целесообразность включения того или иного фактора в модель. Для этого используется понятия частного F-критерия
,
(8.2)
где
-
частный коэффициент детерминации.
Последний вычисляется как и обычный, но из исходной выборки исключается фактор хm.
Выражение (8.2) по структуре похоже на (8.1) за исключением числа степеней свободы в знаменателе, что и понятно, поскольку речь идет о включении или, наоборот, исключении только одного фактора. Кроме того, в числителе стоит разность между общим и частным индексом детерминации, показывающая насколько уменьшается объясняемая регрессией доля вариации результирующего признака при исключении фактора m. Очевидно, что если исключение фактора m незначительно уменьшит в сравнении с R2, то это означает, что данный фактор оказывает слабое влияние на у и его включение в модель скорее всего нецелесообразно. Для формализации процедуры отбора факторов в модель
вычисленное значение частного F-критерия сравнивается с табличным F1,n-p-1(α). При Fm > F1,n-p-1(α) включение m-го фактора в модель целесообразно, при Fm < F1,n-p-1(α) – нет. Специфика множественной регрессии еще и в том, что приходится учитывать очередность включения факторов в модель. Одним из путей решения этой проблемы является вычисление по исходным данным корреляционной матрицы вида
(8.3)
На главной диагонали этой симметрической
(поскольку
)
матрицы находятся 1. В первую очередь
в модель включаются факторы, имеющие
наибольший коэффициент корреляции с
результирующим признаком. Кроме того,
по матрице (8.3) легко обнаруживаются
коррелированные между собой факторы.
Значимость отличия коэффициента
корреляции r от нуля
оценивается с помощью статистики
(8.4)
При t > tn-2(α) гипотеза о равенстве нулю соответствующего коэффициента корреляции отвергается.
Связь между факторами множественной регрессии получила название - мультиколлинеарность. Существует критерий определения ее по определителю подматрицы (8.4)
(8.5)
Действительно, при отсутствии связей между факторами все недиагональные элементы матрицы (8.5) равны нулю, определитель Det(R) – единице. В случае 100-процентной связи между факторами все элементы матрицы (8.5) равны 1, а определитель – нулю. Следовательно чем ближе Det(R) к единице, тем слабее мультколлинеарность.
Доказано, что при отсутствии
мультиколлинеарности величина
(8.6)
имеет стандартное распределение
(хи-квадрат)
с
степенями свободы, где n
– число экспериментальных данных. В
случае, если вычисленное значение
критериальной статистики (8.6) окажется
больше соответствующего табличного
значения
,
наличие мультиколлинеарности считается
доказанным.
Рассматривая поочередно факторы модели в качестве зависимой переменной от остальных факторов и подсчитывая соответствующий коэффициент множественной детерминации, можно установить факторы, «отвечающие» за это по величине соответствующего коэффициента. Чем больше величина такого коэффициента множественной детерминации, тем больший «вклад» в мультиколлинеарность вносит этот фактор.
Самый простой путь устранения мультиколлинеарности это исключение факторов с наибольшими коэффициентами множественной детерминации из модели. Другой подход связан с преобразованием факторов, при котором уменьшается связь между ними. Например, переход от исходных переменных к их линейным комбинациям, не коррелированных друг с другом (метод главных компонент). Возможен переход к т.н. совмещенным уравнениям регрессии, отражающих влияние на результирующий признак не только факторов, но и их комбинаций. Например при трех факторах х1, х2,х3 рассматривается совмещенное уравнение регрессии