- •Линейная множественная регрессия
- •ЭКОНОМЕТРИЧЕСКАЯ МОДЕЛЬ: ПРОСТРАНСТВЕННАЯ ВЫБОРКА
- •Линейная множественная модель пространственной выборки
- •МЕТОД НАИМЕНЬШИХ КВАДРАТОВ (МНК)
- •МЕТОД НАИМЕНЬШИХ КВАДРАТОВ
- •МЕТОД НАИМЕНЬШИХ КВАДРАТОВ
- •независимости от единиц измерения
- •МЕТОД НАИМЕНЬШИХ КВАДРАТОВ
- •МЕТОД МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ
- •КОВАРИАЦИОННАЯ МАТРИЦА ВОЗМУЩЕНИЙ
- •МЕТОД МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ
- •ОЦЕНКА ДИСПЕРСИИ
- •Теорема Гаусса-Маркова
- •Интервальное оценивание функции регрессии
- •Интервальное оценивание индивидуальных значений зависимой переменной
- •Интервальное оценивание
- •Квантили T-распределения Стьюдента
- •Оценка значимости коэффициентов уравнения регрессии
- •Интервальное оценивание дисперсии возмущений
- •ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
- •ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
- •ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
- •Квантили F-распределения Фишера- Снедекора
- •ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
- •ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
- •ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
- •МУЛЬТИКОЛЛИНЕАРНОСТЬ
- •СПОСОБЫ УСТРАНЕНИЯ МУЛЬТИКОЛЛИНЕАРНОСТИ
- •Обобщенная модель линейной регрессии
- •Обобщенная модель линейной регрессии
- •Обобщенная модель линейной регрессии
ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
Компоненты |
Сумма |
|
|
Число |
Средние |
|||
дисперсии |
квадратов |
|
|
степеней |
квадраты |
|||
|
|
|
|
свободы |
|
|
|
|
Регрессионная |
QR (yˆi y)2 |
p |
sR2 QR |
|||||
|
n |
|
|
|
|
|
|
|
|
i 1 |
|
|
|
|
|
p |
|
|
|
|
|
|
|
|
||
Остаточная |
ˆ |
|
2 |
n-(p+1) |
s2 |
Qe |
||
|
n |
|
|
|
|
|
|
|
|
Qe (yi yi ) |
|
|
|
|
|
|
|
|
|
|
|
|
n ( p 1) |
|||
|
i 1 |
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
Общая |
n |
y)2 |
n-1 |
|
|
|
|
|
|
Q (yi |
|
|
|
|
|
||
|
i 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
|
Можно доказать, что |
|
Q Q |
Q |
|
|
|||||
sR2 |
~ 2 |
( p) |
|
|
|
R |
e |
|
|
||
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|||||
s2 |
~ 2 |
(n p 1) |
|
|
|
|
|
|
|
||
e |
|
|
|
|
|
|
|
|
|
|
|
|
|
s2 |
Q (n |
p 1) |
|
|
|
|
|||
F |
|
R |
|
R |
|
|
|
F статистика |
|||
se2 |
|
|
|
||||||||
|
|
Qe p |
|
|
|
|
|
|
с _ степенями _ свободы _ k1 p,k2 n p 1
ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
F показывает, в какой мере регрессия лучше оценивает значение зависимой переменной по сравнению с ее средним значением
При |
|
гипотеза (предположение) о незначимости |
(!) |
F f ,k1,k 2 |
|
|
|
регрессии отклоняется |
|
|
|
|
|
с уровнем значимости . |
Неравенство (!) - правило (критерий) проверки гипотезы
о незначимости линейной регрессии, f ,k1,k2 - критическое (пороговое) значение F,
- вероятность отклонения гипотезы при условии, что она верна - вероятность ошибки первого рода.
Квантили F-распределения Фишера- Снедекора
|
F ,k1,k 2 |
MS Excel 2010: F ,k1,k2=F.Обр.ПХ( , k1,k2)
ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
Коэффициент детерминации: R2 QR 1 Qe
Q Q
Коэффициент детерминации показывает, какая часть изменения зависимой переменной объясняется изменением объясняющей переменной.
1.Чем ближе R2 к единице, тем лучше регрессия аппроксимирует наблюдения.
2.Если R2=1, то наблюдения лежат на линии регрессии.
3.Если R2=0, то изменение зависимой переменной полностью
обусловлены неучтенными в модели факторами, и линия регрессии параллельна оси ОХ.
ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
Критерий (!) проверки гипотезы о незначимости регрессии может использовать значение R2 :
|
F |
R2 (n ( p 1)) |
F |
||||||||||
|
|
(1 |
R2 ) p |
, p,n ( p 1) |
|||||||||
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
R2 1 |
|
|
|
e e |
|
|
||||||
|
|
(Y |
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
||||||
|
|
|
|
Y ) (Y Y ) |
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В случае парной регрессии: R2=r2
ОЦЕНКА ЗНАЧИМОСТИ УРАВНЕНИЯ РЕГРЕССИИ
Скорректированный (поправленный, адаптированный) коэффициент детерминации:
ˆ 2 |
|
|
n 1 |
|
|
|
2 |
|
|
|
|
|
|
||||
1 |
|
|
|
(1 R |
) 1 |
|
(n 1)e e |
(13) |
|||||||||
R |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
n |
p |
1 |
|
(n |
p 1)(Y |
|
|
|
|
|
|||||||
|
|
|
|
||||||||||||||
|
|
|
|
|
|
Y ) (Y Y ) |
|
лучше, чем R2 отражает качество модели (меньше увеличивается при увеличении p)
МУЛЬТИКОЛЛИНЕАРНОСТЬ
det(X X ) 0 - объясняющие переменные взаимосвязаны, почти пропорциональны друг другу;
формула (3) для вычисления b «плохо работает»
СПОСОБЫ УСТРАНЕНИЯ МУЛЬТИКОЛЛИНЕАРНОСТИ
• Исключение одной из объясняющих переменных с высоким (>0.8) взаимным коэффициентом корреляции (выбор одной из двух - по экономическим соображениям).
•Переход к смещенным оценкам.
•Отбор наиболее существенных объясняющих переменных (обеспечивающих наибольший коэффициент детерминации).
Обобщенная модель линейной регрессии
General Normal Linear Regression model - отказ от гомоскедастичности возмущений
|
|
|
1 |
0 ... |
0 |
|
|
2 |
0 ... |
0 |
|
|
|
2 |
|
0 |
1 ... |
|
2 |
|
1 |
2 |
0 |
|
|
|
|
0 |
|
0 |
2 ... |
|
|
|||||
|
|
|
|
|
En |
|
|
|
|
|
||
M ( ) |
|
|
0 |
0 ... |
0 |
|
|
|
|
|||
|
|
|
|
0 |
0 ... |
0 |
|
|||||
|
|
|
0 |
0 ... |
1 |
|
|
|
|
|||
|
|
|
|
0 |
0 ... |
2 |
|
|
||||
|
|
|
|
|
|
|
|
|
|
n1 |
|
|
гомоскедастичные |
2 |
|
гетероскедастичные |
|
1 |
остатки |
|
1 остатки |
2 |
|
|
|
|
|
|
|
|
|
|
произвольная ковариационная |
|||
|
|
|
матрица остатков |
|
|
|
|
|
-автокорреляция остатков |