- •Линейная регрессия
- •1.2. Простая регрессия
- •6.3. Ортогональная регрессия
- •6.4. Многообразие оценок регрессии
- •6.5. Упражнения и задачи
- •Глава 7
- •Основная модель линейной регрессии
- •7.1. Различные формы уравнения регрессии
- •7.2. Основные гипотезы, свойства оценок
- •7.3. Независимые факторы: спецификация модели
- •7.4. Прогнозирование
- •7.5. Упражнения и задачи
- •Глава 8
- •Нарушение гипотез основной линейной модели
- •8.3. Автокорреляция ошибок
- •8.4. Ошибки измерения факторов
- •8.5. Метод инструментальных переменных
- •8.6. Упражнения и задачи Упражнение 1
6.4. Многообразие оценок регрессии
Множество оценок регрессии не исчерпывается 2n − 1 отмеченными выше элементами. Перед тем как получать любую из этих оценок, можно провести пре- образование в пространстве наблюдений или переменных.
Преобразование в пространстве наблюдений проводится с помощью матрицы D размерности N t × N, N t ™ N . Обе части исходного уравнения (6.3) умножа- ются слева на эту матрицу:
DXα = D1N β + Dε, (6.31)
6.4. Многообразие оценок регрессии 211
после чего проводится оценка параметров любым из указанных 2n − 1 способов. Понятно, что полученные оценки будут новыми, если только DtD ƒ= cIN , где c — любая константа.
В результате такого преобразования β может перестать являться свободным членом, если только D1N ƒ= c1N t ( c — любая константа). Но, главное, меняется распределение ошибок по наблюдениям. Именно с целью изменить это распре- деление в нужную сторону (с помощью подбора матрицы D) и проводятся такие преобразования (см. гл. 8).
Преобразование в пространстве переменных осуществляется с помощью квадратной невырожденной матрицы C размерности n × n: Y = XC — пре- образованные значения переменных регрессии. И затем оцениваются параметры регрессии в новом пространстве: Yf = 1N g + u.
Это преобразование можно проводить в пространстве центрированных пере- менных, т.к. Yˆ = Xˆ C .
Действительно: Xˆ C = .IN − 1 1N 1r
. XC = .IN − 1 1N 1r
. Y = Yˆ .
N N N N
То есть исходное уравнение регрессии (6.7) после преобразования приобретает вид:
Yˆ f = u. (6.32)
Оценки f являются новыми, если после «возвращения» их в исходное про- странство, которое производится умножением f слева на C , они не совпадут с оценками a, полученными в исходном пространстве, т.е. если a ƒ= Cf . Справед- ливость этого утверждения становится очевидной после следующего алгебраически эквивалентного преобразования исходного уравнения (6.7):
Xˆ C
C−1a
= e. (6.33)
Y
Понятно, что МНК-оценка f совсем не обязательно совпадет с C−1a — и тогда это будет новая оценка.
После преобразования меняется распределение ошибок в переменных регрес- сии. И именно для того, чтобы изменить это распределение в нужную сторону, осуществляются такие преобразования (см. гл. 8).
Результаты преобразований в пространстве переменных различны для простых и ортогональной регрессий.
В случае простой регрессии xj по x−j это преобразование не приводит к по- лучению новых оценок, если j-я строка матрицы C является ортом, т.е. в объ- ясняющие переменные правой части не «попадает» — после преобразования — объясняемая переменная.
212 Глава 6. Алгебра линейной регрессии
Действительно, пусть для определенности j = 1 и C =
1 0
c−1 C−1
(первая
1 0
строка является ортом), C−1 = .
−C−1
1
−1
Уравнение (6.33) записывается следующим образом:
.
Xˆ1 + Xˆ−1c−1
.
Xˆ
C−1c
1
− C−1a
1
Y
− −1 −1
−1 −1
←−−−−−−−−−f−−−−−−−−→
или, после переноса переменных в правую часть:
. ˆ ˆ .
1 −1
X1 + X−1c−1
ˆ . −
=
X C C c
C
+ −1
a−1.
+e1.
←−−−−−ˆ−−−−−→
←−−ˆ −−→ ←−−−−−−f−−−−−−−→
Y1 Y−1 −1
Система нормальных уравнений для оценки f−1 имеет следующий вид:
1 . ˆ ˆ
. 1 ˆ ˆ
1 −1
Cr Xˆ r
X1 + X−1c−1
= Cr X r
X−1C−1 .C− c−1 + C
a−1.
N −1 −1
N −1 −1
−1 −1
Y
Y
r
←−−−−→ ←−−−−→ ←−−−−−−−−−−−−−→
−1
ˆ ˆ
−1 −1
f−1
или, раскрыв скобки:
Cr
1M−1c−1 = Cr
1M−1c−1 + Cr
1M−1a−1.
− − −
1
−
получается система нормальных уравнений для оценки a−1 : m−1 = M−1a−1 .
Это означает, что f−1 после «возвращения» в исходное пространство совпадает с a−1 , т.е. проведенное преобразование в пространстве переменных новых оценок регрессии не дает.
Верно и обратное утверждение: если j-я строка матрицы C не является ортом, то a и f совпадают с точностью до обратного преобразования только тогда, когда связь функциональна и e = 0.
6.4. Многообразие оценок регрессии 213
Пусть теперь C =
1
−
0 In−1
(т.е. первая строка не является ортом),
C−1 =
1 −cr
−1
. Тогда уравнение (6.33) приобретает следующую форму:
. ˆ ˆ
ˆ . 1+ cr a
−1
ˆ
Y−1
−1 −1
−a−1
= e1, (6.34)
−1
←−−−−−f−−−−−→
−1
и
a−1. = Yˆ
a−1
+ e1,
a− 1
1
−1
−1
.1 + cr a−1
. + .1+ cr a
1
−1
. e1.
Таким образом, условием совпадения a и f с точностью до обратного преобразо- вания является следующее:
a− 1
1
−
a−1.
. (6.35)
Система нормальных уравнений для оценки f−1 имеет вид:
1
= Yˆ r Yˆ f ,
1
N −1
−1 −1
или, учтя зависимость Y от X из (6.34) и раскрыв скобки:
−1
+
c
m
−1
+ m11c−1cr .
f−1.
−1
r
M−1 m
−1. =
−1
+ m cr + c
mr + m c
cr .
M −1m .
−1 −1 −1
−1 −1
11 −1 −1
−1 −1
Раскрыв скобки и приведя подобные, можно получить следующее выражение:
c−1m11 = c−1mr
− −1
1
214 Глава 6. Алгебра линейной регрессии
которое выполняется как равенство, только если
−1
−1
1
M m
,
т.е. если (в соответствии с (6.18))
q1
Таким образом, a и f совпадают с точностью до обратного преобразования только тогда, когда полная дисперсия равна объясненной, т. е. связь функциональна и e = 0.
Что и требовалось доказать.
Итак, преобразования в пространстве переменных в простых регрессиях лишь в особых случаях приводят к получению новых оценок, обычно меняются толь- ко шкалы измерения. Некоторые из этих шкал находят применение в прикладном анализе. Такой пример дает стандартизированная шкала, которая возникает, ес- ли C = S−1, где S — диагональная матрица среднеквадратических отклонений переменных.
Оценки параметров регрессии после преобразования оказываются измерен- ными в единицах среднеквадратических отклонений переменных от своих средних, и они становятся сопоставимыми между собой и с параметрами других регрес- сий.
−j j
−j −j
−
ентов корреляции объясняющих переменных между собой, r−j — вектор столбец коэффициентов корреляции объясняющих переменных с объясняемой перемен-
ной.
Действительно (предполагается, что j = 1), соотношения (6.33) при указанной матрице C имеют следующую форму:
X1
s1
Xˆ−1
S
−1 1
= e1. (6.36)
ˆ
Y1
←−−−−−→
ˆ
−S−1a−1
Для того чтобы вектор параметров приобрел необходимую для простой регрессии форму, его надо разделить на s1 . Тогда и e делится на s1 (т.е. на s1 делятся обе части уравнения (6.36)). После переноса объясняющих переменных в правую часть
получается следующее уравнение регрессии:
Yˆ = Yˆ f
1
+ e , где f
1
= S a .
1 −1 −1
s1 1
−1 −1
−1 s1
Система нормальных уравнений для f−1 имеет следующий вид:
1
= Yˆ r Yˆ f ,
1
N −1
−1 −1
6.4. Многообразие оценок регрессии 215
или, учитывая зависимость Y от X из (6.36),
S−1
1 = S−1
−1 f .
s
1
←−−−r −−−→
−1 M−1S−1 −1
R
−
−1
Что и требовалось доказать.
Преобразование в пространстве переменных в ортогональной регрессии при использовании любой квадратной и невырожденной матрицы C ƒ= In приводит к получению новых оценок параметров.
В пункте 4.2 при n = 2 этот факт графически иллюстрировался в случае, когда
1 0
.
0 k
В общем случае верно утверждение, состоящее в том, что в результате пре- образования и «возвращения» в исходное пространство для получения оценок a надо решить следующую задачу:
(M − λΩ) a = 0, atΩa = 1, (6.37)
где Ω = Ct−1C−1.
Действительно:
После преобразования в пространстве переменных задача ортогональной регрессии записывается следующим образом (6.24, 6.25):
(MY − λIn) f = 0, f rf = 1, (6.38)
где, учитывая (6.33), MY = CrM C, f = C−1a.
Выражение (6.37) получается в результате элементарных преобразований (6.38).
Понятно, что решение задачи (6.37) будет давать новую оценку параметрам a при любой квадратной и невырожденной матрице C ƒ= In . Такую регрессию иногда называют регрессией в метрике Ω−1.
216 Глава 6. Алгебра линейной регрессии