- •Линейная регрессия
- •1.2. Простая регрессия
- •6.3. Ортогональная регрессия
- •6.4. Многообразие оценок регрессии
- •6.5. Упражнения и задачи
- •Глава 7
- •Основная модель линейной регрессии
- •7.1. Различные формы уравнения регрессии
- •7.2. Основные гипотезы, свойства оценок
- •7.3. Независимые факторы: спецификация модели
- •7.4. Прогнозирование
- •7.5. Упражнения и задачи
- •Глава 8
- •Нарушение гипотез основной линейной модели
- •8.3. Автокорреляция ошибок
- •8.4. Ошибки измерения факторов
- •8.5. Метод инструментальных переменных
- •8.6. Упражнения и задачи Упражнение 1
6.3. Ортогональная регрессия
В случае, когда ограничения на вектор a (или α) состоят в требовании равен- ства единице длины этого вектора
ata = 1 (αtα = 1), (6.24)
и все переменные остаются в левой части уравнения, получается ортогональная регрессия, в которой расстояния от точек облака наблюдений до гиперплоскости регрессии измеряются перпендикулярно этой гиперплоскости. Разъяснения этому факту давались в пункте 4.2.
Оценка параметров регрессии производится из условия минимизации остаточ- ной дисперсии:
s2 (6.7) 1
→
N
ковариационная матрица переменных регрессии, при условии
(6.24).
Из требования равенства нулю производной по a соответствующей функции Лагранжа следует, что
(M − λIn) a = 0, (6.25)
где λ — множитель Лагранжа ограничения (6.24), причем
e
Действительно, функция Лагранжа имеет вид:
L (a, λ) = arMa − λara,
а вектор ее производных по a:
−
∂a
Откуда получается соотношение (6.25). А если обе части этого соотношения умно- жить слева на ar и учесть (6.24), то получается (6.26).
Таким образом, применение МНК сводится к поиску минимального собствен- ного числа λ ковариационной матрицы M и соответствующего ему собствен- ного (правого) вектора a (см. также Приложение A.1.2). Благодаря свойствам данной матрицы (вещественность, симметричность и положительная полуопреде- ленность), искомые величины существуют, они вещественны, а собственное чис- ло неотрицательно (предполагается, что оно единственно). Пусть эти оценки по- лучены.
В ортогональной регрессии все переменные x выступают объясняемыми, или моделируемыми, их расчетные значения определяются по формуле:
Xˆ c = Xˆ − eat. (6.27)
Действительно: Xˆ ca =
Xˆ a − e ara = 0, т.е. вектор-строки xˆc , соответствующие
i
←→1
наблюдениям, лежат на гиперплоскости регрессии и являются проекциями на нее
вектор-строк фактических наблюдений
xˆi (вектор a по построению ортогонален
i
на xˆi ), а аналогом коэф-
λ 2 n 2
фициента детерминации выступает величина 1 − s2 , где sΣ = sj — суммарная
Σ
дисперсия переменных x, равная следу матрицы M .
j=1
Таким образом, к n оценкам вектора a простой регрессии добавляется оценка этого вектора ортогональной регрессии, и общее количество этих оценок стано- вится равным n + 1.
Задачу простой и ортогональной регрессии можно записать в единой, обобщен- ной форме:
(M − λW ) a = 0, atWa = 1, λ → min!, (6.28)
где W — диагональная n×n-матрица, на диагонали которой могут стоять 0 или 1. В случае, если в матрице W имеется единственный ненулевой элемент
wjj = 1, то это — задача простой регрессии xj по x−j (действительно, это следу- ет из соотношения (6.23)); если W является единичной матрицей, то это — задача
ортогональной регрессии. Очевидно, что возможны и все промежуточные случаи, когда некоторое количество n1, 1 < n1 < n, переменных остается в левой части уравнения, а остальные n2 переменных переносятся в правую часть уравнения регрессии:
Xˆ 1a1 = Xˆ 2a2 + e1, a1t a1 = 1.
Если J — множество переменных, оставленных в левой части уравнения, то в записи (6.28) такой регрессии wjj = 1 для j ∈ J и wjj = 0 для остальных j. Оценка параметров регрессии производится следующим образом:
a2 = M −1M21a1,
− M M −1M
− λI
a1 = 0
22 M11
12 22 21 n1
22
1 ˆ 1t ˆ 1
ˆ
21
1 X1
N
t Xˆ 2,
1 ˆ 2t ˆ 2
M22 = N X X
— соответствующие ковариационные матрицы.
Таким образом, общее количество оценок регрессии — (2n − 1). В рамках любой из этих оценок λ в (6.28) является остаточной дисперсией.
Задача ортогональной регрессии легко обобщается на случай нескольких урав- нений и альтернативного представления расчетных значений изучаемых перемен- ных.
Σ
AtA = In, M A = AΛ. (6.29)
Собственные вектора, если их рассматривать по убыванию соответствующих им собственных чисел, есть главные компоненты облака наблюдений, которые по- казывают направления наибольшей «вытянутости» (наибольшей дисперсии) этого облака. Количественную оценку степени этой «вытянутости» (дисперсии) дают соответствующие им собственные числа.
Пусть первые k собственных чисел «малы».
s2
AE — часть матрицы A, соответствующая им (ее первые k стоблцов); это — коэффициенты по k уравнениям регрессии или k младших главных компонент;
AQ — остальная часть матрицы A, это — n − k старших главных компонент или собственно главных компонент;
A = [AE , AQ];
xAE = 0 — гиперплоскость ортогональной регрессии размерности n − k;
компонент;
AE Q. — координаты облака наблюдений в базисе главных
E — матрица размерности N × k остатков по уравнениям регрессии;
Q — матрица размерности N × (n − k), столбцы которой есть значения так называемых главных факторов.
Поскольку At = A−1, можно записать Xˆ
= E AE t + Q AQt . Откуда
получается два возможных представления расчетных значений переменных:= X − E t = Q AQt . (6.30ервое из них — по уравнениям ортогональной регрессии, второе (альтерна- тивное) — по главным факторам (факторная модель).
2
s
2 — аналог коэффициента детерминации, дающий оценку качества
Σ
обеих этих моделей.
Факторная модель представляет n переменных через n − k факто- ров и, тем самым, «сжимает» ин- формацию, содержащуюся в исход- ных переменных. В конкретном ис- следовании, если k мало, то предпо-
чтительнее использовать ортогональ- ные регрессии, если k велико (со- ответственно n − k мало), целе- сообразно применить факторную мо- дель. При этом надо иметь в ви- ду следующее: главные факторы —
расчетные величины, и содержатель- ная интерпретация их является, как правило, достаточно сложной зада- чей.
x1
A r
B
E
D
G
F
x
2
1
Рис. 6.1
Сделанные утверждения можно проиллюстрировать на примере n = 2, предполагая, что λ1 / λ2 , и упрощая обозначения (введенные выше матрицы являются в данном случае векторами):
a1 = AE — вектор параметров ортогональной регрессии,
a2 = AQ — вектор первой (в данном случае — единственной) главной компоненты,
e = E — остатки в уравнении ортогональной регрессии,
q = Q — значения первого (в данном случае — единственного) главного фактора.
На рисунке: OA — вектор-строка i-го наблюдения
xˆi = (xˆi1, xˆi2), OD —
вектор-строка расчетных значений
xˆc , длина OC — xˆi1 , длина OB — xˆi2 ,
i
1 2
OD — qi .
Как видно из рисунка 6.1, квадрат длины вектора xˆi равен (из прямоугольных тре-
угольников OAC и OAD) xˆ2 + xˆ2
= e2 + q2 , и если сложить все эти уравнения по
i1 i2 i i
i и разделить на N , то получится s2 + s2 = s2 + s2 . Понятно, что s2 = λ1 , s2 = λ2 ,
1 2 e q e q
1
ний (суммарную дисперсию переменных регрессии) в направлении a1 наименьшей
2
210 Глава 6. Алгебра линейной регрессии
Вектор OF есть eiar , а вектор OD — qiar , и рисунок наглядно иллюстрирует
1 2
выполнение соотношения (6.30):
xˆc = xˆi − eiar = qiar .
i 1 2
Пусть теперь n = 3, и λ1 , λ2 , λ3 , a1 , a2 , a3 — собственные числа и вектора ковариационной матрицы переменных.
Если λ1 ≈ λ2 ≈ λ3 , то облако наблюдений не «растянуто» ни в одном из направ- лений. Зависимости между переменными отсутствуют.
Если λ1 / λ2 ≈ λ3 и k = 1, то облако наблюдений имеет форму «блина». Плоскость, в которой лежит этот «блин», является плоскостью ортогональной ре- грессии, которую описывает уравнение xˆa1 = 0, а собственно уравнением регрессии
является Xˆ a1 = e.
Эту же плоскость представляют вектора a2 и a3 , являясь ее осями координат. В этих осях координат можно выразить любую точку данной плоскости, в том числе все точки расчетных значений переменных (6.30):
.
Xˆ c = q
a
.
1 2
a
3
1 2 2 3
где q1 =
Xˆ a2, q2 = Xˆ a3 — вектора значений главных факторов или вектора
координат расчетных значений переменных в осях a2 , a3 .
Если λ1 ≈ λ2 / λ3 и k = 2, то облако наблюдений имеет форму «веретена». Ось этого «веретена» является линией регрессии, образованной пересечением двух
плоскостей
xˆa1 = 0 и
xˆa2 = 0. И уравнений ортогональной регрессии в данном
случае два: Xˆ a1 = e1 и Xˆ a2 = e2 .
Данную линию регрессии представляет вектор a3 , и через него можно выразить все расчетные значения переменных:
3
где q = Xˆ a3 — вектор значений главного фактора.