Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Диплом / Algebra_lineynoy_regressii.docx
Скачиваний:
40
Добавлен:
24.03.2015
Размер:
2.49 Mб
Скачать

6.3. Ортогональная регрессия

В случае, когда ограничения на вектор a (или α) состоят в требовании равен- ства единице длины этого вектора

ata = 1 (αtα = 1), (6.24)

и все переменные остаются в левой части уравнения, получается ортогональная регрессия, в которой расстояния от точек облака наблюдений до гиперплоскости регрессии измеряются перпендикулярно этой гиперплоскости. Разъяснения этому факту давались в пункте 4.2.

Оценка параметров регрессии производится из условия минимизации остаточ- ной дисперсии:

s2 (6.7) 1

e = atXˆ tXˆ a = atMa min!, N

N

где M = 1 Xˆ tXˆ

  • ковариационная матрица переменных регрессии, при условии

(6.24).

Из требования равенства нулю производной по a соответствующей функции Лагранжа следует, что

(M − λIn) a = 0, (6.25)

где λ — множитель Лагранжа ограничения (6.24), причем

e

λ = s2. (6.26)

Действительно, функция Лагранжа имеет вид:

L (a, λ) = arMa − λara,

а вектор ее производных по a:

L = 2 (Ma λa) .

a

Откуда получается соотношение (6.25). А если обе части этого соотношения умно- жить слева на ar и учесть (6.24), то получается (6.26).

Таким образом, применение МНК сводится к поиску минимального собствен- ного числа λ ковариационной матрицы M и соответствующего ему собствен- ного (правого) вектора a (см. также Приложение A.1.2). Благодаря свойствам данной матрицы (вещественность, симметричность и положительная полуопреде- ленность), искомые величины существуют, они вещественны, а собственное чис- ло неотрицательно (предполагается, что оно единственно). Пусть эти оценки по- лучены.

В ортогональной регрессии все переменные x выступают объясняемыми, или моделируемыми, их расчетные значения определяются по формуле:

Xˆ c = Xˆ eat. (6.27)

Действительно: Xˆ ca =

Xˆ a e ara = 0, т.е. вектор-строки xˆc , соответствующие

i

←−e

←→1

наблюдениям, лежат на гиперплоскости регрессии и являются проекциями на нее

вектор-строк фактических наблюдений

xˆi (вектор a по построению ортогонален

i

гиперплоскости регрессии, а eiar — вектор нормали xˆc

на xˆi ), а аналогом коэф-

λ 2 n 2

фициента детерминации выступает величина 1 − s2 , где sΣ = sj — суммарная

Σ

дисперсия переменных x, равная следу матрицы M .

j=1

Таким образом, к n оценкам вектора a простой регрессии добавляется оценка этого вектора ортогональной регрессии, и общее количество этих оценок стано- вится равным n + 1.

Задачу простой и ортогональной регрессии можно записать в единой, обобщен- ной форме:

(M − λW ) a = 0, atWa = 1, λ → min!, (6.28)

где W — диагональная n×n-матрица, на диагонали которой могут стоять 0 или 1. В случае, если в матрице W имеется единственный ненулевой элемент

wjj = 1, то это — задача простой регрессии xj по xj (действительно, это следу- ет из соотношения (6.23)); если W является единичной матрицей, то это — задача

ортогональной регрессии. Очевидно, что возможны и все промежуточные случаи, когда некоторое количество n1, 1 < n1 < n, переменных остается в левой части уравнения, а остальные n2 переменных переносятся в правую часть уравнения регрессии:

Xˆ 1a1 = Xˆ 2a2 + e1, a1t a1 = 1.

Если J — множество переменных, оставленных в левой части уравнения, то в записи (6.28) такой регрессии wjj = 1 для j J и wjj = 0 для остальных j. Оценка параметров регрессии производится следующим образом:

a2 = M 1M21a1,

M M 1M

− λI

a1 = 0

22 M11

12 22 21 n1

22

( a1 находится как правый собственный вектор, соответствующий минимальному собственному числу матрицы M11 M12M 1M21), где

1 ˆ 1t ˆ 1

ˆ

M11 = N X X ,

21

M12 = M t =

1 X1

N

t Xˆ 2,

1 ˆ 2t ˆ 2

M22 = N X X

— соответствующие ковариационные матрицы.

Таким образом, общее количество оценок регрессии — (2n − 1). В рамках любой из этих оценок λ в (6.28) является остаточной дисперсией.

Задача ортогональной регрессии легко обобщается на случай нескольких урав- нений и альтернативного представления расчетных значений изучаемых перемен- ных.

Σ

Матрица M , как уже отмечалось, имеет n вещественных неотрицательных собственных чисел, сумма которых равна s2 , и n соответствующих им веществен- ных взаимноортогональных собственных векторов, дающих ортонормированный базис в пространстве наблюдений (см. также Приложение A.1.2). Пусть собствен- ные числа, упорядоченные по возрастанию, образуют диагональную матрицу Λ, а соответствующие им собственные вектора (столбцы) — матрицу A. Тогда

AtA = In, M A = AΛ. (6.29)

Собственные вектора, если их рассматривать по убыванию соответствующих им собственных чисел, есть главные компоненты облака наблюдений, которые по- казывают направления наибольшей «вытянутости» (наибольшей дисперсии) этого облака. Количественную оценку степени этой «вытянутости» (дисперсии) дают соответствующие им собственные числа.

Пусть первые k собственных чисел «малы».

s2

E — сумма этих собственных чисел;

AE — часть матрицы A, соответствующая им (ее первые k стоблцов); это — коэффициенты по k уравнениям регрессии или k младших главных компонент;

AQ — остальная часть матрицы A, это — n k старших главных компонент или собственно главных компонент;

A = [AE , AQ];

xAE = 0 — гиперплоскость ортогональной регрессии размерности n k;

компонент;

AE Q. — координаты облака наблюдений в базисе главных

E — матрица размерности N × k остатков по уравнениям регрессии;

Q — матрица размерности N × (n k), столбцы которой есть значения так называемых главных факторов.

Поскольку At = A1, можно записать Xˆ

= E AE t + Q AQt . Откуда

получается два возможных представления расчетных значений переменных:= X E t = Q AQt . (6.30ервое из них — по уравнениям ортогональной регрессии, второе (альтерна- тивное) — по главным факторам (факторная модель).

2 

s

1 − sE

2 — аналог коэффициента детерминации, дающий оценку качества

Σ

обеих этих моделей.

Факторная модель представляет n переменных через n k факто- ров и, тем самым, «сжимает» ин- формацию, содержащуюся в исход- ных переменных. В конкретном ис- следовании, если k мало, то предпо-

чтительнее использовать ортогональ- ные регрессии, если k велико (со- ответственно n k мало), целе- сообразно применить факторную мо- дель. При этом надо иметь в ви- ду следующее: главные факторы —

расчетные величины, и содержатель- ная интерпретация их является, как правило, достаточно сложной зада- чей.

x1

A r

B

E

D

G

F

x

0 C

2

1

Рис. 6.1

Сделанные утверждения можно проиллюстрировать на примере n = 2, предполагая, что λ1 / λ2 , и упрощая обозначения (введенные выше матрицы являются в данном случае векторами):

a1 = AE — вектор параметров ортогональной регрессии,

a2 = AQ — вектор первой (в данном случае — единственной) главной компоненты,

e = E — остатки в уравнении ортогональной регрессии,

q = Q — значения первого (в данном случае — единственного) главного фактора.

На рисунке: OA — вектор-строка i-го наблюдения

xˆi = (xˆi1, xˆi2), OD

вектор-строка расчетных значений

xˆc , длина OC xˆi1 , длина OB xˆi2 ,

i

OE — вектор-строка ar , Ott — вектор-строка ar , длина OF ei , длина

1 2

OD qi .

Как видно из рисунка 6.1, квадрат длины вектора xˆi равен (из прямоугольных тре-

угольников OAC и OAD) xˆ2 + xˆ2

= e2 + q2 , и если сложить все эти уравнения по

i1 i2 i i

i и разделить на N , то получится s2 + s2 = s2 + s2 . Понятно, что s2 = λ1 , s2 = λ2 ,

1 2 e q e q

1

и это равенство означает, что след матрицы ковариации равен сумме ее собственных чисел. Кроме того, как видно из рисунка, s2 показывает дисперсию облака наблюде-

ний (суммарную дисперсию переменных регрессии) в направлении a1 наименьшей

2

«вытянутости» облака, s2 — дисперсию облака наблюдений в направлении a2 его наибольшей «вытянутости».

210 Глава 6. Алгебра линейной регрессии

Вектор OF есть eiar , а вектор OD qiar , и рисунок наглядно иллюстрирует

1 2

выполнение соотношения (6.30):

xˆc = xˆi eiar = qiar .

i 1 2

Пусть теперь n = 3, и λ1 , λ2 , λ3 , a1 , a2 , a3 — собственные числа и вектора ковариационной матрицы переменных.

  1. Если λ1 ≈ λ2 ≈ λ3 , то облако наблюдений не «растянуто» ни в одном из направ- лений. Зависимости между переменными отсутствуют.

  2. Если λ1 / λ2 ≈ λ3 и k = 1, то облако наблюдений имеет форму «блина». Плоскость, в которой лежит этот «блин», является плоскостью ортогональной ре- грессии, которую описывает уравнение xˆa1 = 0, а собственно уравнением регрессии

является Xˆ a1 = e.

Эту же плоскость представляют вектора a2 и a3 , являясь ее осями координат. В этих осях координат можно выразить любую точку данной плоскости, в том числе все точки расчетных значений переменных (6.30):

.

Xˆ c = q

 

a

.

r

q 2 = q ar + q ar ,

1 2  

a

r

3

1 2 2 3

где q1 =

Xˆ a2, q2 = Xˆ a3 — вектора значений главных факторов или вектора

координат расчетных значений переменных в осях a2 , a3 .

  1. Если λ1 ≈ λ2 / λ3 и k = 2, то облако наблюдений имеет форму «веретена». Ось этого «веретена» является линией регрессии, образованной пересечением двух

плоскостей

xˆa1 = 0 и

xˆa2 = 0. И уравнений ортогональной регрессии в данном

случае два: Xˆ a1 = e1 и Xˆ a2 = e2 .

Данную линию регрессии представляет вектор a3 , и через него можно выразить все расчетные значения переменных:

3

Xˆ c = qar ,

где q = Xˆ a3 — вектор значений главного фактора.

Соседние файлы в папке Диплом