Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Диплом / Algebra_lineynoy_regressii.docx
Скачиваний:
40
Добавлен:
24.03.2015
Размер:
2.49 Mб
Скачать

6.4. Многообразие оценок регрессии

Множество оценок регрессии не исчерпывается 2n − 1 отмеченными выше элементами. Перед тем как получать любую из этих оценок, можно провести пре- образование в пространстве наблюдений или переменных.

Преобразование в пространстве наблюдений проводится с помощью матрицы D размерности N t × N, N t N . Обе части исходного уравнения (6.3) умножа- ются слева на эту матрицу:

DXα = D1N β + Dε, (6.31)

6.4. Многообразие оценок регрессии 211

после чего проводится оценка параметров любым из указанных 2n − 1 способов. Понятно, что полученные оценки будут новыми, если только DtD ƒ= cIN , где c — любая константа.

В результате такого преобразования β может перестать являться свободным членом, если только D1N ƒ= c1N t ( c — любая константа). Но, главное, меняется распределение ошибок по наблюдениям. Именно с целью изменить это распре- деление в нужную сторону (с помощью подбора матрицы D) и проводятся такие преобразования (см. гл. 8).

Преобразование в пространстве переменных осуществляется с помощью квадратной невырожденной матрицы C размерности n × n: Y = XC — пре- образованные значения переменных регрессии. И затем оцениваются параметры регрессии в новом пространстве: Yf = 1N g + u.

Это преобразование можно проводить в пространстве центрированных пере- менных, т.к. Yˆ = Xˆ C .

Действительно: Xˆ C = .IN 1 1N 1r

. XC = .IN 1 1N 1r

. Y = Yˆ .

N N N N

То есть исходное уравнение регрессии (6.7) после преобразования приобретает вид:

Yˆ f = u. (6.32)

Оценки f являются новыми, если после «возвращения» их в исходное про- странство, которое производится умножением f слева на C , они не совпадут с оценками a, полученными в исходном пространстве, т.е. если a ƒ= Cf . Справед- ливость этого утверждения становится очевидной после следующего алгебраически эквивалентного преобразования исходного уравнения (6.7):

Xˆ C

C−1a

= e. (6.33)

Y

←−ˆ→ ←−f−→

Понятно, что МНК-оценка f совсем не обязательно совпадет с C1a — и тогда это будет новая оценка.

После преобразования меняется распределение ошибок в переменных регрес- сии. И именно для того, чтобы изменить это распределение в нужную сторону, осуществляются такие преобразования (см. гл. 8).

Результаты преобразований в пространстве переменных различны для простых и ортогональной регрессий.

В случае простой регрессии xj по xj это преобразование не приводит к по- лучению новых оценок, если j-я строка матрицы C является ортом, т.е. в объ- ясняющие переменные правой части не «попадает» — после преобразования — объясняемая переменная.

212 Глава 6. Алгебра линейной регрессии

Действительно, пусть для определенности j = 1 и C =

1 0

c−1 C−1

(первая

 

1 0

строка является ортом), C1 = .

 

C−1

1

1 c1 C

−1

Уравнение (6.33) записывается следующим образом:

.

Xˆ1 + Xˆ−1c−1

.

Xˆ

−1C−1

C−1c

1

C1a

1

= e

Y

←−−−−−−−−−−ˆ−−−−−−−−−−→

1 −1

1 −1

←−−−−−−−−−f−−−−−−−−→

или, после переноса переменных в правую часть:

. ˆ ˆ .

1 −1

X1 + X−1c−1

ˆ .

= X C C c

C

−1 −1 1 −1

+ −1

a−1.

+e1.

←−−−−−ˆ−−−−−→

←−−ˆ −−→ −−−f−−−−−

Y1 Y−1 1

Система нормальных уравнений для оценки f1 имеет следующий вид:

1 . ˆ ˆ

. 1 ˆ ˆ

1 −1

Cr Xˆ r

X1 + X−1c−1

= Cr X r

X1C1 .C c1 + C

a−1.

N −1 −1

N −1 −1

−1 −1

Y

Y r

ˆ ←−−−−−−−−−−→

←−−−−→ ←−−−−→ ←−−−−−−−−−−−−−→

−1

Y r Yˆ1

ˆ ˆ

1 −1

f−1

или, раскрыв скобки:

Cr

−1m1 + Cr

1M1c1 = Cr

1M1c1 + Cr

1M1a1.

− − −

1

После взаимного сокращения одинаковых слагаемых в полученном матричном урав- нении (2-го в левой части и 1-го в правой) и умножения обеих частей слева на Cr1

получается система нормальных уравнений для оценки a1 : m1 = M1a1 .

Это означает, что f1 после «возвращения» в исходное пространство совпадает с a1 , т.е. проведенное преобразование в пространстве переменных новых оценок регрессии не дает.

Верно и обратное утверждение: если j-я строка матрицы C не является ортом, то a и f совпадают с точностью до обратного преобразования только тогда, когда связь функциональна и e = 0.

6.4. Многообразие оценок регрессии 213

Пусть теперь C =

1

1 cr

0 In−1

(т.е. первая строка не является ортом),

C−1 =

1 −cr

−1

0 In−1

. Тогда уравнение (6.33) приобретает следующую форму:

. ˆ ˆ

 

ˆ . 1+ cr a

−1

X1 X1 + X1cr

ˆ

←−−−−−−−−→

Y−1

−1 1

a1

= e1, (6.34)

−1

или

←−−−−−f−−−−−→

−1

Xˆ1 .1+ cr

и

a1. = Yˆ

a−1

+ e1,

a 1

1

−1

−1

Xˆ1 = Yˆ

.1 + cr a1

. + .1+ cr a

1 −1

. e1.

Таким образом, условием совпадения a и f с точностью до обратного преобразо- вания является следующее:

a 1

1

f1 = .1+ cr

a−1.

. (6.35)

Система нормальных уравнений для оценки f1 имеет вид:

1

Yˆ r Xˆ

= Yˆ r Yˆ f ,

1

N −1 1

N −1

−1 −1

или, учтя зависимость Y от X из (6.34) и раскрыв скобки:

1 + c

m

−1

m−1 + c−1m11 = .M−1 + m−1cr −1 r

+ m11c1cr .

f−1.

−1

Это равенство с учетом (6.35) и (6.11) принимает вид:

r

(m1 + c1m11) .1+ c1

M1 m

−1. =

−1

= .M

+ m cr + c

mr + m c

cr .

M 1m .

−1 −1 1

−1 1

11 −1 1

1 −1

Раскрыв скобки и приведя подобные, можно получить следующее выражение:

c−1m11 = c−1mr

−1

1

−1M−1 m ,

214 Глава 6. Алгебра линейной регрессии

которое выполняется как равенство, только если

−1

m11 = mr

−1

1

M m

,

−1

т.е. если (в соответствии с (6.18))

q1

m11 = s2 .

Таким образом, a и f совпадают с точностью до обратного преобразования только тогда, когда полная дисперсия равна объясненной, т. е. связь функциональна и e = 0.

Что и требовалось доказать.

Итак, преобразования в пространстве переменных в простых регрессиях лишь в особых случаях приводят к получению новых оценок, обычно меняются толь- ко шкалы измерения. Некоторые из этих шкал находят применение в прикладном анализе. Такой пример дает стандартизированная шкала, которая возникает, ес- ли C = S1, где S — диагональная матрица среднеквадратических отклонений переменных.

Оценки параметров регрессии после преобразования оказываются измерен- ными в единицах среднеквадратических отклонений переменных от своих средних, и они становятся сопоставимыми между собой и с параметрами других регрес- сий.

j j j j

В этом случае система нормальных уравнений формируется коэффициентами корреляции, а не ковариации, и f = R1r , где R — матрица коэффици-

ентов корреляции объясняющих переменных между собой, rj — вектор столбец коэффициентов корреляции объясняющих переменных с объясняемой перемен-

ной.

Действительно (предполагается, что j = 1), соотношения (6.33) при указанной матрице C имеют следующую форму:

X1

. ˆ 1

s1

Xˆ−1

S

−1 . s

−1 1

= e1. (6.36)

ˆ

←−−→

Y1

←−−−−−→

ˆ

Y−1

 

S−1a−1

Для того чтобы вектор параметров приобрел необходимую для простой регрессии форму, его надо разделить на s1 . Тогда и e делится на s1 (т.е. на s1 делятся обе части уравнения (6.36)). После переноса объясняющих переменных в правую часть

получается следующее уравнение регрессии:

Yˆ = Yˆ f

1

+ e , где f

1

= S a .

1 −1 −1

s1 1

−1 −1

−1 s1

Система нормальных уравнений для f1 имеет следующий вид:

1

Yˆ r Yˆ

= Yˆ r Yˆ f ,

1

N −1 1

N −1

−1 −1

6.4. Многообразие оценок регрессии 215

или, учитывая зависимость Y от X из (6.36),

S−1

1 = S−1

−1 f .

s

1 m−1

1

←−−−r −−−→

1 M−1S1 −1

R

←−−−−−−−→

1

−1

Что и требовалось доказать.

Преобразование в пространстве переменных в ортогональной регрессии при использовании любой квадратной и невырожденной матрицы C ƒ= In приводит к получению новых оценок параметров.

В пункте 4.2 при n = 2 этот факт графически иллюстрировался в случае, когда

 

1 0

.

C =  

 

0 k

В общем случае верно утверждение, состоящее в том, что в результате пре- образования и «возвращения» в исходное пространство для получения оценок a надо решить следующую задачу:

(M − λΩ) a = 0, ata = 1, (6.37)

где Ω = Ct1C1.

Действительно:

После преобразования в пространстве переменных задача ортогональной регрессии записывается следующим образом (6.24, 6.25):

(MY − λIn) f = 0, f rf = 1, (6.38)

где, учитывая (6.33), MY = CrM C, f = C1a.

Выражение (6.37) получается в результате элементарных преобразований (6.38).

Понятно, что решение задачи (6.37) будет давать новую оценку параметрам a при любой квадратной и невырожденной матрице C ƒ= In . Такую регрессию иногда называют регрессией в метрике 1.

216 Глава 6. Алгебра линейной регрессии

Соседние файлы в папке Диплом