Диплом / suslov_ibragimov_ekonometrika
.pdf202 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Глава6.Алгебра линейной регрессии |
|||||||||||
Из равенства нулю ее производных по параметрам a−j |
определяется,что |
|
||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
a−j = M−−j1m−j , |
|
|
|
|
|
(6.11) |
||||||||||
где M |
= |
1 |
Xö ! |
Xö |
|
|
Ñматрица ковариации объясняющих переменных x |
−j |
||||||||||||||||||||
N |
|
|||||||||||||||||||||||||||
−j |
|
|
−j |
|
−j |
Xö ! |
Xö |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
между собой, m |
−j |
= |
1 |
Ñвектор-столбец ковариации объясняющих пе- |
||||||||||||||||||||||||
N |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
−j |
j |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
ременных с объясняемой переменной xj ; и |
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
cov (X |
, e ) = |
|
1 |
|
Xö ! |
e = 0. |
|
|
(6.12) |
||||||||||
|
|
|
|
|
|
|
|
N |
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
−j |
|
j |
|
|
−j |
j |
|
|
|
|
||||||
Действительно, |
|
|
|
|
|
( |
|
|
|
|
|
|
|
) |
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j |
|
|
||||||
|
|
|
∂sej2 |
|
= |
|
|
2 |
Xö " j |
Xöj |
|
Xö |
− |
j a |
− |
j = |
−2(m−j |
− M−j a−j ), |
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
∂a−j |
−N |
− |
|
− |
|
|
|
|
|
|
2 |
Xö |
" |
|
ej . |
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
−N |
− |
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Кроме того,очевидно,что матрица вторых производных равна 2M−j ,и она,как всякая ковариационная матрица,положительно полуопределена.Следовательно,в найденной точке достигается минимум остаточной дисперсии.
Справедливость утверждения о том,что любая матрица ковариации(теоретическая или ее оценка)положительно полуопределена,а если переменные линейно независимы,тоÑположительно определена,можно доказать в общем случае.
Пусть x Ñслучайный вектор-столбец с нулев ым математическим ожиданием.Его теоретическая матрица ковариации по определению равна E (xx").Пусть ξ =! 0 Ñ детерминированный вектор-столбец.Квадратичная форма
( )
ξ"E(xx")ξ = E(ξ"xx"ξ) = E (ξ"x)2 " 0,
т.е.матрица положительно полуопределена.Если не существует такого ξ =! 0,что ξ"x = 0,т.е.переменные вектора x линейноне зависятдруготдруга,тонеравенство выполняется строго,и соответствующа я матрица положительно определена.
Пусть X Ñматрица N наблюдений за переменными |
x.Оценкой матрицы ко- |
||||||||
вариации этих переменных является |
1 |
Xö "Xö .Квадратичная форма |
1 |
ξ"Xö "Xö ξ = |
|||||
|
|
||||||||
|
1 |
|
|
N |
|
N |
|||
= |
u"u " 0,где |
u = Xö ξ ,т.е.матрица положительно полуопределена.Если не |
|||||||
|
|||||||||
|
N |
ö |
|
|
|
|
|
||
существует такого |
|
|
x линейно не зависят друг |
||||||
ξ != 0,что X ξ = 0,т.е.переменные |
от друга,то неравенство выполняется стр ого,и соответствующая матрица положительно определена.
ОператорМНК-оцениванияобразуетсясоотношениями(6.11)и(6.5),которые в данном случае записываются следующим образом:
bj = xøj − xø−j a−j |
(6.13) |
6.2.Простая регрессия |
203 |
(соотношения МНК-оценивания(4.37),данные в пункте4.2без доказательства, являются частным случаем этого оператора).
Уравнения
m−j = M−j a−j , |
(6.14) |
решение которых дает первую часть оператора МНК-оценивания(6.11),называ-
ется системой нормальных уравнений.
МНК-оценки остатков имеют нулевую среднюю(6.6)и не коррелированы(ортогональны)с объясняющими переменными уравнения(6.12).
Систему нормальных уравнений можно вывести,используя иную логику.Если
обе части уравнения регрессии(6.9)умножить слева на Xö−! j и разделить на N , |
||||||||
то получится условие m |
−j |
= M |
a |
+ |
1 |
Xö |
! |
e ,из которого получается искомая |
|
||||||||
|
−j |
−j |
|
N |
−j |
j |
система при требованиях eøj = 0 и cov(X−j , ej ) = 0,следующих из полученных свойств МНК-оценок остатков.
Такаяжелогикаиспользуется вметоде инструментальных переменных.Пусть имеется матрица Z размерности N ×(n −1) наблюдений за некоторыми величинами z,называемыми инструментальными переменными,относительно которых
известно,что они линейно не зависят от |
εj и коррелированы с переменными X−j . |
|||||||||||||
Умножение обеих частей уравнения регрессии слева на Zö! |
и деление их на N да- |
|||||||||||||
ет условие |
1 |
Zö!Xö |
= |
1 |
Zö!Xö |
a |
−j |
+ |
1 |
Zö!e ,из которогоÑпосле отбрасывания |
||||
N |
|
|
N |
|||||||||||
|
j |
|
N |
−j |
|
|
j |
|
|
|||||
второго члена правой части в силу сделанных предположенийÑследует система |
||||||||||||||
нормальных уравнений метода инструментальных переменных: |
||||||||||||||
|
|
|
|
|
|
mz |
|
= M z |
az |
, |
(6.15) |
|||
|
|
|
|
|
|
|
−j |
|
|
−j |
−j |
|
|
где mz−j = cov (z, xj ), M−z j = cov (z, x−j ).
Значения j -й(объясняемой)переменной,лежащие на гиперплоскости регрессии,называются расчетными (по модели регрессии):
X c |
= X |
a |
+ 1 b |
, |
(6.16) |
j |
−j |
−j |
N j |
|
|
ö c |
ö |
|
. |
|
(6.17) |
Xj |
= X−j a−j |
|
Их дисперсия называется объясненной (дисперсия,объясненная регрессией) и может быть представлена в различных вариантах:
|
1 |
Xöj!c Xöjc |
(6.17) |
(6.11) |
sqj2 = |
|
= a−! j M−j a−j |
= a−! j m−j = m−! j a−j = m−! j M−−j1m−j . |
|
N |
(6.18)
6.3.Ортогональная регрессия |
205 |
Это утверждение доказывалось в пункте4.2при n = 2.В данном случае спра- |
|
ведливо утверждение,что соотношение(6.21)может(при некоторых |
j , j! )вы- |
полняться как равенство в том и только том случае,если среди переменных xj , j = 1, . . . , n существуют линейно зависимые.
Достаточностьэтогоутвержденияочевидна.Действительно,пустьпеременныенеко-
торого подмножества J линейно зависимы,т.е.существует такой вектор |
ξ ,в кото- |
|||||||||||||
ром |
ξj |
!= 0 |
при |
j |
1 |
j = 0 |
|
ö |
= 0 |
.Тогда для любого j |
|
J |
||
|
|
|
J |
и ξ |
при j / J , и X ξ |
|
|
|||||||
справедливо: |
a(j) = |
|
ξ ,причем |
aj! (j) = |
0 при j" |
/ J , и ej = 0,т.е.некоторые |
||||||||
ξj |
соотношения(6.21)выполняются как равенства.
Для доказательства необходимости утверждения предполагается,что существует такой ξ =! 0,что
Aξ = 0 |
(6.22) |
(т.е.,в частности,некоторые соотношения из(6.21)выполняются как равенства).
Сначала следует обратить внимание на то,что вслед за(6.14)все компоненты век- |
|||||||
тора M a(j) ( M Ñматрица ковариации всех переменных x: M = |
1 |
Xö "Xö ),кроме |
|||||
N |
|||||||
j -й,равны нулю,а j -я компонента этого вектора в силу(6.18, 6.19)равна |
s2 ,т.е. |
||||||
|
|
|
|
|
|
|
ej |
|
|
|
M A = Se2, |
|
|
|
(6.23) |
где Se2 Ñдиагональная матрица |
|
sej2 . |
|
|
|
|
|
Теперь,послеумноженияобеих |
частейполученногоматричногосоотношениясправа |
||||||
|
S |
T |
0 = Se2ξ ,которое |
||||
на вектор ξ ,определенный в(6.22),получается соотношение: |
|||||||
означает,что для всех j ,таких,что |
ξj != 0, sej2 = 0,т.е.переменные xj |
линейно |
зависят друг от друга.
Что и требовалось доказать.
Все возможные геометрические иллюстрации простых регрессий в пространстве наблюдений и переменных даны в пункте4.2.
6.3.Ортогональная регрессия
В случае,когда ограничения на вектор a (или α)состоят в требовании равенства единице длины этого вектора
a!a = 1 (α!α = 1), |
(6.24) |
и все переменные остаются в левой части уравнения,получается ортогональная регрессия,в которой расстояния от точек облака наблюдений до гиперплоскости регрессии измеряются перпендикулярно этой гиперплоскости.Разъяснения этому факту давались в пункте4.2.
206 |
Глава6.Алгебра линейной регрессии |
Оценка параметров регрессии производится из условия минимизации остаточной дисперсии:
|
(6.7) |
1 |
a!Xö !Xö a = a!M a |
|
|
s2 |
= |
|
→ |
min!, |
|
|
|||||
e |
|
N |
|
где = 1 ö ! ö Ñковариационная матрица переменных регрессии,при условии
M N X X
(6.24).
Из требования равенства нулю производной по a соответствующей функции Лагранжа следует,что
(M − λIn) a = 0, |
(6.25) |
где λ Ñмножитель Лагранжа ограничения(6.24),причем
λ = se2. |
(6.26) |
Действительно,функция Лагранжа имеет вид:
L(a,λ ) = a"M a − λa"a,
авектор ее производных по a:
∂L = 2 (M a − λa) .
∂a
Откуда получается соотношение(6.25).А если обе части этого соотношения умножить слева на a" и учесть(6.24),то получается(6.26).
Таким образом,применение МНК сводит ся к поиску минимального собственного числа λ ковариационной матрицы M и соответствующего ему собственного(правого)вектора a (см.также ПриложениеA.1.2).Благодаря свойствам данной матрицы(вещественность,симме тричность и положительная полуопределенность),искомые величины существую т,они вещественны,а собственное число неотрицательно(предполагается,что оно единственно).Пусть эти оценки получены.
В ортогональной регрессии все переменные x выступают объясняемыми,или моделируемыми,их расчетные значения определяются по формуле:
ö c = ö − ! (6.27)
X X ea .
6.3.Ортогональная регрессия |
207 |
Действительно: Xö ca = Xö a − e a"a = 0,т.е.вектор-строки xöic ,соответствующие |
|
e |
1 |
←−→ |
←→ |
наблюдениям,лежат на гиперплоскости регрессии и являются проекциями на нее вектор-строк фактических наблюдений xöi (вектор a по построению ортогонален
гиперплоскости регрессии,а ei a" Ñвектор нормали xöic |
на xöi ),а аналогом коэф- |
|||
фициента детерминации выступает величина 1 − |
λ |
sΣ2 = |
n |
|
|
,где |
sj2 Ñсуммарная |
||
s2 |
||||
|
Σ |
|
j=1 |
|
дисперсия переменных x,равная следу матрицы M . |
|
% |
Таким образом,к n оценкам вектора a простой регрессии добавляется оценка этого вектора ортогональной регрессии,и о бщее количество этих оценок становится равным n + 1.
Задачу простой иортогональной регрессииможно записать в единой,обобщенной форме:
(M |
− |
λW ) a = 0, a!W a = 1, λ |
→ |
min!, |
(6.28) |
|
|
|
|
где W Ñдиагональная n×n-матрица,надиагоналикотороймогутстоять 0 или 1.
В случае,если в матрице |
W имеется |
единственный ненулевой элемент |
wj j = 1,то этоÑзадача простой регрессии xj |
по x−j (действительно,это следу- |
|
ет из соотношения(6.23));если |
W является единичной матрицей,то этоÑзадача |
ортогональной регрессии.Очевидно,что в озможны и все промежуточные случаи, когда некоторое количество n1, 1 < n1 < n,переменных остается в левой части уравнения,а остальные n2 переменных переносятся в правую часть уравнения регрессии:
Xö 1a1 = Xö 2a2 + e1, |
(a1)! a1 = 1. |
|
Если J Ñмножество переменных,оставленных в левой части уравнения,то |
||
в записи(6.28)такой регрессии |
wj j = 1 для j J и wj j = 0 для остальных j . |
|
Оценка параметров регрессии производится следующим образом: |
||
a2 = M22−1M21a1, |
(M11 − M12M22−1M21 − λIn1 )a1 = 0 |
( a1 находится как правый собственный вектор,соответствующий минимальному собственному числу матрицы M11 − M12M22−1M21),где
M11 |
= N (Xö 1)! |
Xö 1, |
||
|
1 |
|
|
|
M12 |
= M21! = N (Xö 1)! Xö 2, |
|||
|
|
1 |
|
|
M22 |
= N (Xö 2)! |
Xö 2 |
||
|
1 |
|
|
|
208 Глава6.Алгебра линейной регрессии
Ñсоответствующие ковариационные матрицы.
Таким образом,общее коли чество оценок регрессииÑ (2n − 1).В рамках любой из этих оценок λ в(6.28)является остаточной дисперсией.
Задача ортогональной регрессии легко обобщается на случай нескольких уравнений и альтернативного представления расчетных значений изучаемых переменных.
Матрица M ,как уже отмечалось,имеет n вещественных неотрицательных собственных чисел,сумма которых равна s2Σ, и n соответствующих имвещественных взаимноортогональных собственных векторов,дающих ортонормированный базис в пространстве наблюдений(см.также ПриложениеA.1.2).Пусть собственные числа,упорядоченные по возраст анию,образуют диагональную матрицу Λ, а соответствующие им собственные вектора(столбцы) Ñматрицу A.Тогда
A!A = In, M A = AΛ. |
(6.29) |
Собственные вектора,если их рассмат ривать по убыванию соответствующих имсобственных чисел,есть главные компоненты облаканаблюдений,которыепоказываютнаправления наибольшейÇвытянутостиÈ (наибольшейдисперсии)этого облака.Количественную о ценку степени этойÇвытянутостиÈ (дисперсии)дают соответствующие им собственные числа.
Пусть первые k собственных чиселÇмалыÈ. s2E Ñсумма этих собственных чисел;
AE Ñчасть матрицы A,соответствующая им(ее первые k стоблцов);этоÑ коэффициенты по k уравнениям регрессии или k младших главных компонент;
AQ Ñостальная часть матрицы |
A,этоÑ n − k старших главных компонент |
|||||||||||||
или собственно главных компонент; |
|
|
|
|
|
|
|
|||||||
A = [AE , AQ ]; |
|
|
|
|
|
|
|
|
|
|
|
|||
xAE = 0 Ñгиперплоскость ортогональной регрессии размерности n − k; |
||||||||||||||
компонент[ ] ;= |
|
ö |
6 |
7 |
Ñкоординаты облака наблюдений в базисе главных |
|||||||||
E, Q |
X A , A |
|||||||||||||
E Ñматрица размерности |
N × k остатков по уравнениям регрессии; |
|||||||||||||
Q Ñматрица размерности |
N × (n − k),столбцы которой есть значения так |
|||||||||||||
называемых главных факторов. |
|
|
|
|
|
|
|
|
||||||
Поскольку |
A! |
= A−1,можно записать |
Xö = E AE ! |
+ Q AQ !.Откуда |
||||||||||
получается два возможных представления расчетных |
значений переменных: |
|||||||||||||
|
( |
) |
( ) |
|||||||||||
|
|
|
|
X |
(6.27) |
ö |
− |
( ) |
! (2) |
( |
|
) . |
|
|
|
|
|
|
ö c |
(1) |
|
E |
|
|
Q |
! |
(6.30) |
||
|
|
|
|
|
= |
X |
|
E A |
= Q A |
|
|
6.3.Ортогональная регрессия |
209 |
Первое из нихÑпо уравнениям ортогона льной регрессии,второе(альтернативное) Ñпо главным факторам(факторная модель).
1 − s2E "s2Σ Ñаналог коэффициента детерминации,дающий оценку качества обеих этих моделей.
Факторная модель представляет n |
|
|
|
|||||
переменных |
через |
n − k |
факто- |
x1 |
|
|
||
ров и,тем самым, |
ÇсжимаетÈин- |
|
A |
r |
||||
формацию,содержащуюся |
в |
исход- |
B |
|
|
|||
|
|
|
|
|
|
|
|
|
ных переменных.В |
конкретном ис- |
E |
|
|
||||
|
|
D |
||||||
следовании,если k |
мало,то предпо- |
G |
|
|||||
|
|
|||||||
чтительнее использовать |
ортогональ- |
F |
|
|
||||
|
|
|
||||||
ные регрессии,если |
|
k |
велико(со- |
|
|
|
||
|
0 |
C |
x2 |
|||||
ответственно |
n − |
k мало),целе- |
|
|||||
|
|
|||||||
|
|
|
||||||
сообразно применить |
факторную мо- |
1 |
|
|
||||
дель.При этом надо |
иметь |
в ви- |
|
|
||||
|
|
|
||||||
ду следующее:главные факторыÑ |
|
|
|
|||||
расчетные величины,и содержатель- |
Рис. 6.1 |
|
|
|||||
ная интерпретация |
их |
является,как |
|
|
правило,достаточно сложной задачей.
Сделанныеутвержденияможнопроиллюстрироватьнапримере n = 2,предполагая, что λ1 / λ2 ,и упрощая обозначения(введенные выше матрицы являются в данном случае векторами):
a1 = AE Ñвектор параметров ортогональной регрессии,
a2 = AQ Ñвекторпервой(вданномслучаеÑединственной)главнойкомпоненты, e = E Ñостатки в уравнении ортогональной регрессии,
q = Q Ñзначения первого(в данном случаеÑединственного)главного фактора.
На рисунке: |
OA Ñвектор-строка |
i-го наблюдения xöi = |
(öxi1, xöi2), OD Ñ |
|||||
вектор-строка |
расчетных |
значений |
xöc ,длина |
OC Ñ xöi1 ,длина OB Ñ xöi2, |
||||
|
|
|
|
i |
|
|
|
|
OE Ñвектор-строка a1" , |
OG Ñвектор-строка a2" ,длина |
OF Ñ ei ,длина |
||||||
OD Ñ qi . |
|
|
|
|
|
|
|
|
Как видно из рисунка6.1,квадрат длины вектора |
xöi равен(из прямоугольных тре- |
|||||||
угольников OAC и OAD ) xö2 + xö2 |
= e2 + q2 |
,и если сложить все эти уравнения по |
||||||
|
|
i1 |
i2 |
i |
i |
|
|
|
i и разделить на N ,то получится |
s12 + s22 |
= se2 |
+ sq2.Понятно,что |
se2 = λ1 , sq2 = λ2, |
и это равенство означает,что след матрицы ковариации равен сумме ее собственных чисел.Крометого,каквидноизрисунка, s21 показывает дисперсиюоблака наблюдений(суммарную дисперсию переменных регрессии)в направлении a1 наименьшей ÇвытянутостиÈоблака, s22 Ñдисперсию облака наблюдений в направлении a2 его наибольшейÇвытянутостиÈ.
210 |
Глава6.Алгебра линейной регрессии |
Вектор OF есть eia"1,а вектор OD Ñ qi a"2,и рисунок наглядно иллюстрирует выполнение соотношения(6.30):
xöci = xöi − eia"1 = qi a"2.
Пусть теперь n = 3, и λ1, λ2, λ3 , a1, a2, a3 Ñсобственные числа и вектора ковариационной матрицы переменных.
1)Если λ1 ≈ λ2 ≈ λ3,то облако наблюдений неÇрастянутоÈни в одном из направлений.Зависимости между переменными отсутствуют.
2)Если λ1 / λ2 ≈ λ3 и k = 1,то облако наблюдений имеет формуÇблинаÈ. Плоскость,в которой лежит этотÇблинÈ,является плоскостью ортогональной ре-
грессии,которуюописываетуравнение xaö |
1 = 0,асобственноуравнениемрегрессии |
||
является |
ö |
= e. |
|
X a1 |
|
Эту же плоскость представляют вектора a2 и a3,являясь ее осями координат. В этих осях координат можно выразить любую точку данной плоскости,в том числе все точки расчетных значений переменных(6.30):
|
Xö c = |
q1 q2 |
|
a2" |
= q1a2" |
+ q2a3" , |
|
|
|
< |
|
= |
a3" |
|
|
где q1 |
ö |
ö |
|
|
|
|
|
= X a2, q2 = |
X a3 |
Ñвектора значений главных факторов или вектора |
|||||
координат расчетных значений переменных в осях a2, |
a3. |
||||||
3)Если |
λ1 ≈ λ2 / λ3 |
и k = 2,то облако наблюдений имеет формуÇверетенаÈ. |
Ось этогоÇверетенаÈявляется линией регрессии,образованной пересечением двух плоскостей xaö 1 = 0 и xaö 2 = 0.И уравнений ортогональной регрессии в данном
случае два: ö = и ö = .
X a1 e1 X a2 e2
Данную линию регрессии представляет вектор a3,и через него можно выразить все расчетные значения переменных:
ö c = qa"3, X
где = ö Ñвектор значений главного фактора. q X a3
6.4.Многообразие оценок регрессии
Множество оценок регрессии не исчерпывается 2n − 1 отмеченными выше элементами.Перед тем как получать любую из этих оценок,можно провести преобразование в пространстве наблюдений или переменных.
Преобразование в пространстве наблюдений проводится спомощью матрицы
D размерности N ! × N, N ! ! N .Обе части исходного уравнения(6.3)умножаются слева на эту матрицу:
DXα = D1N β + Dε, |
(6.31) |
6.4.Многообразие оценок регрессии |
211 |
после чего проводится оценка параметров любым из указанных 2n − 1 способов. Понятно,что полученные оценки будут новыми,если только D!D =! cIN ,где c Ñ любая константа.
В результате такого преобразования β может перестать являться свободным членом,если только D1N =! c1N ! ( c Ñлюбая константа).Но,главное,меняется распределение ошибок по наблюдениям.Именно с целью изменить это распределение в нужную сторону(с помощью подбора матрицы D)и проводятся такие преобразования(см.гл. 8).
Преобразование в пространстве переменных осуществляется с помощью квадратной невырожденной матрицы C размерности n × n: Y = X C Ñпреобразованные значения переменных регрессии.И затем оцениваются параметры регрессии в новом пространстве: Y f = 1N g + u.
Это преобразование можно проводить в пространстве центрированных пере-
менных,т.к. |
ö |
ö |
Y |
= X C . |
Действительно: ö = 0 − 1 1 1" 1 = 0 − 1 1 1" 1 = ö .
X C IN N N N X C IN N N N Y Y
То есть исходное уравнение регрессии(6.7)после преобразования приобретает
вид: |
|
|
ö |
|
(6.32) |
Y f = u. |
|
|
Оценки f являются новыми,если послеÇ |
возвращенияÈих в исходное про- |
|
странство,которое производится умножением |
f слева на |
C ,они не совпадут |
с оценками a,полученными в исходном пространстве,т.е.если |
a != C f .Справед- |
ливостьэтогоутверждениястановитсяочевиднойпослеследующегоалгебраически эквивалентного преобразования исходного уравнения(6.7):
Xö C |
C −1a = e. |
(6.33) |
←−→Yö |
←−−→f |
|
Понятно,что МНК-оценка f совсем не обязательно совпадет с C −1a Ñи тогда это будет новая оценка.
После преобразования меняется распределение ошибок в переменных регрессии.И именно для того,чтобы изменить э то распределение в нужную сторону, осуществляются такие преобразования(см.гл. 8).
Результаты преобразований в пространстве переменных различны для простых
иортогональной регрессий.
Вслучае простой регрессии xj по x−j это преобразование не приводит к получению новых оценок,если j -я строка матрицы C является ортом,т.е.в объясняющие переменные правой части неÇпо падаетÈ Ñпосле преобразованияÑ объясняемая переменная.