Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Диплом / suslov_ibragimov_ekonometrika

.pdf
Скачиваний:
41
Добавлен:
24.03.2015
Размер:
5.55 Mб
Скачать

202

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Глава6.Алгебра линейной регрессии

Из равенства нулю ее производных по параметрам a−j

определяется,что

 

 

 

 

 

 

 

 

 

 

 

 

 

a−j = Mj1m−j ,

 

 

 

 

 

(6.11)

где M

=

1

Xö !

Xö

 

 

Ñматрица ковариации объясняющих переменных x

−j

N

 

−j

 

 

−j

 

−j

Xö !

Xö

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

между собой, m

−j

=

1

Ñвектор-столбец ковариации объясняющих пе-

N

 

 

 

 

 

 

 

−j

j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ременных с объясняемой переменной xj ; и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

cov (X

, e ) =

 

1

 

Xö !

e = 0.

 

 

(6.12)

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−j

 

j

 

 

−j

j

 

 

 

 

Действительно,

 

 

 

 

 

(

 

 

 

 

 

 

 

)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j

 

 

 

 

 

∂sej2

 

=

 

 

2

Xö " j

Xöj

 

Xö

j a

j =

−2(m−j

− M−j a−j ),

 

 

 

 

 

 

 

 

 

 

 

 

 

 

∂a−j

N

 

 

 

 

 

 

 

2

Xö

"

 

ej .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Кроме того,очевидно,что матрица вторых производных равна 2M−j ,и она,как всякая ковариационная матрица,положительно полуопределена.Следовательно,в найденной точке достигается минимум остаточной дисперсии.

Справедливость утверждения о том,что любая матрица ковариации(теоретическая или ее оценка)положительно полуопределена,а если переменные линейно независимы,тоÑположительно определена,можно доказать в общем случае.

Пусть x Ñслучайный вектор-столбец с нулев ым математическим ожиданием.Его теоретическая матрица ковариации по определению равна E (xx").Пусть ξ =! 0 Ñ детерминированный вектор-столбец.Квадратичная форма

( )

ξ"E(xx")ξ = E(ξ"xx"ξ) = E (ξ"x)2 " 0,

т.е.матрица положительно полуопределена.Если не существует такого ξ =! 0,что ξ"x = 0,т.е.переменные вектора x линейноне зависятдруготдруга,тонеравенство выполняется строго,и соответствующа я матрица положительно определена.

Пусть X Ñматрица N наблюдений за переменными

x.Оценкой матрицы ко-

вариации этих переменных является

1

Xö "Xö .Квадратичная форма

1

ξ"Xö "Xö ξ =

 

 

 

1

 

 

N

 

N

=

u"u " 0,где

u = Xö ξ ,т.е.матрица положительно полуопределена.Если не

 

 

N

ö

 

 

 

 

 

существует такого

 

 

x линейно не зависят друг

ξ != 0,что X ξ = 0,т.е.переменные

от друга,то неравенство выполняется стр ого,и соответствующая матрица положительно определена.

ОператорМНК-оцениванияобразуетсясоотношениями(6.11)и(6.5),которые в данном случае записываются следующим образом:

bj = xøj − xø−j a−j

(6.13)

6.2.Простая регрессия

203

(соотношения МНК-оценивания(4.37),данные в пункте4.2без доказательства, являются частным случаем этого оператора).

Уравнения

m−j = M−j a−j ,

(6.14)

решение которых дает первую часть оператора МНК-оценивания(6.11),называ-

ется системой нормальных уравнений.

МНК-оценки остатков имеют нулевую среднюю(6.6)и не коррелированы(ортогональны)с объясняющими переменными уравнения(6.12).

Систему нормальных уравнений можно вывести,используя иную логику.Если

обе части уравнения регрессии(6.9)умножить слева на Xö! j и разделить на N ,

то получится условие m

−j

= M

a

+

1

Xö

!

e ,из которого получается искомая

 

 

−j

−j

 

N

−j

j

система при требованиях eøj = 0 и cov(X−j , ej ) = 0,следующих из полученных свойств МНК-оценок остатков.

Такаяжелогикаиспользуется вметоде инструментальных переменных.Пусть имеется матрица Z размерности N ×(n −1) наблюдений за некоторыми величинами z,называемыми инструментальными переменными,относительно которых

известно,что они линейно не зависят от

εj и коррелированы с переменными X−j .

Умножение обеих частей уравнения регрессии слева на Zö!

и деление их на N да-

ет условие

1

Zö!Xö

=

1

Zö!Xö

a

−j

+

1

Zö!e ,из которогоÑпосле отбрасывания

N

 

 

N

 

j

 

N

−j

 

 

j

 

 

второго члена правой части в силу сделанных предположенийÑследует система

нормальных уравнений метода инструментальных переменных:

 

 

 

 

 

 

mz

 

= M z

az

,

(6.15)

 

 

 

 

 

 

 

−j

 

 

−j

−j

 

 

где mz−j = cov (z, xj ), Mz j = cov (z, x−j ).

Значения j -й(объясняемой)переменной,лежащие на гиперплоскости регрессии,называются расчетными (по модели регрессии):

X c

= X

a

+ 1 b

,

(6.16)

j

−j

−j

N j

 

 

ö c

ö

 

.

 

(6.17)

Xj

= X−j a−j

 

Их дисперсия называется объясненной (дисперсия,объясненная регрессией) и может быть представлена в различных вариантах:

 

1

Xöj!c Xöjc

(6.17)

(6.11)

sqj2 =

 

= a! j M−j a−j

= a! j m−j = m! j a−j = m! j Mj1m−j .

N

(6.18)

sj sqj

204

Глава6.Алгебра линейной регрессии

Если раскрыть скобки в выражении остаточной дисперсии(6.10)и провести преобразования в соответствии с(6.11, 6.18),то получается s2ej = s2j − s2qj , где s2j Ñдисперсия j -й(объясняемой)переменной,или

sj2 = sqj2 + sej2 .

(6.19)

ЭтоÑ дисперсионное тождество,показывающее разложение общей дисперсии объясняемой переменной на две частиÑобъясненную(регрессией)и остаточную.

Доля объясненной дисперсии в общей называется коэффициентом детерми-

нации:

Rj2 =

sqj2

= 1

sej2

(6.20)

 

 

,

s2

s2

 

j

 

 

j

 

 

который является показателем точности аппроксимации исходных значений объясняемойпеременнойгиперплоскостьюрегрессии(объясняющимипеременными).

Он является квадратом коэффициента множественной корреляции между объ-

ясняемой и объясняющими переменными rj,−j ,который,по определению,равен коэффициенту парной корреляции между исходными и расчетными значениями объясняемой переменной:

rj, j =

cov x , xc

=

1

ö

j!

ö c

(6=.

1

ö

ö

−j

−j

(

)

 

 

j

 

j!

 

 

j

j

 

 

 

X X

17)

 

 

X X

a

 

sj sqj

 

 

N sj sqj

 

N sj sqj

 

 

 

 

 

 

 

 

 

 

 

 

 

= m! j

=

a−j (6.18)

=

sj sqj

= GRj2.

sqj2

(6.20)

 

 

Из(6.19)следует,чтокоэффициенткорреляциипоабсолютнойвеличиненепревышает единицы.

Эти утверждения,начиная с(6.16),обобщают положения,представленные в конце пункта4.2.

Композиция 1 и −aj обозначается a(j) и является одной из оценок вектора α.Всего таких оценок имеется n Ñпо числу простых регрессий,в левой части уравнениякоторыхпоочередиостаютсяпеременные xj , j = 1, . . . , n.Этивекторстолбцы образуют матрицу A.По построению ее диагональные элементы равны единице( aj j = 1 вслед за aj (j) = 1).

Все эти оценки в общем случае различны,т.е.одну из другой нельзя получить

алгебраическим преобразованием соответствующих уравнений регрессии:

 

a (j) !=

1

0j!1

, j != j!.

(6.21)

aj (j!)a

6.3.Ортогональная регрессия

205

Это утверждение доказывалось в пункте4.2при n = 2.В данном случае спра-

ведливо утверждение,что соотношение(6.21)может(при некоторых

j , j! )вы-

полняться как равенство в том и только том случае,если среди переменных xj , j = 1, . . . , n существуют линейно зависимые.

Достаточностьэтогоутвержденияочевидна.Действительно,пустьпеременныенеко-

торого подмножества J линейно зависимы,т.е.существует такой вектор

ξ ,в кото-

ром

ξj

!= 0

при

j

1

j = 0

 

ö

= 0

.Тогда для любого j

 

J

 

 

 

J

и ξ

при j / J , и X ξ

 

 

справедливо:

a(j) =

 

ξ ,причем

aj! (j) =

0 при j"

/ J , и ej = 0,т.е.некоторые

ξj

соотношения(6.21)выполняются как равенства.

Для доказательства необходимости утверждения предполагается,что существует такой ξ =! 0,что

Aξ = 0

(6.22)

(т.е.,в частности,некоторые соотношения из(6.21)выполняются как равенства).

Сначала следует обратить внимание на то,что вслед за(6.14)все компоненты век-

тора M a(j) ( M Ñматрица ковариации всех переменных x: M =

1

Xö "Xö ),кроме

N

j -й,равны нулю,а j -я компонента этого вектора в силу(6.18, 6.19)равна

s2 ,т.е.

 

 

 

 

 

 

 

ej

 

 

 

M A = Se2,

 

 

 

(6.23)

где Se2 Ñдиагональная матрица

 

sej2 .

 

 

 

 

Теперь,послеумноженияобеих

частейполученногоматричногосоотношениясправа

 

S

T

0 = Se2ξ ,которое

на вектор ξ ,определенный в(6.22),получается соотношение:

означает,что для всех j ,таких,что

ξj != 0, sej2 = 0,т.е.переменные xj

линейно

зависят друг от друга.

Что и требовалось доказать.

Все возможные геометрические иллюстрации простых регрессий в пространстве наблюдений и переменных даны в пункте4.2.

6.3.Ортогональная регрессия

В случае,когда ограничения на вектор a (или α)состоят в требовании равенства единице длины этого вектора

a!a = 1 (α!α = 1),

(6.24)

и все переменные остаются в левой части уравнения,получается ортогональная регрессия,в которой расстояния от точек облака наблюдений до гиперплоскости регрессии измеряются перпендикулярно этой гиперплоскости.Разъяснения этому факту давались в пункте4.2.

206

Глава6.Алгебра линейной регрессии

Оценка параметров регрессии производится из условия минимизации остаточной дисперсии:

 

(6.7)

1

a!Xö !Xö a = a!M a

 

 

s2

=

 

min!,

 

e

 

N

 

где = 1 ö ! ö Ñковариационная матрица переменных регрессии,при условии

M N X X

(6.24).

Из требования равенства нулю производной по a соответствующей функции Лагранжа следует,что

(M − λIn) a = 0,

(6.25)

где λ Ñмножитель Лагранжа ограничения(6.24),причем

λ = se2.

(6.26)

Действительно,функция Лагранжа имеет вид:

L(a,λ ) = a"M a − λa"a,

авектор ее производных по a:

∂L = 2 (M a − λa) .

∂a

Откуда получается соотношение(6.25).А если обе части этого соотношения умножить слева на a" и учесть(6.24),то получается(6.26).

Таким образом,применение МНК сводит ся к поиску минимального собственного числа λ ковариационной матрицы M и соответствующего ему собственного(правого)вектора a (см.также ПриложениеA.1.2).Благодаря свойствам данной матрицы(вещественность,симме тричность и положительная полуопределенность),искомые величины существую т,они вещественны,а собственное число неотрицательно(предполагается,что оно единственно).Пусть эти оценки получены.

В ортогональной регрессии все переменные x выступают объясняемыми,или моделируемыми,их расчетные значения определяются по формуле:

ö c = ö ! (6.27)

X X ea .

6.3.Ортогональная регрессия

207

Действительно: Xö ca = Xö a − e a"a = 0,т.е.вектор-строки xöic ,соответствующие

e

1

←−→

←→

наблюдениям,лежат на гиперплоскости регрессии и являются проекциями на нее вектор-строк фактических наблюдений xöi (вектор a по построению ортогонален

гиперплоскости регрессии,а ei a" Ñвектор нормали xöic

на xöi ),а аналогом коэф-

фициента детерминации выступает величина 1 −

λ

sΣ2 =

n

 

,где

sj2 Ñсуммарная

s2

 

Σ

 

j=1

дисперсия переменных x,равная следу матрицы M .

 

%

Таким образом,к n оценкам вектора a простой регрессии добавляется оценка этого вектора ортогональной регрессии,и о бщее количество этих оценок становится равным n + 1.

Задачу простой иортогональной регрессииможно записать в единой,обобщенной форме:

(M

λW ) a = 0, a!W a = 1, λ

min!,

(6.28)

 

 

 

 

где W Ñдиагональная n×n-матрица,надиагоналикотороймогутстоять 0 или 1.

В случае,если в матрице

W имеется

единственный ненулевой элемент

wj j = 1,то этоÑзадача простой регрессии xj

по x−j (действительно,это следу-

ет из соотношения(6.23));если

W является единичной матрицей,то этоÑзадача

ортогональной регрессии.Очевидно,что в озможны и все промежуточные случаи, когда некоторое количество n1, 1 < n1 < n,переменных остается в левой части уравнения,а остальные n2 переменных переносятся в правую часть уравнения регрессии:

Xö 1a1 = Xö 2a2 + e1,

(a1)! a1 = 1.

Если J Ñмножество переменных,оставленных в левой части уравнения,то

в записи(6.28)такой регрессии

wj j = 1 для j J и wj j = 0 для остальных j .

Оценка параметров регрессии производится следующим образом:

a2 = M22−1M21a1,

(M11 − M12M22−1M21 − λIn1 )a1 = 0

( a1 находится как правый собственный вектор,соответствующий минимальному собственному числу матрицы M11 − M12M22−1M21),где

M11

= N (Xö 1)!

Xö 1,

 

1

 

 

 

M12

= M21! = N (Xö 1)! Xö 2,

 

 

1

 

M22

= N (Xö 2)!

Xö 2

 

1

 

 

 

208 Глава6.Алгебра линейной регрессии

Ñсоответствующие ковариационные матрицы.

Таким образом,общее коли чество оценок регрессииÑ (2n − 1).В рамках любой из этих оценок λ в(6.28)является остаточной дисперсией.

Задача ортогональной регрессии легко обобщается на случай нескольких уравнений и альтернативного представления расчетных значений изучаемых переменных.

Матрица M ,как уже отмечалось,имеет n вещественных неотрицательных собственных чисел,сумма которых равна s2Σ, и n соответствующих имвещественных взаимноортогональных собственных векторов,дающих ортонормированный базис в пространстве наблюдений(см.также ПриложениеA.1.2).Пусть собственные числа,упорядоченные по возраст анию,образуют диагональную матрицу Λ, а соответствующие им собственные вектора(столбцы) Ñматрицу A.Тогда

A!A = In, M A = AΛ.

(6.29)

Собственные вектора,если их рассмат ривать по убыванию соответствующих имсобственных чисел,есть главные компоненты облаканаблюдений,которыепоказываютнаправления наибольшейÇвытянутостиÈ (наибольшейдисперсии)этого облака.Количественную о ценку степени этойÇвытянутостиÈ (дисперсии)дают соответствующие им собственные числа.

Пусть первые k собственных чиселÇмалыÈ. s2E Ñсумма этих собственных чисел;

AE Ñчасть матрицы A,соответствующая им(ее первые k стоблцов);этоÑ коэффициенты по k уравнениям регрессии или k младших главных компонент;

AQ Ñостальная часть матрицы

A,этоÑ n − k старших главных компонент

или собственно главных компонент;

 

 

 

 

 

 

 

A = [AE , AQ ];

 

 

 

 

 

 

 

 

 

 

 

xAE = 0 Ñгиперплоскость ортогональной регрессии размерности n − k;

компонент[ ] ;=

 

ö

6

7

Ñкоординаты облака наблюдений в базисе главных

E, Q

X A , A

E Ñматрица размерности

N × k остатков по уравнениям регрессии;

Q Ñматрица размерности

N × (n − k),столбцы которой есть значения так

называемых главных факторов.

 

 

 

 

 

 

 

 

Поскольку

A!

= A−1,можно записать

Xö = E AE !

+ Q AQ !.Откуда

получается два возможных представления расчетных

значений переменных:

 

(

)

( )

 

 

 

 

X

(6.27)

ö

( )

! (2)

(

 

) .

 

 

 

 

 

ö c

(1)

 

E

 

 

Q

!

(6.30)

 

 

 

 

 

=

X

 

E A

= Q A

 

 

6.3.Ортогональная регрессия

209

Первое из нихÑпо уравнениям ортогона льной регрессии,второе(альтернативное) Ñпо главным факторам(факторная модель).

1 − s2E "sÑаналог коэффициента детерминации,дающий оценку качества обеих этих моделей.

Факторная модель представляет n

 

 

 

переменных

через

n − k

факто-

x1

 

 

ров и,тем самым,

ÇсжимаетÈин-

 

A

r

формацию,содержащуюся

в

исход-

B

 

 

 

 

 

 

 

 

 

 

ных переменных.В

конкретном ис-

E

 

 

 

 

D

следовании,если k

мало,то предпо-

G

 

 

 

чтительнее использовать

ортогональ-

F

 

 

 

 

 

ные регрессии,если

 

k

велико(со-

 

 

 

 

0

C

x2

ответственно

n −

k мало),целе-

 

 

 

 

 

 

сообразно применить

факторную мо-

1

 

 

дель.При этом надо

иметь

в ви-

 

 

 

 

 

ду следующее:главные факторыÑ

 

 

 

расчетные величины,и содержатель-

Рис. 6.1

 

 

ная интерпретация

их

является,как

 

 

правило,достаточно сложной задачей.

Сделанныеутвержденияможнопроиллюстрироватьнапримере n = 2,предполагая, что λ1 / λ2 ,и упрощая обозначения(введенные выше матрицы являются в данном случае векторами):

a1 = AE Ñвектор параметров ортогональной регрессии,

a2 = AQ Ñвекторпервой(вданномслучаеÑединственной)главнойкомпоненты, e = E Ñостатки в уравнении ортогональной регрессии,

q = Q Ñзначения первого(в данном случаеÑединственного)главного фактора.

На рисунке:

OA Ñвектор-строка

i-го наблюдения xöi =

(öxi1, xöi2), OD Ñ

вектор-строка

расчетных

значений

c ,длина

OC Ñ xöi1 ,длина OB Ñ xöi2,

 

 

 

 

i

 

 

 

 

OE Ñвектор-строка a1" ,

OG Ñвектор-строка a2" ,длина

OF Ñ ei ,длина

OD Ñ qi .

 

 

 

 

 

 

 

 

Как видно из рисунка6.1,квадрат длины вектора

i равен(из прямоугольных тре-

угольников OAC и OAD ) xö2 + xö2

= e2 + q2

,и если сложить все эти уравнения по

 

 

i1

i2

i

i

 

 

 

i и разделить на N ,то получится

s12 + s22

= se2

+ sq2.Понятно,что

se2 = λ1 , sq2 = λ2,

и это равенство означает,что след матрицы ковариации равен сумме ее собственных чисел.Крометого,каквидноизрисунка, s21 показывает дисперсиюоблака наблюдений(суммарную дисперсию переменных регрессии)в направлении a1 наименьшей ÇвытянутостиÈоблака, s22 Ñдисперсию облака наблюдений в направлении a2 его наибольшейÇвытянутостиÈ.

210

Глава6.Алгебра линейной регрессии

Вектор OF есть eia"1,а вектор OD Ñ qi a"2,и рисунок наглядно иллюстрирует выполнение соотношения(6.30):

ci = xöi − eia"1 = qi a"2.

Пусть теперь n = 3, и λ1, λ2, λ3 , a1, a2, a3 Ñсобственные числа и вектора ковариационной матрицы переменных.

1)Если λ1 ≈ λ2 ≈ λ3,то облако наблюдений неÇрастянутоÈни в одном из направлений.Зависимости между переменными отсутствуют.

2)Если λ1 / λ2 ≈ λ3 и k = 1,то облако наблюдений имеет формуÇблинаÈ. Плоскость,в которой лежит этотÇблинÈ,является плоскостью ортогональной ре-

грессии,которуюописываетуравнение xaö

1 = 0,асобственноуравнениемрегрессии

является

ö

= e.

 

X a1

 

Эту же плоскость представляют вектора a2 и a3,являясь ее осями координат. В этих осях координат можно выразить любую точку данной плоскости,в том числе все точки расчетных значений переменных(6.30):

 

Xö c =

q1 q2

 

a2"

= q1a2"

+ q2a3" ,

 

 

<

 

=

a3"

 

 

где q1

ö

ö

 

 

 

 

 

= X a2, q2 =

X a3

Ñвектора значений главных факторов или вектора

координат расчетных значений переменных в осях a2,

a3.

3)Если

λ1 ≈ λ2 / λ3

и k = 2,то облако наблюдений имеет формуÇверетенаÈ.

Ось этогоÇверетенаÈявляется линией регрессии,образованной пересечением двух плоскостей xaö 1 = 0 и xaö 2 = 0.И уравнений ортогональной регрессии в данном

случае два: ö = и ö = .

X a1 e1 X a2 e2

Данную линию регрессии представляет вектор a3,и через него можно выразить все расчетные значения переменных:

ö c = qa"3, X

где = ö Ñвектор значений главного фактора. q X a3

6.4.Многообразие оценок регрессии

Множество оценок регрессии не исчерпывается 2n − 1 отмеченными выше элементами.Перед тем как получать любую из этих оценок,можно провести преобразование в пространстве наблюдений или переменных.

Преобразование в пространстве наблюдений проводится спомощью матрицы

D размерности N ! × N, N ! ! N .Обе части исходного уравнения(6.3)умножаются слева на эту матрицу:

DXα = D1N β + Dε,

(6.31)

6.4.Многообразие оценок регрессии

211

после чего проводится оценка параметров любым из указанных 2n − 1 способов. Понятно,что полученные оценки будут новыми,если только D!D =! cIN ,где c Ñ любая константа.

В результате такого преобразования β может перестать являться свободным членом,если только D1N =! c1N ! ( c Ñлюбая константа).Но,главное,меняется распределение ошибок по наблюдениям.Именно с целью изменить это распределение в нужную сторону(с помощью подбора матрицы D)и проводятся такие преобразования(см.гл. 8).

Преобразование в пространстве переменных осуществляется с помощью квадратной невырожденной матрицы C размерности n × n: Y = X C Ñпреобразованные значения переменных регрессии.И затем оцениваются параметры регрессии в новом пространстве: Y f = 1N g + u.

Это преобразование можно проводить в пространстве центрированных пере-

менных,т.к.

ö

ö

Y

= X C .

Действительно: ö = 0 1 1 1" 1 = 0 1 1 1" 1 = ö .

X C IN N N N X C IN N N N Y Y

То есть исходное уравнение регрессии(6.7)после преобразования приобретает

вид:

 

 

ö

 

(6.32)

Y f = u.

 

Оценки f являются новыми,если послеÇ

возвращенияÈих в исходное про-

странство,которое производится умножением

f слева на

C ,они не совпадут

с оценками a,полученными в исходном пространстве,т.е.если

a != C f .Справед-

ливостьэтогоутверждениястановитсяочевиднойпослеследующегоалгебраически эквивалентного преобразования исходного уравнения(6.7):

Xö C

C −1a = e.

(6.33)

←−→

←−−→f

 

Понятно,что МНК-оценка f совсем не обязательно совпадет с C −1a Ñи тогда это будет новая оценка.

После преобразования меняется распределение ошибок в переменных регрессии.И именно для того,чтобы изменить э то распределение в нужную сторону, осуществляются такие преобразования(см.гл. 8).

Результаты преобразований в пространстве переменных различны для простых

иортогональной регрессий.

Вслучае простой регрессии xj по x−j это преобразование не приводит к получению новых оценок,если j -я строка матрицы C является ортом,т.е.в объясняющие переменные правой части неÇпо падаетÈ Ñпосле преобразованияÑ объясняемая переменная.

Соседние файлы в папке Диплом