Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
регрессия.docx
Скачиваний:
1
Добавлен:
01.07.2025
Размер:
117.26 Кб
Скачать

6.2. Расчет коэффициентов множественной линейной регрессии

Представим данные наблюдений и соответствующие коэффици­енты в матричной форме.

Y =

У1"

'1

xll

X12

... xlm

"b0"

V

У2

, x =

1

X21

X22

••• X2m

, B =

bi

e2

Уп

1

Xnl

x

... Xjjjjj

bm

en

Здесь Y - вектор-столбец размерности п наблюдений зависимой переменной Y; X - матрица размерности n x (m + 1), в которой i-я строка (i = 1, 2, ... , п) представляет наблюдение вектора значений не­зависимых переменных Хь Х2, ... , Хт; единица соответствует пере­менной при свободном члене bo; В - вектор-столбец размерности (т

145

+ + 1) параметров уравнения регрессии (6.6); е - вектор-столбец раз­мерности п отклонений выборочных (реальных) значений yi зависи­мой переменной Y от значений у^, получаемых по уравнению регрес­сии

у£ = bo + ЬА + Ъ2Х2 + ... + bmXm. (6.12)

n

Нетрудно заметить, что функция Q = Z^i в матричной форме

ii

представима как произведение вектор-строки ет = ( еь е2,..., еп ) на вектор-столбец е. Вектор-столбец е, в свою очередь, может быть запи­сан в следующем виде:

e = Y-XB. (6.13)

Отсюда Q = ет-е = (Y - XB)T-( Y -ХВ) = YT Y -Вт Xх Y -YT ХВ +ВТ Xх ХВ =

= YT Y - 2ВТ Xх Y + ВТХТ ХВ. (6.14)

Здесь ет, Вт, Xх, YT - векторы и матрицы, транспонированные к

е, В, X, Y соответственно. При выводе формулы (6.14) мы воспользо­вались известными соотношениями линейной алгебры:

(Y - ХВ)Т = YT - (ХВ)Т; (ХВ)Т = ВТХТ; BTXTY = YTXB. (6.15)

Эти соотношения легко проверить, записав поэлементно все мат­рицы и выполнив с ними нужные действия.

Необходимым условием экстремума функции Q является равен­ство нулю ее частных производных —— по всем параметрам Ь,,

Sbj

дО

j = 0, 1, ... , т. Покажем, что вектор-столбец — частных производ­ив

ных в матричном виде имеет следующий вид:

^ = -2ХТ Y + 2(ХТХ)В. (6.16)

Для упрощения изложения обозначим матрицу Xх X размерно­сти (m+l)x(m+l) через Z. Тогда

146

= BXZB =

Zll

1 0

7

lm+1

(b0

,bl5.

..,b

m).

Z21

Z22

Zm+ll

Zm+12

•" Zm+lm+l

bm

i=0

i=0

i=0

bm

mm

r z = x

j=0 i=0 j=0 i=0

Следовательно, частная производная = 2 EbjZi+1 +1.

dbj i=o

В результате имеем — = 2(X X)B.

Обозначим вектор-столбец XTYразмерности (m+1) через R.

Тогда Bx Xх Y = BXR =

j=o

гДе r,+i - соответствующий элемент

вектора R. Поэтому

дВ

/9 fYTYl YTY от В не зависит, и значит — = 0.

д В

Следовательно, формула (6.16) справедлива. Приравняв — ну-

дВ

лю, получим общую формулу (6.18) вычисления коэффициентов мно­жественной линейной регрессии:

-2XTY + 2(XTX)B = 0 ^>

XTY = (XTX)B ^> (6.17)

В = (ХТХ)-!Х^. (6.18)

Здесь (Xх X)"1 - матрица, обратная к Xх X.

147

Полученные общие соотношения справедливы для уравнений ре­грессии с произвольным количеством m объясняющих переменных. Проанализируем полученные результаты для случаев m = 1, m = 2.

Для парной регрессии Y = bo + biX + e имеем:

Y =

У2

х =

1 х2

, в =

"ь0"

, е =

е2

Уз

Л.

...

У4

1 хп

еп

(6.13) => e = Y-XB

е1

У1

1 Х1

е2

у2

1 х2

"ь0"

...

...

Л.

_еп_

.У п.

-1 Хп.

1 1 ... 1

1 X

п

Xj Х2

1 X,

= (XTX)~1 =

1 1

... х„

У2

Уп

( 6.18) => В = (XTXrXTY =

148

(4.13)

Сравнивая диагональные элементы z» матрицы Z 1 =ТХ) !с формулами (5.12), (5.13), замечаем, что Sb. = S • z», j = 0, 1.

Рассуждая аналогично, можно вывести формулы (осуществление выкладок рекомендуем в качестве упражнения) определения коэффи­циентов регрессии для уравнения с двумя объясняющими перемен­ными (т = 2). Соотношение (6.17) в этом случае в расширенной фор­ме имеет вид системы трех линейных уравнений с тремя неизвестны­ми bo, Ьь b2:

' = nb0 + bjlxij + b2lxi2,

5

(6.19)

=boSxi2 +b1lxilxi222>?2 . Решение данной системы имеет вид: bo=y-b1x1+b2x2,

b = 1

~Щ)(У{ -У)• Z(Xj2 2)2 -Нха -х2)(у{ -у)• Дхц -xQCxa -x2) ^а -х2)2 -(I(xil -х^хц -х2))2

x)2

j -у) • Дхц -xt)2 - Дх[1 -ХхХх -у) • Дхц -ХхХхд -х2) ц -х2)2 -(Дх;! -XjXx^ -x2))2