Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

diplom25 / suslov_ibragimov_ekonometrika

.pdf
Скачиваний:
29
Добавлен:
24.03.2015
Размер:
5.55 Mб
Скачать
C "−1 −1

212

Глава6.Алгебра линейной регрессии

Действительно,пусть для определенности

j = 1 и

C =

 

1

 

0

 

(первая

 

 

 

 

 

 

 

 

 

 

 

строка является ортом), C −1 =

 

 

 

.

c−1

 

C−1

 

 

1

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−C11c−1 C11

 

 

 

 

 

 

 

Уравнение(6.33)записывается следующим образом:

 

 

 

 

 

 

 

< Xö1 + Xö−1c−1 Xö−1C−1

=

1

1

1

 

 

= e1

 

 

ö

 

 

−C1 c−1 − C1 a−1

 

 

 

 

←−−−−−−−−−−−−−−−−−−−−→Y

 

 

 

 

 

 

 

 

 

 

 

←−−−−−−−−−−−−−−−−−→

 

 

 

f

или,после переноса переменных в правую часть:

 

 

 

 

6Xö1 + Xö−1c−17 = Xö−1C−1

 

C11c−1 + C11a−1

+e1.

 

 

 

 

 

 

 

 

ö

 

 

 

 

←−−−−→Y

←−−−−−−−−−−−−−→W X

 

 

 

 

 

 

 

 

←−−−−−−−−−−→

 

ö

1

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

Y1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Система нормальных уравнений для оценки f−1

имеет следующий вид:

 

 

1

C " 1Xö

" 1

Xö1 + Xö

1c

1

=

1

C "

1Xö

" 1

Xö

1C 1

C −1c

1 + C −1a

1

 

N

N

 

ö

 

6

 

7

 

ö

 

 

ö

−1

f

−1

 

 

 

←−−−−→Y !

ö

 

 

 

 

 

 

←−−−−→Y !

←−−−−→Y 1

←−−−−−−−−−−−−−→W 1 X

 

 

1

 

←−−−−−−−−−−→

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

Y1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

или,раскрыв скобки:

C" 1m−1 + C" 1M−1c−1 = C" 1M−1c−1 + C" 1M−1a−1.

После взаимного сокращения одинаковых слагаемых в полученном матричном урав- нении(2-го в левой части и1-го в правой)и умножения обеих частей слева на получается система нормальных уравнений для оценки a−1: m−1 = M−1a−1.

Это означает,что f−1 послеÇвозвращенияÈв исходное пространство совпадает с a−1,т.е.проведенное преобразование в пространстве переменных новых оценок регрессии не дает.

Верноиобратное утверждение:если j -я строкаматрицы C не являетсяортом, то a и f совпадают с точностью до обратного преобразования только тогда,когда связь функциональна и e = 0.

6.4.Многообразие оценок регрессии

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

213

Пусть теперь C =

 

 

0

In−1

 

 

(т.е.первая строка не является ортом),

 

 

 

 

1

c" 1

 

 

 

 

 

1

−c" 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

бретает следующую форму:

 

C −1 =

 

.Тогда уравнение(6.33)прио

 

 

0

In−1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 + c" 1a−1 = e1,

 

 

 

 

 

 

 

6

 

 

Xö−1

ö

 

 

 

 

7

 

(6.34)

 

 

 

 

Xö1

+ Xö1c"

1

 

 

 

 

 

 

 

 

 

 

←−−−−−−−−→Y−1

 

 

 

−a−1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

←−−−−−−−−−−→

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f

 

 

 

 

 

 

 

 

или

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и

 

 

 

 

 

 

Xö1 01 + c" 1a−11 = Yö−1a−1 + e1,

 

 

 

 

 

 

 

 

 

 

ö

ö

 

 

 

 

 

a−1

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

X1

= Y−1

01 + c" 1a−11 + 01 + c" 1a−11e1.

 

 

 

 

 

 

Таким образом,условием совпадения

a и f

с точностью до обратного преобразо-

вания является следующее:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f−1 =

 

 

 

a−1

 

 

 

.

 

 

 

 

(6.35)

 

 

 

 

 

 

 

 

 

 

01 + c" 1a−1

1

 

 

 

 

Система нормальных уравнений для оценки f−1 имеет вид:

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

Yö "

Xö

 

=

 

1

Yö " Yö

 

f

−1

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

−1

 

1

 

 

 

N

−1 −1

 

 

 

 

 

 

 

 

 

или,учтя зависимость

Y от X из(6.34)и раскрыв скобки:

 

 

 

 

 

 

 

m−1 + c−1m11 = 0M−1 + m−1c" 1 + c−1m" 1 + m11c−1c" 11f−1.

 

 

Это равенство с учетом(6. 35)и(6.11)принимает вид:

 

 

 

 

 

 

 

(m−1 + c−1m11)

0

1 + c" 1M11m−1

=

 

+ c

 

1m"

1 + m11c

 

1c"

 

M 11m

 

 

 

 

 

 

 

 

= M

1 + m1

 

1c" 1

1

1.

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

1

 

Раскрыв скобки и приведя подобные,можно получить следующее выражение:

c−1m11 = c−1m"−1M11m−1,

214

Глава6.Алгебра линейной регрессии

 

которое выполняется как равенство,только если

 

m11 = m" 1M11m−1,

 

т.е.если(в соответствии с(6.18))

 

m11 = sq21.

 

Таким образом, a и f совпадают с точностью до обратного преобразования только

тогда,когдаполнаядисперсияравнаобъясненной,т.е.связьфункциональнаи e = 0. Что и требовалось доказать.

Итак,преобразования в пространстве переменных в простых регрессиях лишь в особых случаях приводят к получению новых оценок,обычно меняются только шкалы измерения.Некоторые из этих шкал находят применение в прикладном анализе.Такой пример дает стандартизированная шкала,которая возникает,если C = S−1,где S Ñдиагональная матрица среднеквадратических отклонений переменных.

Оценки параметров регрессии после преобразования оказываются измеренными в единицах среднеквадратических отклонений переменных от своих средних, и они становятся сопоставимыми между собой и с параметрами других регрессий.

В этом случае система нормальных уравнений формируется коэффициентами корреляции,а не ковариации,и f−j = Rj1r−j ,где R−j Ñматрица коэффициентов корреляции объясняющих переменных между собой, r−j Ñвектор столбец коэффициентов корреляции объясняющих переменных с объясняемой переменной.

Действительно(предполагается,что j = матрице C имеют следующую форму:

6

Xö1

1

 

Xö

1S −1

7

 

ö s1

 

ö −1

 

←−−→Y

←−−−−−→Y

 

 

1

 

 

−1

 

1),соотношения(6.33)при указанной

 

−S−1a−1

 

= e1.

(6.36)

 

s1

 

 

 

 

 

 

Для того чтобы вектор параметров приобрел необходимую для простой регрессии форму,его надо разделить на s1.Тогда и e делится на s1 (т.е.на s1 делятся обе части уравнения(6.36)).После переноса объясняющих переменных в правую часть получается следующее уравнение регрессии:

ö

ö

 

 

1

 

 

 

 

 

 

1

 

Y1

= Y−1f−1

+

s1

e1

,

где f−1 = S−1a−1

s1

.

Система нормальных уравнений для f−1

имеет следующий вид:

 

 

1

Yö " Yö =

 

1

Yö " Yö

f

−1

,

 

 

 

 

 

 

 

 

 

 

 

N

−1 1

 

N −1 −1

 

 

 

 

6.4.Многообразие оценок регрессии

 

 

 

 

 

215

или,учитывая зависимость Y от X из(6.36),

 

 

 

 

 

S −1m

 

1

= S −1M

−1

S −1 f

−1

.

 

 

−1

−1 s1

−1

 

−1

 

←−−−−−−r 1

←−−−−−−−→1

 

 

 

 

 

 

R

Что и требовалось доказать.

Преобразование в пространстве переменных в ортогональной регрессии при использовании любой квадратной и невырожденной матрицы C =! In приводит

кполучению новых оценок параметров.

Впункте4.2при n = 2 этот факт графически иллюстрировался в случае,когда

C =

1

0

.

 

0

k

 

 

 

В общем случае верно утверждение,состоящее в том,что в результате преобразования иÇвозвращенияÈв исходное пространство для получения оценок a надо решить следующую задачу:

(M

λΩ) a = 0, a!Ωa = 1,

(6.37)

 

 

 

где Ω = C !−1C −1.

Действительно:

После преобразования в пространстве переменных задача ортогональной регрессии записывается следующим образом(6.24, 6.25):

(MY − λIn ) f = 0, f "f = 1,

(6.38)

где,учитывая(6.33), MY = C "M C, f = C −1a.

Выражение(6.37)получается в результате элементарных преобразований(6.38).

Понятно,что решение задачи(6.37)будет давать новую оценку параметрам a при любой квадратной и невырожденной матрице C =! In .Такую регрессиюиногда называют регрессией в метрике Ω−1.

216

Глава6.Алгебра линейной регрессии

6.5.Упражнения и задачи

Упражнение1

Таблица6.1

X1

X−1

 

X2

X3

 

 

 

0.58

1.00

1.00

 

 

 

1.10

2.00

4.00

 

 

 

1.20

3.00

9.00

 

 

 

1.30

4.00

16.00

 

 

 

1.95

5.00

25.00

 

 

 

2.55

6.00

36.00

 

 

 

2.60

7.00

49.00

 

 

 

2.90

8.00

64.00

 

 

 

3.45

9.00

81.00

 

 

 

3.50

10.00

100.00

 

 

 

3.60

11.00

121.00

 

 

 

4.10

12.00

144.00

 

 

 

4.35

13.00

169.00

 

 

 

4.40

14.00

196.00

 

 

 

4.50

15.00

225.00

 

 

 

По наблюдениям из таблицы6.1:

1.1.Вычислите

 

 

 

 

 

 

 

 

 

 

 

M

−1

=

1

Xö !

Xö

, m

−1

=

1

Xö !

 

N

N

 

 

 

−1

 

−1

 

 

 

−1

идлярегрессии X1 = X−1a−1 +1N

оценки a−1 и b1.

 

 

 

 

 

 

 

1.2.Рассчитайте вектор

X c

= X

a

 

 

 

 

 

 

 

 

 

 

 

1

 

 

−1 −1

тор e1

= X1 − X1c .Убедитесь,что

cov(X

 

 

, e) =

 

1

Xö !

e

= 0.

 

 

 

 

 

 

 

 

−1

 

 

 

N

−1

 

1

 

 

 

 

ö

X1

b1 +e1 найдите

+ 1N b1 и век-

1!N e1 = 0 и

1.3.Вычислите объясне нную дисперсию различными способами:

s2

=

1

Xö

!c Xö c ;

 

q1

 

N

1 1

 

 

 

sq21 = a! 1m−1;

s2q1 = m!−1M11m−1.

1.4.Вычислите остаточ ную дисперсию различными способами:

s2

=

1

e!

e1;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e1

 

N 1

 

 

1

 

 

 

 

 

s2

= s2

s2

=

Xö

! Xö

 

s2 .

N

 

e1

 

1

q1

 

 

1

1

q1

1.5.Вычислитекоэффициен тдетерминацииразличными способами:

 

 

s2

 

 

 

 

 

R12 =

 

q1

;

 

 

 

 

 

s2

 

 

 

 

R12 =

,

1

s1sq1

1 .

.

 

 

 

 

cov(x1

, xc )

 

2

1.6.Оцените параметры и коэффициент детерминации для ортогональной регрессии xα = β + ε.

6.5.Упражнения и задачи

217

Ðсравните эти оценки с оценками линии регрессии,полученными в1.1;

Ðрассчитайте расчетные значения переменных.

 

1.7.Оцените матрицу оценок и значений главных компонент(

AQ и Q),а также

расчетное значение переменных.

 

1.8.Пустьединицыизмерения x1 увеличилисьв 100 раз.Каквэтомслучаедолжна выглядеть матрица преобразования D?Как изменятся оценки уравнения прямой и ортогональной регрессий?

Задачи

1.Может ли матрица

 

 

 

 

 

 

 

 

 

 

 

 

 

9.2

−3.8 −2

 

5.2

−3.8 −2

а)

 

3.8

2

0.6

 

б)

 

3.8

2

0.6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

0.5

2

 

 

 

 

 

2

0.6

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

являться ковариационной матрицейпеременных,для которых строится уравнение регрессии?Ответ обосновать.

 

 

1

1

 

 

 

 

 

 

2.Для

x = (x1, x2) =

 

 

найдите оценки ковариаций переменных x,

2

2

 

 

6

3

 

 

 

 

 

 

 

 

 

 

 

оценки параметров уравнения прямой (x1 = a12x2 + 1N b1 +1e1) и обратной

регрессии (x2 = a21x1 + 1N b2 + e2).Покажите,что

a12 !=

 

.Рассчитайте

a21

вектор-столбец остатков по прямой и обратной регрессии.Убедитесь,что

сумма остатков равна нулю,вектора остатков и x2

ортогональны при пря-

мой регрессии,вектора остатков и x1 ортогональны при обратной регрессии.Найдите объясненную и остаточную д исперсии различными способами, а также коэффициент детерминации.

3.Предположим,что мы,используя модель регрессии x1 = x−1a−1 + 1N b1 +

+e1,из условия минимизации e! e1 получили следующую систему линейных

1

 

b1 + 2a12 + a13 = 3,

 

 

 

 

 

 

 

 

 

 

уравнений: 2b1 + 5a12 + a13 = 9,

b1 + a12 + 6a13 = −8.

218

Глава6.Алгебра линейной регрессии

Запишитеусловиязадачивматрично-векторнойформе,решитеее,используя метод,указанный в приложении для обратных матриц,и найдите оценки параметров регрессии.

4.Оцените регрессию x1 = a12x2 + a13x3 + 1N b1 + e1 и рассчитайте:

Ðоценку остаточной дисперсии, Ðобъясненную дисперсию, Ðкоэффициент детерминации,

если

a)матрица наблюдений имеет вид:

5

1

X = (X , X , X ) =

1 2 3 −2

0

−4

1

3

 

2

1

 

 

 

 

 

 

 

3

5

,

 

 

 

 

4

2

 

 

 

 

 

 

 

 

5

4

 

 

 

 

 

 

 

 

б) X1! X1 = 96, X2! X2 =

55, X3! X3 = 129, X1! X2 = 72,

X1! X3 = 107, X2! X3 = 81,

X1! 1N = 20, X2! 1N = 15, X3! 1N = 25,

N = 5 .

 

5.Дисперсии двух переменных совпад ают,корреляция отсутствует.Изобразить на графикеÑв пространстве переменныхÑлинии прямой,обратной и ортогональной регрессий.Ответ обосновать.

6.Дисперсиивыпускапродукциииколич ествазанятыхпопредприятиямравны, соответственно, 10 и 20 ,их ковариация равна 12 .Чему равен коэффициент детерминации в регрессии выпуска по занятым,коэффициент зависимости выпуска от занятых по прямой,о братной и ортогональной регрессии?

7.Дисперсии временных рядов индекса денежной массы и сводного индекса цен равны,соответственно, 150 и 200,их ковариация равна 100.Чему равен параметр влияния денежной массы на цены по модели прямой регрессии и доля объясненной дисперсии в дисперсии индекса цен?

8.Позаданнойматрицековариациидвухпеременных

 

5

"

2

"

 

найтиоста-

3

3

14

3

5

3

 

 

 

 

 

 

 

 

 

 

точную дисперсию уравнения регрессии первой

переменной по второй.

 

 

"

 

"

 

 

6.5.Упражнения и задачи

 

 

 

219

9.В регрессии x1 = a12x2 + 1N b1 + e1,где

x1! = (5, 3, 7, 1) коэффициент

детерминации оказался равным 50%.Найдите сумму квадратов остатков.

10.Оцените модель x1 = a12x2 + 1N b1 + e1,используя следующие данные:

3

3

 

 

1

1

 

 

 

 

 

 

 

 

 

 

 

 

(x1, x2) =

 

.

 

 

8

5

 

 

 

 

 

 

 

 

 

 

 

 

3

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

5

5

 

 

 

 

 

 

 

 

 

 

 

 

i%

ei = 0,

%

x2i ei = 0.

Вычислите остатки (ei ) и покажите,что

5

5

 

=1

 

i=1

 

11.Две парные регрессии построены на одних и тех же данных: x1 = a12x2 +

+ 1N b1 + e1 и x2 = a21x1 + 1N b2 + e2. R12 Ñкоэффициент детерминации в первойрегрессии, R22 Ñвовторой.Запишитесоотношениемежду R12 и R22.

Ответ обосновать.

12.Возможна ли ситуация,когда угловые коэффициенты в уравнениях прямой и обратной регрессии построены на одних и тех же данных,соответственно равны 0.5 и 3.0.Почему?

13.Что геометрически означает R2 = 0 и R2 = 1?

14.Регрессия x1 = α12x2 + β1 + ε1 оценивается по двум наблюдениям.Чему равен коэффициент детерминации?

 

 

1

1

 

 

 

 

 

 

15.Для

x = (x1, x2) =

 

 

оцените параметры ортогональной регрессии

2

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

63

икоэффициент детерминации.Покажите,что линия ортогональной регрессии находится между линиями прямой и обратной регрессии.

16.Какая из двух оценок коэффициента зависимости выпуска продукции от количества занятых в производстве больше:по прямой или по ортогональной регрессии?Ответ обосновать.

17.Какая из двух оценок коэффициента зависимости спроса от цены больше: по прямой или по ортогональной регрессии?Ответ обосновать.

220

Глава6.Алгебра линейной регрессии

18.Какой вид имеет уравнение ортог ональной регрессии для переменных x1 и x2 с одинаковыми значениями дисперсий и средних,а также имеющих положительную корреляцию равную ρ?

19.Покажите,что решение задачи

 

 

 

 

 

 

 

 

 

m11

m12

 

λ

 

1

0

 

1

 

= 0,

λ

min!

m12

m22

 

 

 

0

0

 

a12

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

эквивалентно решению задачи прямой регрессии x1 = a12x2 + 1N b1 + e1.

20.Пусть x1 и x2 Ñцентрированные переменные.Уравнение ортогональной регрессии,поcтроенные по множеству наблюдений над величинами x1 и x2, есть x1 − x2 = 0.Запишите вектор первой главной компоненты.

21.Оценка парной регрессии ведется в с тандартизированной шкале.Как связан коэффициент детерминации и коэффициент регрессии(угловой)?

22.Была оценена регрессия x1 = α12x2 + β1 + ε1,где x1 измеряется в рублях, а x2 Ñв килограммах.Затем ту же регре ссию оценили,изменив единицы измерения на тысячи рублей и тонны.Как при этом поменялись следующие величины:а)оценка коэффициента α12;б)коэффициент детерминации?Как в этом случае должна выглядеть матрица преобразования D?

23.Пусть в ортогональной регрессии, построенной для переменных x1 и x2, из-за деноминации рубля единица измерения x2 изменилась в1000раз.Как в этом случае должна выглядеть матрица преобразования D?Изменятся ли оценки?Ответ обосновать.

24.Пусть в наблюдениях задачи2единица измерения

 

x1

увеличилась в 10 раз.

Как в этом случае должна выглядеть матрица преобразования D?Как изме-

нятся оценки уравнения прямой и обратной регрессии?

 

0

4

 

25.В регрессии в метрике Ω1 матрица Ω равна

9

0

.Как преобразовать

 

 

 

 

исходные переменные, чтобы свести эту регрессию к ортогональной?

Рекомендуемая литература

1. Айвазян С.А. Основы эконометрики.Т.2. ÑМ.: ÇЮнитиÈ, 2001. (Гл. 2).

6.5.Упражнения и задачи

221

2.Болч Б.,Хуань К.Дж. Многомерные статистические методы для экономи-

ки. ÑМ.: ÇСтатистикаÈ, 1979. (Гл. 7).

3.Джонстон Дж. Эконометрические методы. ÑМ.: ÇСтатистикаÈ, 1980. (Гл. 2, 11).

4.Дрейпер Н.,Смит Г. Прикладной регрессионный анализ:В2-х кн.Кн.1. Ñ М.: ÇФинансы и статистикаÈ, 1986. (Гл. 1, 2).

5.Езекиэл М.,Фокс К. Методы анализа корреляцийи регрессий. ÑМ.: ÇСта-

тистикаÈ, 1966. (Гл. 5, 7).

6.Кейн Э. Экономическая статистика и эконометрия.Вып. 2. ÑМ.: ÇСтати-

стикаÈ, 1977. (Гл. 10, 11).

7.Лизер С. Эконометрические методы и задачи. ÑМ.: ÇСтатистикаÈ, 1971. (Гл. 2).

8.(*)Маленво Э. Статистические методы эконометрии.Вып. 1. ÑМ.: ÇСта-

тистикаÈ, 1975. (Гл. 1).

9.Judge G.G., Hill R.C., Griffiths W.E., Luthepohl H., Lee T. Introduction to the Theory and Practice of Econometric. John Wiley & Sons, Inc., 1993. (Ch. 5).

10.William E., Griffiths R., Carter H., George G. Judge Learning and Practicing econometrics, N 9 John Wiley & Sons, Inc., 1993. (Ch. 3).

Соседние файлы в папке diplom25