Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

diplom25 / suslov_ibragimov_ekonometrika

.pdf
Скачиваний:
31
Добавлен:
24.03.2015
Размер:
5.55 Mб
Скачать

312

Глава9.Целочисленные переменные в регрессии

а)Получите приближенные оценки логита и пробита методом усреднения, разбив данные на две группы по5наблюдений.Каким будет процент правильных предсказаний по модели для этих данных?

б)Ответьте на вопросы предыдущего пункта для метода приближенного оценивания логита и пробита с помощью линейной регрессии.

в)Найдите маргинальное значение для фактора

z в точке,соответствую-

щей его среднему уровню.

 

 

 

 

 

19.Пусть переменная x,принимающая значения

0 или 1,зависит от фиктив-

ной переменной z,принимающейзначения 0 или 1.Модельвключаеттакже

константу.Данные резюмируются следующей таблицей(в клетках стоят ко-

личества соответствующих наблюдений):

 

 

 

 

 

 

 

 

 

 

 

x = 0

x = 1

 

 

 

 

 

 

 

 

 

 

 

z = 0

N00

N01

 

 

 

 

 

 

 

 

 

 

 

z = 1

N10

N11

 

 

 

 

 

 

 

 

 

 

а)При каких условиях можно на

основе

этих

данных оценить логит

и пробит?

 

 

 

 

 

б)Получите приближенные оценки логита и пробита методом усреднения.

Чему они будут равны при N00 = 15, N01 = 5, N10 = 5, N11 = 15?Какимбудетпроцентправильныхпредсказанийпомоделидляэтихданных?

в)Ответьте на вопросы предыдущего пункта для метода приближенного оценивания логита и пробита с помощью линейной регрессии.

Рекомендуемая литература

1.Айвазян С.А. Основы эконометрики.Т.2. ÑМ.: ÇЮнитиÈ, 2001. (Гл. 2)

2.Доугерти К. Введение в эконометрику. ÑМ.: ÇИнфра-МÈ, 1997. (Гл. 9).

3.Дрейпер Н.,Смит Г. Прикладной регрессионный анализ.В2-х книгах. Кн. 2. ÑМ.: ÇФинансы и статистикаÈ, 1986. (Гл. 9).

4.Магнус Я.Р.,Катышев П.К.,Пересецкий А.А. ЭконометрикаÑначальный курс. ÑМ.: ÇДелоÈ, 2000. (Гл. 4).

5.Маленво Э. Статистические методы эконометрии. ÑМ.: ÇСтатистикаÈ.

Вып. 1, 1975. (Гл. 8).

9.3.Упражнения и задачи

313

6.Baltagi, Badi H. Econometrics, 2nd edition, Springer, 1999. (Ch. 13).

7.Davidson, Russel, Mackinnon, James. Estimation and Inference in Econometrics, No. 9, Oxford University Press, 1993. (Ch. 7).

8.Greene W.H. Econometric Analysis, Prentice-Hall, 2000. (Ch. 8).

9.Judge G.G., Hill R.C., Griffiths W.E., Luthepohl H., Lee T. Introduction to the Theory and Practice of Econometric. John Wiley & Sons, Inc., 1993. (Ch. 10).

10.Maddala G.S. Introduction to Econometrics, 2nd ed., Prentice Hall, 1992. (Ch. 8).

11.Ruud Paul A. An Introduction to Classical Econometric Theory, Oxford University Press, 2000. (Ch. 27).

12.Wooldridge Jeffrey M. IntroductoryEconometrics:AModernApproach,2nded., Thomson, 2003. (Ch. 7, 17).

Глава10

Оценка параметров систем уравнений

Пустьтеперьимеетсянесколькоизучаемыхпеременных,длякаждойизкоторых существует свое уравнение регрессии.В с овокупности эти уравнения образуют систему,которая является невзаимозависимой,если одни изучае мые переменные не выступают факторами-регрессорами для других изучаемых переменных.Если изучаемыепеременныевозникаютнетольковлевых,ноиправыхчастяхуравнений,

то такие системы называются одновременными или взаимозависимыми.

10.1.Невзаимозависимые системы

В этом пункте используется сокращенная форма записи уравнений регрессии:

 

 

ö ö

(10.1)

 

 

X = Z A + ε,

где

ö

Ñ N × k-матрица центрированных наблюдений за изучаемыми перемен-

X

ными,

 

 

 

ö

Ñ N × n-матрица центрированных наблюдений за факторными перемен-

 

Z

ными,

A Ñ n × k-матрица параметров уравнений регрессии,

ε Ñ N ×n-матрица ошибок изучаемых переменных(остатков по наблюдениям).

10.1.Невзаимозависимые системы

315

Относительно ошибок предполагается,что в каждом наблюдении их математическое ожидание равно нулю,матрица ковариации размерности k × k одинакова и равна Ω ( Ω Ñвещественная,симметричная,положительно определенная матрица),и что они не коррелированы по наблюдениям.

Оценивать параметры этой системы можно отдельно по каждому уравнению:

 

 

 

 

A = M −1m,÷

(10.2)

где M =

1

Zö!Zö, m÷ =

1

Zö!Xö ,или через обычные операторы МНК-оценива-

N

N

ния(8.1),записанные последовательно для всех уравнений системы

 

al = M −1ml , l = 1, . . . , k.

Т.е.факткоррелированностиошибок разных изучаемых переменных( Ω =! Ik )не создает дополнительных проблем.

Действительно,преобразованием в пространстве изучаемых переменных легко перейти в ситуацию,когда ошибки изучаемых переменных не коррелированы.

Пусть матрица C такая,что Ω = C "−1C −1 (такое представление допускает любая вещественная симметричная положительно определенная матрица,см.ПриложениеA.1.2).Умножим обе части(10.1)справа на эту матрицу:

ö

ö

(10.3)

X C = Z AC + εC.

Новые ошибки изучаемых переменных во всех наблюдениях оказываются не коррелированными:

E " " E(ε! εi)=Ω

(C εiεiC ) i= IN ,

где εi Ñвектор-строка ошибок в i-том наблюдении.

Теперь уравнения системы не связаны между собой,и их можно оценить обычным МНК по отдельности,что,очевидно,приводит к матричному оператору AC = M −1mC÷ ,который эквивалентен(10.2).

Что и требовалось доказать.

Ситуация резко усложняется,если для коэффициентов матрицы A имеются априорные ограничения.

Пусть,например,эта матрица имеет следующую структуру:

a1

0

ááá

0

 

 

 

0

a2

ááá

0

 

,

 

 

 

.

 

. .

.

 

 

 

.. ..

 

.. ..

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

0

 

 

ak

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ááá

 

 

 

316 Глава10.Оценка параметров систем уравнений

где al Ñ nl -вектор-столбец коэффициентов в l-м уравнении(для l-й изучаемой

переменной),

k

nl = n,т.е.многие элементы матрицы A априорно приравнены

нулю.

=1

 

l%

 

Фактически это означает,что для каждой изучаемой переменной имеется свой

 

 

ö

 

ö

=

 

ö

ö

 

,

набор объясняющих факторов с N ×nl -матрицейнаблюдений Zl

 

Z

 

Z1

áááZk

 

исистемауравнений(10.1)представляет ся каксовокупность

внешне не связанных

 

0

 

 

W

 

 

X1

 

между собой уравнений:

 

 

 

 

 

 

 

 

 

 

ö

ö

 

 

 

 

 

 

(10.4)

Xl = Zl al + εl , l = 1, . . . , k.

 

 

 

 

 

 

Сразу можно заметить,что теперь оператор(10.2)применить невозможно, т.к.система нормальных уравнений,реше нием которой является этот оператор, записывается следующим образом:

M11a1 ááá

M1k ak

 

=

m11

ááá m1k

 

,

(10.5)

...

...

...

 

...

... ...

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M a

 

M a

 

 

m

 

 

m

 

 

 

 

 

k1 1

ááá

 

 

 

 

k1

ááá

 

kk

 

 

 

 

 

kk k

 

 

 

 

 

 

 

где M

=

1

Zö!Zö

, m

ll!

=

1

Zö!Xö

l!

, т.е.вектор оценок параметров каждого урав-

N

 

ll!

 

l l!

 

 

N

l

 

нения должен удовлетворять

k

взаимоисключающим,в общем случае,системам

уравнений.

Правильная оценка параметров регрессии дается решением следующих уравнений:

k

k

!!

l!!

ωll!1Mll! al! =

ωll!1mll!, l = 1, . . . , k,

l =1

=1

где ωll!1 Ñэлемент матрицы Ω−1.

 

Или в матричной записи:

 

ω11−1M11a1+ ááá

 

 

...

 

...

 

 

 

 

 

 

1

M

a +

 

ω

ááá

 

k1

k1

1

 

 

1k1M1k ak

 

=

ω11−1m11+

 

...

 

 

...

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

1

m

 

+

M a

 

 

 

ω

 

 

 

 

 

 

 

 

 

 

 

kk

kk

k

 

 

k1

 

k1

 

ááá +ω1k1m1k

 

, (10.6)

...

...

 

 

 

 

 

 

 

 

 

 

1

m

 

 

 

ááá

 

 

 

kk

 

kk

 

 

 

 

 

 

которая при сравнении с(10.5)оказывается результатом умножения в(10.5)всех Mll! и mll! на ωll!1 и сложения столбцов в обеих частях этого выражения.

10.1.Невзаимозависимые системы

317

Длядоказательстваэтого утверждениянеобходимо перегруппироватьуравнения системы так,чтобы

 

Xö1

 

 

 

Zö1 0

ááá

 

X÷ =

Xö2

 

,

Z÷ =

0 Zö2

...

 

,

 

.

 

 

 

. .

..

.

..

 

 

 

..

 

 

 

..

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a1

 

 

a÷ =

a2

 

,

 

.

 

 

 

..

 

 

 

 

 

 

 

 

 

 

ε1 ε÷ = ε2 ,

...

т.е.еслизабытьобособойструктурематрицы

÷

,формальноимеетсяоднаизучаемая

Z

переменная,для которой имеется N á k ÇнаблюденийÈ. Теперь система(10.4)записывается следующим образом:

÷ = ÷÷ + ÷

X Z a ε,

и применение простого МНК приводит к получению обычных оценок уравнений в отдельности:

al = Mll−1mll .

Однакотакойподходнеприемлем,надоприменятьОМНК,посколькуостаткикоррелированы поÇнаблюдениямÈ,ибо в соответствии со сделанными предположениями

E(÷εε÷") =Ω IN ,

где Ñоперация прямого умножения матриц(см.ПриложенияA.1.1иA.1.2).

Из(8.1)следует,что система нормальных уравнений ОМНК в данном случае выглядит так:

÷"

Ω

−1

 

÷

÷"

Ω

−1

 

 

÷

 

(10.7)

Z

 

IN Z a÷ = Z

 

IN X .

 

 

Легко убедиться,что

 

 

 

ω11−1Zö11"

 

 

 

 

 

 

 

 

 

 

 

 

ω12−1Zö12"

...

Z÷"Ω−1 IN =

.

 

 

 

.

..

.

..

 

..

 

 

 

 

 

 

ω21−1Zö21"

 

ω22−1Zö22" .

..

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

÷

 

 

 

Умножение этой матричной конструкции справа на

и деление на N дает блочную

Z

матрицу {ωll!1Mll! },которая является матрицей системы(10.6),а умножение ее

справа на X÷ и деление на N Ñвектор

; l! ωll!1mll!

[,являющийсяправой частью

системы(10.6).

%

 

Таким образом, (10.7)эквивалентна(10.6).Что и требовалось доказать.

Эта оценка совпадает с обычной МНК-оценкой al = Mll−1mll ,если матрица Ω диагональна,т.е.ошибки изучаемых переменных не коррелированы.

318

Глава10.Оценка параметров систем уравнений

10.2.Взаимозависимые или одновременные уравнения.Проблема идентификации

Далее в этом разделе уравнения регрессии записываются в форме со скрытым свободным членом.

X Ñ N × k-матрица наблюдений за изучаемыми переменными x;

Z Ñ N × (n + 1)-матрица наблюдений за независимыми факторами z;

B Ñ k × k-матрица параметров регрессии при изучаемых

переменных;

B != Ik ,иначе система была бы невзаимозависимой; |B| != 0 и βll

= 1 Ñ усло-

вия нормализации,т.е.предполагается,что,в конечном счете,в левой части l-го уравнения остается только l-я переменная,а остальные изучаемые переменные переносятся в правую часть;

A Ñ (n +1)×k-матрица параметров регрессии(последняя строкаÑсвободные члены в уравнениях);

ε Ñ N × k-матрица значений случайных ошибок по наблюдениям;

X B = Z A + ε.

(10.8)

Такая запись одновременных уравнений называется структурной формой. Умножением справа обеих частей этой системы уравнений на B−1 она приводится к форме,описанной в предыдущем пункте.ЭтоÑ приведенная форма системы:

X = Z AB−1 + εB−1.

D = AB−1 Ñ (n + 1) × k-матрица параметров регрессии приведенной формы. Как показано в пункте10.1,для их оценки можно использовать МНК:

D = (Z !Z )−1Z !X.

Таким образом,матрица D оценивается без проблем,и ее можно считать известной.Однако задача заключается в оценке параметров B и A системы в приведенной форме.Эти параметры,по определению,удовлетворяют следующим условиям:

или W H = 0,где

 

DB − A = 0

 

(10.9)

 

 

 

 

6

 

 

7,

W Ñ (n + 1) × (n + k + 1)-матрица

D

In+1

H Ñ (n + k + 1)

×

k-матрица

B

.

 

 

 

 

A

 

 

 

 

 

 

 

 

 

 

10.2Взаимозависимые или одновременные уравнения

319

ЭтоÑусловия для оценки параметров структурной формы.В общем случае эти условия достаточно бессмысленны,т.к.они одинаковы для параметров всех уравнений.Они описывают лишь множество допустимых значений параметров (одинаковое для всех уравнений),поскольку для n + k + 1 параметров каждого уравнения структурной формы имеется только n + 1 одинаковых уравнений. Необходимы дополнительные условия,специальные для каждого уравнения.

Пусть для параметров l-го уравнения кроме требования

 

W Hl = 0 ((Z !Z )−1Z !X Bl

− Al = 0)

(10.10)

имеется дополнительно rl условий:

 

 

 

 

 

Rl Hl = 0,

 

 

(10.11)

где Rl Ñ rl × (n + k + 1)-матрица дополнительных условий,

 

 

 

Bl

 

параметров l-го уравненияÑ

Hl Ñ (n + k + 1)-вектор-столбец

 

 

 

−Al

 

 

 

l-й столбец матрицы H .

 

 

 

 

 

 

 

 

 

 

 

 

 

W

Hl = Wl Hl = 0 Ñобщие условия для определения структурных пара-

Rl

 

 

 

 

 

 

метров l-го уравнения,где Wl Ñ (n + rl + 1) × (n + k + 1)-матрица.

Они позволяют определить искомые параметры с точностью до постоянного

множителя(при выполнении условий нормализации

βl = 1 параметры определя-

ются однозначно),если и только если ранг матрицы

Wl равен n + k.Для этого

необходимо,чтобы

 

rl " k − 1.

(10.12)

Однако,это условие не является достаточным.Имеется необходимое и достаточное условие для определения параметров l-го уравнения(более операциональное,чем требование равенства n + k ранга матрицы Wl ):

rank(Rl H ) = k − 1.

(10.13)

Доказательство данного утверждения опускается по причине сложности.

Теперь вводятся определения,связанные с возможностью нахождения параметров уравнения структурной формы: l-е уравнение не идентифицировано,если rl < k − 1;оно точно идентифицировано,если rl = k − 1 и ранг Wl равен n + k; сверхидентифицировано,если rl > k − 1.В первом случае параметры не

320

Глава10.Оценка параметров систем уравнений

могутбытьоценены,и,хотя формально,например,используя МНК,оценкиможно получить,они никакого смысла не имеют;во втором случае параметры уравнения оцениваются однозначно;в третьемÑимеется несколько вариантов оценок.

Обычно строки матрицы Rl являются ортами,т.е.дополнительные ограничения исключают некоторые переменные из структурной формы.Тогда,если kl и nl Ñколичества,соответственно,изучаемых переменных,включая l-ю,и независимых факторов в l-м уравнении,то для его идентификации необходимо,чтобы

kl + nl ! n + 1.

(10.14)

(10.12)

nl + kl ! n + 1.

По определению, rl = n − nl + k − kl " k − 1

В таком случае условие(10.13)означает,что матрица,составленная из коэффициентов во всех прочих уравнениях,кроме l-го,при переменных,которые исключены из l-го уравнения,должна быть не вырождена.При этом l-й столбец матрицы Rl H из(10.13),равный нулю,как это следует из(10.11),исключается из рассмотрения.

Дляиллюстрациивведенныхпонятийиспользуетсяэлементарнаямодельравновесия спроса и предложения на рынке одного товара в предположении,что уравнения спроса и предложения линейны(в логарифмах):

s = b21p + c1 + ε1 Ñпредложение, d = −b22p + c2 + ε2 Ñспрос,

где p Ñцена, b21, b22 Ñэластичности предложения и спроса по цене, s, d и p Ñлогарифмы предложения,спроса и цены.

Наблюдаемой переменной является фактический объем продаж x,и,предположив, что в действительности рынок находится в равновесии: x = s = d,эту модель

вструктурной форме(10.8)можно записать следующим образом:

1

1

 

= [ c1

c2 ] + [ ε1 ε2 ].

(10.15)

[ x p ] −b21

b22

 

 

 

 

 

 

В такой записи условия нормализации не выполнены,т.к.в левой части обоих уравненийнаходитсяоднаитажепеременная x;понятно,чтопринципиальногозначения эта особенность модели не имеет.

Следует напомнить,что одной из главных гипотез применения статистических методов вообще и МНК в частности является g1:уравнения регрессии представляют истинные зависимости,и речь идет лишь об оценке параметров этих истинных зависимостей.В данном случае это означает,что на спрос и предложение влияет только

10.2Взаимозависимые или одновременные уравнения

321

x

s

 

d

p

Рис. 10.1

цена,и линии спроса и предложения в плоскости,абсциссой которой является цена, неменяютсвоегоположения.Поэтомунаблюдаемыепары (p, x) сконцентрированы вокруг единственной точки равновесия,облако наблюдений не имеет вытянутостей, и зависимости x от p статистически выявить невозможно(рис. 10.1).

Статистически оба уравнения одинаковы,и нет оснований считать коэффициент регрессии,например, x по p,эластичностью спроса или предложения по цене. Более того,в данном случае эта регрессия будет не значима.Эти уравнения не идентифицированы.Действительно, k = 2, n = 0, r1 = r2 = 0,и необходимое условие идентификации(10.12)для обоих уравнений не выполнено.

Пусть речьидет о товаре,имеющем сельскохозяйственное происхождение.Тогдаего предложение зависит от погодных условий,и в модель следует ввести переменную z1 Ñнекий индекс погоды в течение сельскохозяйственного цикла.В правую часть соотношения(10.15)вводится дополнительное слагаемое:

z1 [ a11 0 ] .

(10.16)

Если модель(10.15, 10.16)истинна(гипотеза g3),то подвижной становится линия предложения(погодные условия в разные сельскохозяйственные циклы различны), и облако фактических наблюдений вытягивается вдоль линии спроса.Регрессия x на p даетоценкуэластичностиспросапоцене(рис.10.2).Вэтойситуацииуравнение предложения по-прежнему не идентифицировано,но для уравнения спроса условия идентификации(10.12)выполнены,и это уравнение идентифицировано.

s1

s

2

s3

 

 

x

 

s4

 

 

 

 

 

s5

 

 

 

 

 

 

 

 

 

d

 

 

 

 

 

p

 

Рис. 10.2

 

 

 

 

 

Соседние файлы в папке diplom25