Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ЭКОНОМЕТРИКА и математическая экономика / Эконометрика. Учебник продвинутый (2005)

.pdf
Скачиваний:
512
Добавлен:
20.04.2015
Размер:
4.02 Mб
Скачать

19.1. Оценка параметров байесовской регрессии

603

19.1. Оценка параметров байесовской регрессии

Для уравнения регрессии

X = + ε

имеются априорные представления об α и σ, которые выражаются плотностью вероятности совместного распределения (α, σ).

После эксперимента, результатами которого является выборка в виде вектора X и матрицы Z, эти представления корректируются. Аналогом (19.2) в данном случае выступает следующее выражение:

p (α, σ X, Z) =

L (X, Z|α, σ) p (α, σ)

,

(19.3)

p (X, Z)

|

 

 

где

p (X, Z) = L (X, Z|α, σ) dα dσ.

α,σ

Поскольку Z не зависит от α и σ , его можно «вынести за скобки»:

L (X, Z|α, σ) = PN (X|Zα, σ2 I)p (Z) , p(X, Z) = p(X|Z)p(Z),

и записать (19.3) в следующем виде:

p (α, σ|X, Z) = PN (X|Zα, σ2 I)p (α, σ) . p (X|Z)

Поскольку p(X|Z) не зависит от α и σ , эту формулу можно записать, используя знак %, который выражает отношение «пропорционально», «равно с точностью до константы»:

p (α, σ|X, Z) PN (X|Zα, σ2 I)p (α, σ) .

(19.4)

Пусть выполнены все гипотезы основной модели линейной регрессии, включая гипотезу о нормальности. Тогда

2σ2

 

) (X

 

 

 

 

 

 

 

1

(X

 

 

)

 

 

 

 

 

PN (X|Zα, σ2 I) σ−N e

 

 

 

 

 

=

 

 

1

(α a)Ωa1

 

 

 

 

 

 

1

[e e+(α a)Z Z(α a)]

(α a)

 

 

 

 

2σ2

2

 

 

 

 

 

= σ−N e

 

 

σ−N e

 

 

 

,

где a = (Z Z)1Z X — МНК-оценка α (см. 7.13),

 

 

 

 

a = σ2(Z Z)1 — матрица ковариации

(см. 7.29).

 

 

 

 

604

Глава 19. Байесовская регрессия

Действительно,

(X − Zα) (X − Zα) = (X − Za −Z(α − a)) (X − Za − Z(α − a)) =

←−−−→

e

= e e − 2e Z(α − a) +(α − a) Z Z(α − a),

←−−−−−−→

=0

т.к. e и Z ортогональны (см. 7.18).

Теперь предполагается, что σ известна. Тогда

 

2

 

e

1

(α a)Ω1

(α a)

PN (X|Zα, σ

I)

2

a

 

 

 

 

 

,

а соотношение (19.4) записывается в более простой форме:

p (α|X, Z ) PN (X|Zα, σ2 I)p(α).

Пусть α априорно распределен нормально с математическим ожиданием αˆ и ковариацией Ω :

p (α) e

1

 

1

 

 

 

 

2

α−α

 

α−α .

 

 

 

Тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

1

 

+(α−a)

1

(α−a)

 

p (α|X, Z)

2

α−

α

 

α−α

a

(19.5)

e

 

 

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

Утверждается, что α апостериорно распределен также нормально с математи-

ческим ожиданием

 

 

 

 

a¯ = Ω(¯ a1a + Ω1αˆ)

(19.6)

и ковариацией

 

 

 

 

¯ =

1 +

1 1 ,

(19.7)

 

a

 

 

т.е.

 

 

 

 

p(α|X, Z) e21 [(α−a¯) Ω¯ 1(α−a¯)].

(19.8)

Для доказательства этого утверждения необходимо и достаточно показать, что разность показателей экспонент в (19.5) и (19.8) не зависит от α.

Вводятся новые обозначения: x = α − a; y = α − αˆ; A = Ωa 1 ; B = Ω1 .

19.1. Оценка параметров байесовской регрессии

605

В этих обозначениях показатель степени в (19.5)

записывается следующим образом

(множитель 1 2 отбрасывается):

 

 

x Ax + y By.

 

(19.9)

В этих обозначениях

 

 

¯ 1 Ω = (A + B) ,

a¯ = (A + B)1 (A (α − x) + B (α − y)) =

= (A + B)1 ((A + B) α − (Ax + By)) = α − (A + B)1 (Ax + By)

и, следовательно, показатель степени в (19.8) выглядит так (множитель 1 2 также отбрасывается):

(Ax − By) (A + B)1 (Ax − By) .

(19.10)

Искомая разность (19.9) и (19.10) записывается следующим образом:

(1) (2) (3) + (4),

где

(1)= A − A (A + B)1 A,

(2)= A (A + B)1 B,

(3)= B (A + B)1 A,

(4)= B − B(A + B)1B.

Легко показать, что все эти матрицы одинаковы и равны некоторой матрице C :

(1)

= A (A + B)1 A A1 (A + B) A1A − I

= A(A + B)1B = (2),

(2)

= A B A1 + B1

A 1B = AA1

A1 + B1 1 BB1 =

 

 

 

 

= A1 + B1 1 = C,

(3)

= B A A1 + B1

B 1A = BB1

A1 + B1 A1A = C = (2),

(4)

= B(A + B)1B B1(A + B)B1B − I

= B(A + B)1A = (3),

и, следовательно, искомая разность представима в следующей форме:

x Cx − x Cy − y Cx + y Cy = (x − y) C (x − y) = α − a C α − a .

 

 

Что и требовалось доказать.

606 Глава 19. Байесовская регрессия

Как видно из (19.5, 19.6), апостериорная ковариация ( ¯ ) является результатом

гармонического сложения опытной (Ωa) и априорной ( Ω ) ковариаций, апостериорные оценки регрессии (a¯) — средневзвешенными (матричными) опытных (a) и априорных (αˆ) оценок. Если априорные оценки имеют невысокую точность, и Ω велика, то влияние их на апостериорные оценки невелико, и последние определяются в большой степени опытными оценками. В предельном случае, когда Ω → ∞,

т.е. априорная информация совершенно не надежна, ¯ . a¯ a, Ω Ωa

19.2. Объединение двух выборок

В действительности априорная информация может быть также опытной, но полученной в предшествующем опыте. Тогда формулы, полученные в предыдущем пункте показывают, как информация нового опыта — по новой выборке — корректирует оценки, полученные в предыдущем опыте — по старой выборке. В данном пункте показывается, что в результате применения этих формул получаемая апостериорная оценка в точности равна оценке, которую можно получить по объединенной выборке, включающей старую и новую.

Пусть имеется две выборки:

старая — Z1 , X1 : X1 = Z1α1 + ε1 ,

и новая — Z2 , X2 : X2 = Z2α2 + ε2 .

Считается, что σ1 и σ2 известны (как и в предыдущем пункте). Даются оценки параметров по этим двум выборкам:

a1 = (Z 1Z1)1 Z1X1, a1 = σ12 (Z1Z1)1 ,

a2 = (Z2Z2)1 Z2X2, a2 = σ22 (Z2Z2)1 .

В предыдущем пункте первой выборке соответствовала априорная оценка, второй — опытная.

Теперь дается оценка параметров по объединенной выборке. При этом наблюдения должны быть приведены к одинаковой дисперсии:

X1

σ1

Z1

σ1

ε1

σ1

.

 

 

=

 

α +

 

X2

σ2

Z2

σ2

ε2

σ2

 

В этой объединенной регрессии остатки имеют дисперсию, равную единице.

19.3. Упражнения и задачи

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

607

Оценки параметров рассчитываются следующим образом:

 

 

 

 

 

 

 

 

 

 

 

Z1 σ

1

 

 

 

 

 

 

X1 σ

 

 

 

 

 

 

a =

Z

 

Z

 

 

 

 

Z

 

Z

 

 

=

 

 

 

 

 

1 σ1

2 σ2

Z2

 

 

 

 

1 σ1

 

2 σ2

X2

 

 

 

 

 

 

 

 

 

 

 

σ2

 

 

 

 

 

 

 

 

σ2

 

 

 

 

 

 

=

1

Z Z1 +

1

Z Z2

1

 

1

Z X1 +

1

Z X2

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ2

1

 

σ2

2

 

 

 

σ2

1

 

 

σ2

2

 

 

 

 

 

 

 

 

 

 

1

 

 

2

 

1

 

1

 

 

 

2

 

 

1

 

 

 

 

 

 

 

= Ω1 + Ω1 1

(Z Z )(Z

Z )1Z X +

(Z Z )(Z

Z )1Z

X =

 

 

 

1

 

2

 

 

σ2

1

1

 

1

1

1

1

 

σ2

2

2

2

2

2

2

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= Ω1 + Ω1 1

 

1a1

+ Ω1 a .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

2

 

1

 

2

2

Ковариационная матрица (учитывая, что σ2 = 1):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ω = Ω1

+ Ω1 1 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

2

 

 

 

 

 

 

 

 

 

Таким образом, оценки по объединенной выборке в терминах предыдущего пункта являются апостериорными.

19.3. Упражнения и задачи

Упражнение 1

По данным таблицы 19.1:

1.1.Оцените регрессию X по Z и константе, учитывая априорную информацию, что математические ожидания всех коэффициентов регрессии равны 2, а их ковариационная матрица — единичная. Считать, что дисперсия ошибки равна 2.

1.2.Разделите выборку на две части. Одна часть — 20 первых наблюдений, другая часть — 20 остальных наблюдений. Считать, что дисперсия ошибки в первой части равна 1, а во второй части — 4.

а) Оцените обычную регрессию, воспользовавшись первой частью выборки. Найдите матрицу ковариаций полученных оценок.

б) Используя информацию, полученную на шаге (а), как априорную информацию о математическом ожидании и ковариационной матрице коэффициентов, оцените байесовскую регрессию для второй части выборки.

608 Глава 19. Байесовская регрессия

Таблица 19.1

X

Z

 

X

Z

 

X

Z

 

X

Z

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

6.7

2.2

 

11

2.4

1.2

 

21

4.8

1.8

 

31

–1.4

1.7

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

5.5

1.8

 

12

5.8

0.8

 

22

3.3

0.8

 

32

–0.9

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

4.8

1.5

 

13

5.7

2.5

 

23

5.2

2.5

 

33

4.2

0.3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

3

0.3

 

14

–0.9

1.7

 

24

5.4

2.1

 

34

–1.4

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

5

4.9

1.9

 

15

9.3

2.7

 

25

4.5

2.8

 

35

–2.6

1.3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

6

2.8

0.7

 

16

3

2.2

 

26

3.8

1

 

36

3.1

0.1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

7

2.7

0.8

 

17

–2.9

2.8

 

27

3.9

1.4

 

37

2.5

1.3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

8

7

2.1

 

18

–1.5

1.8

 

28

6.4

2.4

 

38

–0.8

2.4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

9

5.8

1.4

 

19

1.8

0.7

 

29

2.7

0.8

 

39

1.7

0.7

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

10

6.3

2.3

 

20

8.3

2.9

 

30

4.2

0.1

 

40

–0.1

1.6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

в) Оцените регрессию, используя все наблюдения. Регрессия должна быть взвешенной, т.е. наблюдения каждой из частей нужно разделить на корень из соответствующей дисперсии. Найдите ковариационную матрицу оценок. Сравните с результатом, полученным на шаге (б). Совпадают ли коэффициенты и ковариационные матрицы?

Задачи

1.Чем отличается байесовская регрессия от обычной регрессии с точки зрения информации о коэффициентах? Приведите формулы для оценки параметров по этим двум регрессиям.

2.Налоговая инспекция считает, что предприятия в среднем недоплачивают налог на прибыль в 80% случаев. Вероятность того, что в ходе проверки некоторого предприятия будет выявлено такое нарушение, равна 40% для предприятия, которое недоплачивает налог, и 10% для предприятия, которое полностью выплачивает налог (ошибочно). Вычислите апостериорную вероятность того, что данное предприятие недоплачивает налог на прибыль, если в ходе проверки не было выявлено нарушений.

3.Студент может либо знать, либо не знать предмет и либо сдать, либо не сдать экзамен по этому предмету. Вероятность того, что студент знает предмет

19.3. Упражнения и задачи

609

равна 0.3. Если студент знает предмет, то вероятность того, что он сдаст экзамен, равна 0.9, а если не знает, то 0.6. Какова вероятность, что студент не знает предмет, если он сдал экзамен?

4.Предположим, что исследователь исходит из априорной информации, что коэффициенты регрессии распределены нормально с некоторым математическим ожиданием и ковариационной матрицей, а дисперсия ошибки равна некоторой известной величине. Исследователь получил какие-то данные и вычислил по ним апостериорное распределение. Затем он получил дополнительные данные и использовал прежнее апостериорное распределение как априорное. Можно ли утверждать, что новое апостериорное распределение будет нормальным? Ответ обоснуйте.

5.Случайная величина ξ имеет нормальное распределение с математическим ожиданием µ и дисперсией 16. Априорно известно, что µ имеет распределение N (2, 9). Выборочное среднее по выборке длиной N равно 1. Найдите апостериорное распределение µ в зависимости от N .

6.Чему равна апостериорная оценка параметра, если его априорная оценка имеет нормальное распределение с математическим ожиданием 2 и дисперсией 0.25, а выборочная оценка равна 8 по выборке длиной 10?

7.Априорная оценка параметра имеет нормальное распределение с математическим ожиданием 2 и дисперсией 0.5, а выборочная оценка по выборке длиной 20 равна 2. Запишите плотность распределения апостериорных оценок.

8.Оценка параметра по первой части выборки равна 0 при дисперсии оценки 1, а по второй части выборки она равна 1 при дисперсии 2. Найдите оценку параметра по всей выборке.

9.Оценки регрессии по первой выборке совпадают с оценками по объединению двух выборок. Что можно сказать об оценках по второй выборке? Докажите свое утверждение.

Рекомендуемая литература

1.Зельнер А. Байесовские методы в эконометрии. — М.: «Статистика», 1980. (Гл. 2, 3).

2.Лимер Э. Cатистический анализ неэксперементальных данных. — М.: «Финансы и статистика», 1983.

610

Глава 19. Байесовская регрессия

3.Справочник по прикладной статистике. В 2-х т. Т 2. / Под ред. Э. Ллойда, У. Ледермана. — М.: «Финансы и статистика», 1990. (Гл. 15).

4.Judge G.G., Griffiths W.E., Hill R.C., Luthepohl H., Lee T. Theory and Practice of Econometrics. — New York: John Wiley & Sons, 1985. (Ch. 4).

Глава 20

Дисперсионный анализ

В этой главе продолжается рассмотрение темы, начатой в пункте 4.3. Здесь анализируются модели дисперсионного анализа в общем виде и доказываются некоторые из сделанных ранее утверждений.

Как и прежде, исходная совокупность xi, i = 1, . . . , N сгруппирована по n факторам; j-й фактор может находиться на одном из kj уровней. Регрессионная модель дисперсионного анализа общего вида получается исключением из модели регрессии с фиктивными переменными, полученной в конце пункта 9.1, «обычных» регрессоров:

 

 

 

 

 

 

 

G

 

 

 

 

 

 

 

 

X = ZJ βJ + ε,

(20.1)

 

 

 

 

 

 

 

J =0

 

где

Z

J

¯

j

(матрица Z

j

имеет размерность N × kj , и в ее ij -м столбце

 

= j JZ

 

 

 

 

 

 

 

 

 

 

 

единицы стоят в строках тех наблюдений, в которых j-й фактор находится на ij -м уровне, остальные элементы равны 0), или, как это следует из структуры Z и β, представленной в пункте 9.1, в покомпонентной записи:

 

 

 

 

G

 

 

 

 

 

xI, i

I

= β0 +

βJ

+ εI,i

I

,

(20.2)

 

 

 

I(J )

 

 

 

 

 

 

 

J =1

 

 

 

 

где I

— мультииндекс конечной группы, I

= I1, . . . , IK

(см. обозначения

в п. 1.9);

 

 

 

 

 

 

 

iI

— линейный индекс элемента в конечной группе, iI = 1, . . . , NI , NI

численность конечной группы;

 

 

 

 

 

 

612

Глава 20. Дисперсионный анализ

βJ( ) (по сравнению с обозначениями, используемыми в п. 4.3, добавлен верх-

I J

ний индекс J, необходимый в данной главе для более точной идентификации параметра) — параметр эффекта сочетания (совместного влияния) факторов J на данный элемент совокупности (на значение изучаемой переменной в данном наблюдении).

Так, например, если n = 3, I = {2, 3, 1}, J = {1, 3}, то βIJ(J ) = β21,,13 .

В пункте 9.1 отмечено, что в модели (20.1) на регрессорах существует много линейных зависимостей и поэтому непосредственно оценить ее нельзя. Для исключения линейных зависимостей регрессоров проводится следующее преобразование. Предполагая, что суммы компонент вектора βJ по всем значениям каждого элемента нижнего мультииндекса I(J ) равны нулю (в принятых ниже обозначениях: ZjJ bJ = 0 для всех j J ), переходят к вектору βJ путем исключения из βJ всех тех его компонент, для которых хотя бы один элемент нижнего мультииндекса равен единице (благодаря сделанному предположению их всегда можно восстановить, поскольку они линейно выражаются через оставшиеся компоненты). Теперь модель можно записать в форме без линейных зависимостей регрессоров:

G

 

X = ZJ βJ + ε,

(20.3)

J =0

где ZJ = ZJ CJ , а CJ = Cj , матрица Cj имеет следующую структуру:

j J

1kj 1 . Ikj 1

При этом, как и для модели (20.1), остается справедливым соотношение

ZJ = ¯ Zj .

j J

Эквивалентность моделей (20.1) и (20.3) очевидна, т.к. βJ = CJ βJ .

В этой главе сначала рассматривается частный случай, когда численности всех конечных групп NI равны единице, т.е. для каждого сочетания уровней факторов имеется строго одно наблюдение.

20.1. Дисперсионный анализ без повторений

n

В этом случае N = K = kj = kj , регрессионные модели (20.1) и (20.3)

Gj=1

записываются без случайной ошибки, т.к. изучаемая переменная в точности раз-