Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
EMM_MAMAEVA.pdf
Скачиваний:
100
Добавлен:
27.03.2015
Размер:
1.08 Mб
Скачать

1

2

3

 

 

 

 

 

 

 

 

 

3

2

 

 

 

5

25

18

 

 

1

 

 

 

X= 1

5

2

 

, тогда

 

25

151

105

 

,

X X

 

 

 

 

 

 

 

18

105

78

 

 

1

7

5

 

 

 

 

 

 

 

 

8

6

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

Система нормальных уравнений запишется:

 

5a0 25a1

 

18a2

180,

 

 

151a1

 

105a2

1140,

25a0

 

 

18a

0

105a

78a

2

800.

 

 

 

1

 

Для решения системы найдем матрицы:

 

 

 

1,27

0,1

0,16

 

 

(X ' X ) 1

 

0,1

0,11

0,13

 

и

=

 

 

 

0,16

0,13

0,22

 

 

 

 

 

 

тогда

180 X Y 1140

800

 

180

 

 

 

 

 

,

(X 'Y ) = 1140

 

 

800

 

 

 

 

 

 

 

1,27

0,1

0,16

 

 

180

 

 

12,28

 

A (X X ) 1

 

0,1

0,11

0,13

 

 

 

 

 

7,51

 

(X Y ) =

 

. 1140

 

=

 

 

 

0,16

0,13

0,22

 

 

800

 

 

2,98

 

 

 

 

 

 

 

 

Получим следующее уравнение регрессии: Yˆ 12,28 7,51X1 2,98X 2 . Подставляя в модель наблюдаемые значения xi , вычислим расчетные

ˆ

и ошибки ei Yi Yi . Запишем найденные значения в табл. 1.

значения Y

2.5. Нелинейные регрессионные модели

Многие экономические зависимости не являются линейными по своей сути, и поэтому их моделирование линейными регрессионными уравнениями не может дать удовлетворительного результата и использоваться для анализа и прогнозирования. Так, при исследовании производственных функций (зависимость объема выпуска от затрат ресурсов) более реалистичными являются степенные модели (например,

функция Кобба-Дугласа Y a0 xa1 xa2 , a1 a2 1.

Всовременном эконометрическом анализе достаточно широко

применяются и многие другие

нелинейные модели: экспоненциальная,

логарифмическая, гиперболическая, полиномиальная и пр.

Различают два класса нелинейных регрессионных моделей:

Регрессии нелинейные относительно включенных в нее факторных переменных, но линейные по оцениваемым параметрам.

Регрессии, нелинейные по оцениваемым параметрам.

Примером моделей первого типа являются, например, модели,

19

представленные:

 

 

 

 

 

 

1x 2 x2

.... k xk

 

 

многочленами разной степени: Y 0

;

 

Гиперболой Y a

b

 

и т.д.

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Оценка

параметров

этих

моделей

 

осуществляется

по

МНК с

предварительным приведением к линейному виду (линеаризации)

 

 

 

Например,

если

 

модель

 

 

представлена

 

многочленом:

Y a a x

 

a x2 .... a xk

, то вводя

переменные u

, заменяющие i-ую

0

1

 

 

2

k

 

 

 

 

 

 

i

 

 

 

 

степень

факторной

переменной

(ui

X i ), получим

 

линейную

 

модель

множественной регрессии.

 

 

 

 

 

 

 

 

 

 

 

В общем случае, если зависимость можно записать в виде:

 

 

 

Y a0

a1V1 a2V2 .... akVk

,

 

 

 

 

 

(2.18),

где

 

Vi – любые функции одной

или нескольких переменных, не

содержащие

 

неизвестных

параметров

(Vi

может

 

означать:

X , X 2 , X1

X

, log X ,

X и т.д.),

то для

нахождения

параметров

можно

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

применить МНК. К виду (2.18) приводится большинство функций, применяемых в эконометрическом анализе.

К нелинейным регрессиям по оцениваемым параметрам относятся,

например, модели, представленные степенными (Y k ai X bi ), показательными

i 1

( (Y a bx ) и пр. функциями. Если такие модели путем преобразования и

замены переменных (линеаризации) можно привести к линейному относительно параметров виду, то для нахождения параметров применим МНК.

Одним из распространенных способов приведения уравнения к линейному виду является логарифмирование обеих частей уравнения. Осуществляя процедуру логарифмирования необходимо иметь в виду наличие в уравнении случайного члена , который может входить в уравнение мультипликативно или аддитивно.

При мультипликативном вхождении возможно линеаризировать уравнение путем логарифмирования. Например, прологарифмировав уравнение

степенной функции Y AK L , получим уравнение: lnY ln A ln K ln L ln .

Полученная зависимость является примером логарифмической регрессии. В общем случае, логарифмическая регрессия — это модель линейной регрессии между логарифмом отклика и логарифмами факторных переменных.

Вопрос о том, как включить в уравнение случайное отклонение решается на основе теории и качественного исследования изучаемого процесса.

Недостатком линеаризации является то, что в результате замены переменных, вектор оценок параметров получается путем применения МНК не

кисходным, а к преобразованным переменным, что не одно и то же.

Втом случае, когда не удается подобрать к модели соответствующее

20

линеаризующее преобразование, МНК не применим и для нахождения параметров используются более сложные методы нелинейной оптимизации.

2.6. Классическая линейная модель регрессии (КЛМР)

Классический подход к оцениванию параметров линейной модели основан на методе наименьших квадратов (МНК). Вычисление оценок МНК не требует, вообще-то говоря, введения каких-либо дополнительных гипотез. Сам метод часто рассматривают как способ «разумного» выравнивания эмпирических данных. Относительно оценок МНК можно сделать следующие выводы:

1. Оценки МНК являются функциями от выборки, что позволяет их легко рассчитывать.

2.Оценки МНК являются точечными оценками теоретических

коэффициентов регрессии, т.е.

M (ai ) i

i 0,k 2

 

3. Эмпирическое уравнение регрессии строится таким образом,

что

n

 

 

 

ei 0 и среднее значение отклонений будет равно 0.

 

i 1

a (a0 ,a1 ,a2 ,....ak ) , вычисленные по МНК,

 

В то же время оценки

не

позволяют сделать вывод, насколько близки найденные значения параметров к своим теоретическим прототипам ( 0 , 1 ,..... k ) и насколько надежны

найденные оценки. Поэтому для оценки адекватности модели и ее прогностической способности необходимо введение дополнительных предположений.

В классической модели линейной регрессии делаются следующие теоретические ограничения на модель:

Факторные (объясняющие) переменные (X1 , X 2 ,.....X k ) являются

неслучайными величинами.

Ни одна из объясняющих переменных не является строгой линейной функцией других объясняющих переменных. Следовательно, ранг матрицы X

равен k 1 n , где k – число факторных переменных, n .-число наблюдений

Свойства оценок МНК напрямую зависят от свойств случайного члена . Покажем это на примере множественной регрессии:Y X A

Полагая, что

 

(x1 , x2 ,.....xk ) – неслучайные экзогенные переменные,

X

можно утверждать,

что

величина Y состоит из двух составляющих:

неслучайной составляющей XA и случайной составляющей .

Можно показать, что параметры, полученные по любой выборке на основе МНК, представляются в виде суммы двух слагаемых: постоянной величины, равной истинному значению коэффициента i и случайной

составляющей, зависящей от :

2 Здесь и далее M (ai ) математическое ожидание случайной величины ai

21

A (X T X ) 1 (X TY ) (X T X ) 1 X T (X )

,

(X T X ) 1 (X T X ) (X T X ) 1 X T (X T X ) 1 X T

т.е. A (X T X ) 1 X T ,

(2.19)

Здесь -матрица истинных коэффициентов модели.

На практике мы не можем сделать такое разложение, так как не знаем

истинных

значений параметров

и фактических значений

. Поэтому о

свойствах коэффициентов уравнения регрессии можно судить,

если наложены

определенные условия на реализации случайного члена .

 

В

КЛМР

предполагается

выполнение

следующих условий для

случайного члена

(условий ГауссаМаркова):

 

 

1. Во всех наблюдениях математическое ожидание i должно быть равно

нулю: M ( i

) 0 , i

 

 

 

 

 

1,n

 

 

 

2. Все объясняющие переменные не коррелированны со случайным

членом:cov(xi , i ) 0 .

3. Случайный член имеет постоянную дисперсию: D( i ) D( j ) 2 ;

i, j 1,n ..

4. Отсутствует систематическая корреляционная связь между значениями

случайного

члена

 

в

любых

двух

наблюдениях

cov( i , j ) 0, для любых i,

j 1,n .

 

 

 

5.Случайный член

распределен

нормально

(необязательное, но часто

используемое условие)

Условие (1) означает, что случайное отклонение в среднем не оказывает влияния на зависимую переменную. В каждом наблюдении случайный член может быть либо положительным, либо отрицательным, но он не должен иметь

систематического смещения. Выполнимость M ( i ) 0 , i 1,n влечет

выполнимость M (Y ) = 0 1X1 2 X 2 k X k

Условие (2) имеет значение в том случае, если факторные переменные xi являются случайными величинами. В случае классической модели, когда xi

неслучайные величины, это условие автоматически выполняется.

Условие (3) подразумевает, что, не смотря на то, что в каждом конкретном наблюдении случайное отклонение может быть различно, не должно быть некой априорной причин для того, чтобы в одних наблюдениях ошибка была существенно больше, чем в других. Выполнимость этого предположения называется гомоскедастичностью (постоянством дисперсии отклонений), невыполнимость этого предположения называется гетероскедастичностью (непостоянством дисперсии отклонений).

При выполнении условия гомоскедастичности ковариационная матрица вектора возмущений 2 En , где En — единичная матрица n-го порядка.

Если имеется гетероскедастичность возмущений, то оценки параметров уравнения регрессии, полученные на основе МНК являются несмещенными, но

22

не эффективными (т. е. они не будут иметь наименьшую дисперсию по сравнению с другими оценками данного параметра). Поэтому в случае гетероскедастичности рекомендуется применение обобщенного метода наименьших квадратов (ОМНК)

Условие (4) предполагает отсутствие систематической связи между значениями случайного члена в любых двух наблюдениях, т.е.

Cov(

,

 

0,

 

если i j

Наличие

такой

связи

называется

 

)

,

если i j

i

 

j

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

автокорреляцией остатков. Например, если случайный член велик и положителен в одном наблюдении, это не должно обусловливать систематическую тенденцию к тому, что он будет большим и положительным в следующем наблюдении. Случайные члены должны быть абсолютно независимы друг от друга. При наличии автокорреляции регрессия, оцененная по обычному методу наименьших квадратов, даст неэффективные результаты, поэтому также как в случае гетероскедастичности рекомендуется использование, например, ОМНК.

При выполнении условий Гаусса-Маркова (1–4)

оценки параметров,

сделанные

по методу

МНК, являются несмещенными, состоятельными и

эффективными, а модель адекватной и надежной. (доказательство в [3]3)

 

Оценка является несмещенной, если математическое ожидание

оценки

равно

его

истинному

значению:

M (A) ,

т.е

( M (a1 ) 1 ;....M (ak ) k )

 

 

 

Используя соотношение (2.19), запишем:

 

 

M (A) M[ (X T X ) 1 X T ] M ( ) (X T X ) 1 X T M ( ) ,

 

Так как M ( i ) 0 ,

то M (A) M ( ) , т.е. систематическая ошибка в

определении положения линии регрессии отсутствует.

Оценка называется состоятельной, если она дает истинное значение при достаточно большом объеме выборки вне зависимости от значений входящих в нее конкретных наблюдений. В случае оценок параметров, найденных по МНК, они состоятельны, так как их дисперсия при возрастании

числа наблюдений стремится к нулю. Иначе говоря, если n достаточно велико, то практически наверняка параметры, определенные по выборке близки к истинным значениям, которые могли быть получены в условиях генеральной совокупности. Надежность оценки при увеличении выборки растет.

Оценка называется эффективной, если она имеет наименьшую дисперсию по сравнению с любыми другими оценками данного параметра, линейными относительно Yi.

Если предположения 2 и 4 нарушены, то свойства несмещенности и состоятельности сохраняются, но свойство эффективности – нет.

Перечисленные свойства не зависят от конкретного вида распределения величин i, тем не менее, обычно предполагается, что они распределены

3 Кремер Н.Ш., Путко Б.А. Эконометрика. М. Юнити, 2003 ,стр 150-170

23

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]