Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
EMM_MAMAEVA.pdf
Скачиваний:
101
Добавлен:
27.03.2015
Размер:
1.08 Mб
Скачать

применяются различные методы. Одним из самых распространенных является метод наименьших квадратов (МНК).

2.2. Метод наименьших квадратов (МНК) для линейной парной регрессии.

Через точки наблюдения на диаграмме рассеяния (рис.3)можно провести множество прямых, параметры которых будут различны. Мы хотим провести

такую прямую линию Y a b x , которая является наилучшей в определенном смысле среди всех прямых линий, т.е. "ближайшей" к точкам наблюдения по их совокупности.

Рис. 3. Иллюстрация метода наименьших квадратов

Для этого необходимо определить понятие близости прямой к некоторому множеству точек на плоскости. Меры такой близости могут быть различными. Однако любая мера должна быть, очевидно, связана с расстоянием

от

точек

наблюдения до рассматриваемой линии,

т. е. с величиной

ei

Yi (a b xi ) =Yi Yi ,

 

 

 

(2.3)

 

здесь

i номер наблюдения,

i

 

, Yi – расчетное

значение, полученное

 

1,n

подстановкой в уравнение оценочной модели наблюдаемых значений факторных переменных, а значение ei называется остатком (невязкой) в

i ом наблюдении (оценкой стохастического возмущения i ).

Для реальных данных, как правило, остатки ei отличны от нуля и могут

быть как положительными, так и отрицательными в зависимости от того, с какой стороны от прямой лежит наблюдаемое значение Yi .

Поэтому, если в качестве меры близости рассмотреть сумму остатков, она может оказаться равной нулю. Если все отклонения возвести в квадрат и сложить, то результат окажется неотрицательным и его величина непосредственно будет зависеть от разброса точек около искомой прямой. Различные значения параметров a и b определяют различные линии и им

будут соответствовать различные суммы квадратов отклонений:

14

n

n

 

 

U (a) (Yi (a

bxi ))2 = ei

2

(2.4)

i 1

i 1

 

 

Принцип наименьших квадратов заключается в выборе таких параметров a и b , для которых функция U (a) становится минимальной. Получаемые при

этом оценки a и b параметров и называются оценками наименьших

квадратов.

Таким образом, МНК – это метод оценивания параметров линейной

модели на основе минимизации суммы квадратов отклонений наблюдаемых Yi и модельных Yi (расчетных) значений зависимой

переменной.

Поскольку функция U (a) непрерывна, выпукла и ограничена снизу

нулем, она имеет минимальное значение и дело сводится к известной математической задаче поиска точки минимума линейной функции.

Такая точка находится путем приравнивания нулю частных производных функции U (a) по переменным. Запишем необходимые условия экстремума:

 

U

n

 

 

 

 

 

 

 

a

2 (Yi a b xi )

0

 

 

 

 

i 1

 

 

 

 

 

U

 

n

)

0

 

 

 

 

b

2 xi (Yi a b xi

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

n

 

n

 

 

 

 

 

a n b xi

Yi

Преобразуем систему (2.5):

 

 

i 1

 

i 1

 

n

 

 

 

 

 

 

n

2

n

 

 

 

 

a x

b x

x Y

 

 

 

 

 

i

i

 

i i

 

 

 

 

 

i 1

i 1

 

i 1

(2.5)

(2.6)

Полученную систему называют системой нормальных уравнений для нахождения параметров линейной модели парной регрессии. Разделив каждое из уравнений (2.6) на n, получим:

 

a b

 

 

 

 

 

 

 

 

 

 

 

 

X

 

Y

 

 

 

 

 

 

(2.7),

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a

X

 

b X 2 X Y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xi

 

здесь

X ,

 

Y

и т.д. – средние значения:

(

 

 

i 1

)

 

X

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Анализируя систему нормальных уравнений, можно сделать следующие

выводы:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1. При применении МНК сумма остатков всегда равна нулю.

Действительно, первое уравнение

системы

(2.5) можно записать:

n

(Yi

i 1

n

 

n

(a b xi ))

(Yi Yi ) ei 0 .

i 1

 

i 1

2. Модельная прямая проходит через точку со средними значениями наблюдаемых величин: (X ,Y ) ,что следует из первого уравнения системы (2.7).

Предполагаем, что среди наблюдаемых значений X не все числа

15

одинаковые, тогда

 

 

 

2

D(X ) 0 (определитель системы), поэтому

X 2

X

решение можно найти уравнений по правилу Крамера:

b

XY

 

X

 

 

Y

(2.8)

 

 

 

 

 

 

 

2

 

 

X 2

 

X

 

 

 

 

 

 

a Y

b X

 

Числитель в формуле для вычисления коэффициентом ковариации величин X и Y

 

1

n

 

 

 

 

 

 

 

 

 

 

Cov(X ,Y )

(x

 

 

X

) (Y

Y

) =

=

XY

 

X

 

n i 1

i

 

 

i

 

 

 

 

дисперсией величины X : D(X ) X 2 X 2 .

Поэтому можно записать: b Cov(X ,Y )

D(X )

параметра b является

Y , а знаменатель –

2.3. Модель множественной регрессии

Как известно, экономические величины складываются под воздействием не одного, а целого ряда факторов, между которыми могут быть сложные взаимосвязи. Поэтому влияние этих факторов комплексное и его нельзя рассматривать как простую сумму изолированных влияний, иначе можно прийти к неверным выводам. Все это приводит к необходимости применения для исследования сложных экономических явлений многофакторных

корреляционных моделей:Y F(X , ) , где X (X1, X 2 ,.....X k ) - факторные (объясняющие ) переменные, ( 1, 2 ,... l ) - истинные параметры модели, -

стохастическое возмущение(случайный член), включение которого в уравнение обусловлено теми же причинами, что и в случае парной регрессии.

Выбор типа уравнения многофакторной модели затрудняется тем, что можно выбрать целый ряд уравнений, которые в определенной степени будут описывать связь между результативным показателем и факторными признаками. Поэтому обычно проводится исследование нескольких моделей. Распространенными в экономическом анализе функциями являются: линейная, степенная, показательная и ряд других.

В настоящее время одной из самых распространенных моделей множественной регрессии является линейная модель, широко применяемая в макроэкономических расчетах, при изучении производственных функций, проблем спроса и т. д.

Теоретическое уравнение линейной модели множественной регрессии (ЛММР) записывается следующим образом:

Y 0 1 X1 2 X 2 k X k ,

(2.9)

При k = 1 уравнение (2.9) становится уравнением парной линейной

регрессии. Для оценки параметров

( 1, 2 ,... k )

этой модели используют

метод наименьших квадратов.

 

16

Xi , i 1, k

2.4. Метод наименьших квадратов для линейной модели множественной регрессии

Пусть имеется выборка, состоящая из n наблюдений зависимой переменной Y и объясняющих переменных

Y

X1

X2

 

Xk

1

Y1

X11

X12

 

X1k

2

Y2

X21

X22

 

X2k

 

 

 

 

 

 

n

Yn

Xn1

Xn2

 

Xnk

По данным выборки на основе метода наименьших квадратов оценим

параметры

уравнения

(2.9).

Оцененное

уравнение

запишем следующим

образом: Y a0 a1 X1

a2 X 2

ak X k ,

 

 

 

 

(2.10)

здесь

(a0,a1,...,ak )

оценки

истинных

параметров

( 0, 1,..., k ) ,

найденные по выборке (оценки МНК).

 

 

 

 

 

 

 

 

Уравнение (2.10)

в матричном виде можно записать: Y X A ,

 

 

a0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

X

 

X

 

X

 

Y1

 

 

a1

 

 

11

12

где

 

 

 

X

X

X

1k

 

 

A a

 

;

 

X 1

21

22

2k ;

Y Y2

.

 

 

2

 

 

 

 

 

 

 

 

 

1

X

 

X

 

X

 

 

 

 

 

 

n1

n2

nk

 

 

 

 

 

 

 

 

 

 

 

Yn

 

 

ak

 

 

 

 

 

 

 

 

 

 

 

 

Предполагаем, что между объясняющими переменными отсутствует

линейная зависимость, тогда матрица

X имеет размерность ( n (k 1) ), и ее

ранг равен ( k 1).

Введем величину отклонения наблюдаемого значения Y от вычисленного

по модели значения Y : ei

Yi Yi и запишем функцию

 

 

n

Yi 2

n

 

 

 

U (A) Yi

= ei 2 ,

 

 

(2.11),

i 1

 

i 1

 

 

 

n

 

e (e1,e2 ,.....en ) .

 

 

 

ei 2 =e e,

где

Здесь и далее

штрих

означает

i 1

 

 

 

 

 

транспонирование матрицы. 1

 

 

 

В матричной записи: e (Y X A) , тогда

 

 

n

=e e=(Y X A) (Y X A) .

 

 

U (A) ei 2

 

(2.12)

i 1

 

 

 

 

 

Преобразуем (2.12):

 

 

 

 

U (A) Y Y A' X Y Y X A A' X X A.

 

(2.13)

Замечание:

транспонированное

произведение

матриц

равно

1 при транспонировании матрицы ее строки становятся столбцами, а столбцы – строками.

17

произведению транспонированных матриц, взятых в обратном порядке.

Поскольку величина Y X A – скаляр она не меняется при транспонировании (показать самостоятельно, используя правило размерностей матриц),

т.е.

(Y X A) A' X Y и

(2.13) можно

переписать следующим

образом:

 

 

 

U (A) Y Y 2A' X Y A' X

X A .

(2.14)

Метод наименьших квадратов состоит в нахождении параметров на основе минимизации функции U (A) . Запишем необходимое условие

экстремума:

U

 

 

 

 

 

 

A 2X

Y 2

X

X A 0 .

(2.15)

 

 

Из (2.15) получаем систему нормальных уравнений для нахождения параметров уравнения множественной регрессии:

(X X ) A X Y

(2.16)

используя метод обратной матрицы, решение этой системы можно записать:

A (X X ) 1 (X Y )

.

(2.17)

Метод наименьших квадратов для парной регрессии является частным случаем рассмотренного метода.

МНК применим только для линейных относительно параметров моделей или приводимых к линейным с помощью преобразования и замены переменных.

Пример. Найти модель, связывающую выпуск продукции Y с затратами труда –X1 и производственных фондов–X2. Исходные статистические данные по 5 предприятиям отрасли представлены в табл. 1.

 

 

 

 

 

Таблица 1.

N

Y

X1

X2

ˆ

e

 

 

 

 

 

Y

 

 

1

10

2

3

7,5

2,5

 

2

20

3

2

22,5

-2,5

 

3

30

5

2

32,5

-2,5

 

4

50

7

5

47,5

2,5

 

5

70

8

6

 

 

 

Предположим, что зависимость между выпуском продукции Y и факторными переменными линейная: Y 0 1 X1 2 X 2 .

Тогда на основе выборочных данных, представленных в табл. 1, необходимо найти уравнение: Yˆ a0 a1 X1 a2 X 2 . Для нахождения параметров (a0 ,a1 ,a2 ) применим МНК.

Составим систему нормальных уравнений: (X X ) A X Y ,

18

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]