
- •1. Основные виды эконометрических моделей
- •2. Эконометрическое моделирование
- •3. Классификация видов
- •1. Общая модель парной регрессии
- •2. Нормальная линейная модель парной регрессии
- •3) Предположения о том, что дисперсия случайной ошибки уравнения регрессии является постоянной для всех наблюдеn ний и ковариация случайных ошибок любых двух разных набn
- •1. Классический метод наименьших квадратов для модели парной регрессии
- •2. Альтернативный метод нахождения параметров
- •1. Состоятельность и несмещенность мнКйоценок
- •2. Эффективность мнКйоценок. Теорема Гаусса—Маркова
- •1. Проверка гипотезы о значимости коэффициентов регрессии
2. Альтернативный метод нахождения параметров
уравнения парной регрессии
Традиционно параметры уравнения парной регрессии и оцениваются с помощью МНК, однако в случае парной регрессиn онной модели возможен и другой подход к оценке параметров реn грессионной функции. Запишем уравнение парной регрессии в следующем виде:yyyx x−x , (1)
где y — значение зависимой переменной;
x — значение независимой переменной;
y — среднее значение зависимой переменной, вычисленное на основе выборочных данных. Чаще всего это значение выn числяется по формуле средней арифметической:
n
yi
n
y i1 , (2)
i
где y — значения зависимой переменной, i1,n; n — объем выборки;x — среднее значение независимой переменной, которое выn числяется аналогично среднему значению зависимой переn менной;
yx
— выборочный коэффициент регрессии y по x. Он характеn ризует, насколько в среднем изменится результативный покаn затель y при изменении факторного показателя x на единицу своего измерения.Вычисляется выборочный коэффициент регрессии y по x с поn мощью следующей формулы:
y
Syx ryx Sx , (3)
yx
где r — выборочный парный коэффициент корреляции, определяемый как:
yx−yx yx
y x
(4)
yx
Выборочный парный коэффициент корреляции показывает тесноту связи между изучаемыми признаками. Он изменяется в пределах [—1; +1]. Если r , то связь между признаками прямая. Если ryx —, то связь между признаками обратная.
20
yx
yx yx
Если r = 0, то связь между признаками отсутствует. Если r = 1 или r =—1, то связь между изучаемыми признаками является функциональной, т. е. характеризуется полным соответствием между x и y. Примером функциональной зависимости могут слуn жить математические и статистические формулы, например: S = a2. При таком значении парного коэффициента корреляции регресn сионный анализ между изучаемыми показателями не проводится. Данная связь не подлежит численной характеристике, так как на практике массовым социальноnэкономическим явлениям присуn щи иные виды связи (в частности, корреляционная связь);yx — среднее арифметическое значение произведения факторn ного и результативного признаков;
y
S — выборочное среднеквадратическое отклонение зависимой переменной y. Этот показатель характеризует, на сколько единиц в среднем отклоняются значения зависимого признака y от его среднего значения y. Он вычисляется по формуле:
Sy
y2
−y2
; (5)
y2 — среднее значение из квадратов значений результативной переменной y:
y
n
i2
n
y2 i1 ; (6)
y2 — квадрат средних значений результативной переменной y:
2
n
1
y2 inyi ; (7)
x
S — выборочное среднеквадратическое отклонение независиn мой переменной x. Этот показатель характеризует, на сколько единиц в среднем отклоняются значения независимого признака x от его среднего значения ⎯x. Он вычисляется аналогично среднеn квадратическому отклонению зависимого показателя y.
y x
yx
При оценивании коэффициента в модели регрессионной зависимости результативного показателя y от факторного показаn теля x с помощью рассмотренного метода следует помнить о том, что ryx = rxy , но x y.
21
ЛЕКЦИЯ № 4. Оценка дисперсии
случайной ошибки регрессии.
Состоятельность и несмещенность МНКГоценок.
Теорема Гаусса — Маркова
В большинстве случаев генеральная дисперсия случайной ошибки — величина неизвестная, поэтому возникает необходиn мость в расчете ее несмещенной выборочной оценки.
Несмещенной оценкой дисперсии случайной ошибки линейn ного уравнения парной регрессии является величина:
i
n
e2
n
1
G2( )S2( )i −2,
где n — объем выборки;
ei — остатки регрессионной модели:
i i i i
e y −y y −0 −1xi .
Оценка дисперсии, вычисляемая по формуле (1), также назыn вается исправленной дисперсией.
В случае множественной линейной регрессии оценка дисперn сии случайной ошибки вычисляется по формуле:
1
i
e
2
n
i S2( )n−k−1,
где k — число оцениваемых параметров модели регрессии. Оценкой матрицы ковариаций случайных ошибок ov( ) буnдет являться оценочная матрица ковариаций:
C( )S2( )n, (2)
где In — единичная матрица.
2
Оценка дисперсии случайной ошибки уравнения регрессии подчиняется (хиnквадрат) закону распределения с (n — k — 1)
степенями свободы, где k — число оцениваемых параметров. Докажем несмещенность оценки дисперсии, т. е. необходимо
доказать, что (S2( ))G2( ).
22
n
Примем без доказательства следующее выражения: (S2 ( ))n−1G2 ( ),
n
S2( )n−1S2( ),
где G2() — генеральная дисперсия случайной ошибки; S2() — выборочная дисперсия случайной ошибки;
2 ( ) — выборочная оценка дисперсии случайной ошибки. Тогда:
−
−
(
n n
S2( ))n−1S2( ) n−1(S2( ))nn 1nn 1G2( )G2( ),
что и требовалось доказать.
)
Таким образом, S2 (является несмещенной оценкой дляG2().
Теоретически можно предположить, что оценка любого параn метра регрессии, полученная методом наименьших квадратов, состоит из двух компонент:
1) константы, т. е. истинного значения параметра;
2) случайной ошибки Cov(x,), вызывающей вариацию параn метра регрессии.
На практике такое разложение невозможно в связи с неизn вестностью истинных значений параметров уравнения регрессии и значений случайной ошибки, но в теории оно может оказаться полезным при изучении статистических свойств МНКnоценок: состоятельности, несмещенности и эффективности.
.
1
Докажем, что значение МНКnоценки зависит от величиныслучайной ошибки
МНКnоценка параметра регрессии рассчитывается по формуле:
.
Cov(x,y) 1 G2(x)
Ковариация между зависимой переменной y и независимой переменной x может быть представлена как:
x
Cov(x,y)Cov(x,( 0 1x))Cov(x, 0)Cov(x, 1 )Cov(x, ).
Дальнейшие преобразования полученного выражения провоn дятся исходя из свойств ковариации:
1) ковариация между переменной x и какойnлибо константой A равна нулю: Cov(x,A)0, где Aconst;
23
1
.
2) ковариация переменной x с самой собой равна дисперсии этой переменной: Cov(x,x)G2(x).
Следовательно, на основании свойств ковариации можно заn писать, что:
Cov(x, 0 )0, так как 0 const;
Cov(x, 1 x )1 Cov(x, x )1 G 2(x).
Таким образом, ковариация между зависимой и независимой переменными Cov(x, y) может быть представлена в виде выражеГ ния:
1
Cov(x,y)G2(x)Cov(x, ).
В результате несложных преобразований МНКnоценка параn метра уравнения регрессии 1 принимает вид:G2(x)Cov(x, ) Cov(x, ) 1 G2 (x) 1 G2(x)
(3)
1
Из формулы (3) следует, что МНКnоценка действительно моn жет быть представлена как сумма константы и случайной ошибки Cov(x, ), которая и вызывает вариацию данного параметn
ра регрессии.
0
Аналогично доказывается, что и оценка параметра регрессии ,
)
полученная методом наименьших квадратов, и несмещенная оценка дисперсии случайной ошибки 2 (могут быть предстаn влены как сумма постоянной составляющей (константы) и слуn чайной компоненты, которая зависит от ошибки уравнения реn грессии .