
- •1. Основные виды эконометрических моделей
- •2. Эконометрическое моделирование
- •3. Классификация видов
- •1. Общая модель парной регрессии
- •2. Нормальная линейная модель парной регрессии
- •3) Предположения о том, что дисперсия случайной ошибки уравнения регрессии является постоянной для всех наблюдеn ний и ковариация случайных ошибок любых двух разных набn
- •1. Классический метод наименьших квадратов для модели парной регрессии
- •2. Альтернативный метод нахождения параметров
- •1. Состоятельность и несмещенность мнКйоценок
- •2. Эффективность мнКйоценок. Теорема Гаусса—Маркова
- •1. Проверка гипотезы о значимости коэффициентов регрессии
3) Предположения о том, что дисперсия случайной ошибки уравнения регрессии является постоянной для всех наблюдеn ний и ковариация случайных ошибок любых двух разных набn
13
.
G
людений равна нулю, можно записать с помощью ковариациn онной матрицы случайных ошибок нормальной линейной моn дели парной регрессии:
2
0
00 0 G2 0
0 G2
(3)
Данную ковариационную матрицу можно преобразовать следуюГ
щим образом:
1
G
20
0
0
1
0
0
0 G2 n,
1
где G2 — дисперсия случайной ошибки уравнения регрессии ; In — единичная матрица размерности n n.Ковариация — это показатель тесноты связи между изучаемыn
ми переменными, которая вычисляется по формуле:
Covx, yx y−x y,
где xy — среднее арифметическое значение произведения факторного и результативного признаков:
n
i
xi y xyi1 n .
На диагонали ковариационной матрицы случайных ошибок нормальной линейной модели парной регрессии располагаетn ся дисперсия случайных ошибок, так как ковариация переn менной с самой собой равна дисперсии переменной. Таким образом:
,
Cov()G2( );
4) случайная ошибка уравнения регрессии имеет нормальный закон распределения:
~N(0,G2n).
ЛЕКЦИЯ № 3. Методы оценивания
и нахождения параметров уравнения регрессии.
Классический метод наименьших квадратов (МНК)
n
На первом этапе проведения регрессионного анализа была выбрана функция f(x), отражающая зависимость результативного признака y от факторного признака x. Необходимо оценить неизn вестные параметры модели. В качестве методов оценки неизвестn ных параметров уравнения регрессии ј, могут выступать:
1) сумма квадратов отклонений наблюдаемых значений реn зультативного признака y от теоретических значений y, расn считанных на основании регрессионной функции, f(x):
n
F (yi −f (xi , ))2
1
in
или F (yi −yi )2.
1
i
Этот метод оценивания неизвестных параметров уравнения регрессии называется методом наименьших квадратов (МНК). Термин МНК был впервые использован в работе А. М. Лежанй дра в 1805 г. Можно выделить следующие достоинства метода:
а) расчеты сводятся к механической процедуре нахождеn ния коэффициентов;
б) доступность полученных математических выводов. Основным недостатком МНК является чувствительность оцеn нок к резким выбросам, которые встречаются в исходных данn ных.
2) сумма модулей отклонений наблюдаемых значений резульn тативного признака y от теоретических значений y (рассчиn танных на основании регрессионной функции ) f(x):
n
F yi −f (xi , )
i1
n
или F yi −yi .
i1
Основным достоинством метода является нечувствительность оценок к резким выбросам (в отличие от МНК). Среди недоГ статков можно выделить следующие:
а) сложности в ходе вычислительной процедуры;
б) зачастую большим отклонениям в исходных данных следует придавать больший вес для уравновешивания их в общей сумме наблюдений;
15
n
в) неодинаковым значениям оцениваемых параметров ј, могут соответствовать одинаковые суммы модулей отклоn нений;
n n
F g(yi −f (xi, )) или F g(yi −yi ), i1 i1
где g — мера или вес, с которой отклонение (yi — f(xi,)) входит в функционал F. Примером меры g является функn
ция Хубера, которая при малых значениях переменной x является квадратичной, а при больших значениях x — лиn
нейной:
x2, x c
g(x)2cx−c2, x c −2cx−c2, x−c ,
где c — ограничения функции.
n
Третий метод оценки неизвестных параметров уравнения реn грессии , ј, — объединие достоинства предыдущих двух меn тодов. Оценки неизвестных параметров, найденные с его помоn щью, являются менее чувствительными к случайным выбросам в исходных данных, чем оценки, полученные МНК. Этот метод применяют, когда выборка сильно «засорена».
n
Для нахождения оптимальных значений неизвестных паn раметров , ј, необходимо минимизировать функционал F по данным параметрам:
n
1) F (yi −f (xi, ))2 min — процесс минимизации
n
i 1 функционала F состоит в отыскании таких параметров , ј, , при которых сумма квадратов отклонений наблюдаемых значений результативноn го признака yот теоретических значений y была бы минимальной;
n
i i
2) F y −f (x , ) min — процесс минимизации i1 функционала F состоит
n
в отыскании таких параметров , ј, , при которых сумма
модулей отклонений наблюдаемых значений результативного признака yот теоретических значений y была бы минимальной;
n
3) F g (yi −f (xi, ))min
i1
— процесс минимизации функционала F состоит
16
n
в отыскании таких параметров , ј, , при которых сумма отклонений наблюдаемых значений результативного признаn ка y от теоретических значений y с учетом заданных весов g была бы минимальной.Наиболее распространенным методом оценивания параметn ров уравнения регрессии является метод наименьших квадратов.