Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции часть 1.docx
Скачиваний:
4
Добавлен:
01.05.2025
Размер:
451.12 Кб
Скачать

3) Предположения о том, что дисперсия случайной ошибки уравнения регрессии является постоянной для всех наблюдеn ний и ковариация случайных ошибок любых двух разных набn

13

.

G

людений равна нулю, можно записать с помощью ковариациn онной матрицы случайных ошибок нормальной линейной моn дели парной регрессии:

2

0

0

0 0 G2 0

0 G2

(3)

Данную ковариационную матрицу можно преобразовать следуюГ

щим образом:

1

G

20

0

0

1

0

0

 

0 G2 n,

1

где G2 — дисперсия случайной ошибки уравнения регрессии ; In — единичная матрица размерности n n.

Ковариация — это показатель тесноты связи между изучаемыn

ми переменными, которая вычисляется по формуле:

Covx, yx yx y,

где xy — среднее арифметическое значение произведения факторного и результативного признаков:

n

i

xi y xyi1 n .

На диагонали ковариационной матрицы случайных ошибок нормальной линейной модели парной регрессии располагаетn ся дисперсия случайных ошибок, так как ковариация переn менной с самой собой равна дисперсии переменной. Таким образом:

,

Cov()G2( );

4) случайная ошибка уравнения регрессии имеет нормальный закон распределения:

~N(0,G2n).

ЛЕКЦИЯ3. Методы оценивания

и нахождения параметров уравнения регрессии.

Классический метод наименьших квадратов (МНК)

n

На первом этапе проведения регрессионного анализа была выбрана функция f(x), отражающая зависимость результативного признака y от факторного признака x. Необходимо оценить неизn вестные параметры модели. В качестве методов оценки неизвестn ных параметров уравнения регрессии ј, могут выступать:

1) сумма квадратов отклонений наблюдаемых значений реn зультативного признака y от теоретических значений y, расn считанных на основании регрессионной функции, f(x):

n

F  (yi −f (xi , ))2

1

i

n

или F  (yi yi )2.

1

i

Этот метод оценивания неизвестных параметров уравнения регрессии называется методом наименьших квадратов (МНК). Термин МНК был впервые использован в работе А. М. Лежанй дра в 1805 г. Можно выделить следующие достоинства метода:

а) расчеты сводятся к механической процедуре нахождеn ния коэффициентов;

б) доступность полученных математических выводов. Основным недостатком МНК является чувствительность оцеn нок к резким выбросам, которые встречаются в исходных данn ных.

2) сумма модулей отклонений наблюдаемых значений резульn тативного признака y от теоретических значений y (рассчиn танных на основании регрессионной функции ) f(x):

n

Fyi −f (xi , )

i1

n

или Fyi yi .

i1

Основным достоинством метода является нечувствительность оценок к резким выбросам (в отличие от МНК). Среди недоГ статков можно выделить следующие:

а) сложности в ходе вычислительной процедуры;

б) зачастую большим отклонениям в исходных данных следует придавать больший вес для уравновешивания их в общей сумме наблюдений;

15

n

в) неодинаковым значениям оцениваемых параметров ј, могут соответствовать одинаковые суммы модулей отклоn нений;

 

n n

Fg(yi −f (xi, )) или Fg(yi yi ), i1 i1

где g — мера или вес, с которой отклонение (yi f(xi,)) входит в функционал F. Примером меры g является функn

ция Хубера, которая при малых значениях переменной x является квадратичной, а при больших значениях x — лиn

нейной:

x2, x c

g(x)2cxc2, xc −2cxc2, x−c ,

где c — ограничения функции.

n

Третий метод оценки неизвестных параметров уравнения реn грессии , ј, — объединие достоинства предыдущих двух меn тодов. Оценки неизвестных параметров, найденные с его помоn щью, являются менее чувствительными к случайным выбросам в исходных данных, чем оценки, полученные МНК. Этот метод применяют, когда выборка сильно «засорена».

n

Для нахождения оптимальных значений неизвестных паn раметров , ј, необходимо минимизировать функционал F по данным параметрам:

n

1) F  (yi −f (xi, ))2 min процесс минимизации

n

i 1 функционала F состоит в отыскании таких параметров , ј, , при которых сумма квадратов отклонений наблюдаемых значений результативноn го признака yот теоретических значений y была бы минимальной;

n

i i

2) Fy −f (x , ) min процесс минимизации i1 функционала F состоит

n

в отыскании таких параметров , ј, , при которых сумма

модулей отклонений наблюдаемых значений результативного признака yот теоретических значений y была бы минимальной;

n

3) Fg (yi −f (xi, ))min

i1

— процесс минимизации функционала F состоит

16

n

в отыскании таких параметров , ј, , при которых сумма отклонений наблюдаемых значений результативного признаn ка y от теоретических значений y с учетом заданных весов g была бы минимальной.

Наиболее распространенным методом оценивания параметn ров уравнения регрессии является метод наименьших квадратов.