Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпорки_рындина.doc
Скачиваний:
14
Добавлен:
23.09.2019
Размер:
302.59 Кб
Скачать

20. Модель множественной регрессии. Условия Гаусса-Маркова.

модель множественной линейной регрессии: Y = B*X + E (векторы)

где y – фактическое значение результативного признака; β 0- постоянная

величина (или свободный член уравнения), β j- коэффициент регрессии, определяющий наклон линии, вдоль которой рассеяны данные наблюдений, ε–случайная величина.

Условия Гаусса-Маркова:

1 Регрессионная модель линейна по параметрам (коэффициентам), корректно специфицирована, и содержит аддитивный случайный член.

2 Случайный член имеет нулевое среднее.

3 Дисперсия случайных отклонений постоянна. Выполнимость этого условия называется гомоскедастичностью (гомоскедастичность означает –«одинаковый разброс»):

4 Наблюдаемые значения случайного члена не коррелированны друг с другом.

5 Случайный член независим от объясняющих переменных. Нет мультиколлинеарности.

6 Случайный член распределен нормально (необязательное, но часто используемое условие).

21. Вывод формул для оценок коэффициентов модели мр. Матричная запись. Теорема Гаусса-Маркова.

1. Y = BX + E

2. M(epsi) = 0

3. D(eps_i) = D(eps_j) = sigma^2

4. sigma_ij = cov(eps_i,eps_j): i=j  sigm^2, i!=j  0

5. X – неслучайная, детерминированная матрица. Рарг = m+1.

Теорема Гаусса-Маркова.Если предпосылки 1 — 5 выполнены, то оценки, полученные по МНК, обладают следующими свойствами:1. Оценки являются несмещенными, т.е. M[b0] = b0, M[b1] = b1. Это говорит об отсутствии систематической ошибки при определении положения линии регрессии.2. Оценки состоятельны, т.к. при n = µ D[b0] =0, D[b1] = 0. Это означает, что с ростом n надежность оценок возрастает.3. Оценки эффективны, т.е. они имеют наименьшую дисперсию по сравнению с любыми другими оценками данных параметров, линейными относительно величин yi.

Матричная запись:

Y = BX + E (векторы)

X = [1, x11…, x1m] (первая строка)

Сумма E^2 = Сумма (y – ^y)^2  min.

b = (X^T*X)^-1 *X^T*Y

22. Дисперсии и стандартные ошибки коэффициентов (ковариационная матрица и ее выборочная оценка).

b=(x^Т*х)^ -1 *х^Т * у

у= х * бета + Е

подставляем:

b= (x ^Т*х) ^ -1 *х ^ Т* (х*бета+Е)

b=бета+(x встеп Т*х) в степ -1 *х в степ Т* Е

b-бета = =(x ^ Т*х) ^ -1 *х ^ Т * Е

cov(x,y)=M(x-M(x))*(y-M(y))

M(b)= бета (св-во несмещенность)

K(b) = M[(бета –b)* (бета –b)^ Т]= sigma^2 * (X^T*X)^-1

По предпосылке матрица х детерминирована и М (несл. в.) = самой величине.

sigma^2 ~ S^2(ост)

S(b(j-1)) = S^2(ост)* SQRT([(X^T*X)^-1]_ij)

В отличие от парной регрессии незначимость коэффициентов при х не означает незначимость уравнения в целом. И наоборот.

23. Интервальные оценки коэффициентов уравнения мр. Проверка статистической значимости коэффициентов.

Построим интервальные оценки множественной регрессии

tbi = (bj-бетаj) / Sbj

P(|tbj|<t Крит) = GAMMA = 1- альфа

gamma - доверительный интервал. альфа – уровень значимости, т.е. значение параметра в интервале не окажется.

модуль|(bj-бета)/Sbj < t Крит.

-t крит< (bj – бетаj)/Sbj< t Крит.

tj – t Крит*Sbj<бетаj<bj+t крит* Sbj

Стандартная гипотеза:

Ho: бетаj = 0 (незнач)

H1: бетаj не равна 0(знач)

dbj = (bj – бетаj)/ Sbj

|tbj|>t крит, сл- но Н1

|tbj|<t крит, сл- но Нo

dк (альфа, n-k). n- число наблюдений, k – число оцениваемых параметров.

k=m+1

Ho : бетаj=бетаj*

H1 : бетаj не равно бета*j

dbj = (bj-бета*j)/Sbj

|tbj|>t крит,  Н1

|tbj|<t крит,  Но

бета*j пренадлежит доверит интервалу, сл-но Но

бета*j не пренадлежит доверит интервалу, сл-но Н1

Если границы одного знака ++,сл-но Н1

- -

Если +-, то Но

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]