Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Lektsia_06_new_MS_end

.pdf
Скачиваний:
15
Добавлен:
14.04.2015
Размер:
360.23 Кб
Скачать

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

10

 

 

 

 

 

 

 

δi = yi

(β0 + β1xi ) , i = 1, n , ординат экспериментальных точек (xi, yi ) от лю-

бой прямой fa (x; β) = β0 +β1x

называют невязками.

 

 

 

 

В общем случае для линейной регрессионной модели (6.6)

 

 

 

 

 

 

 

 

 

 

 

m1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

δi = yi βk ψk (xi ) , i = 1, n ,

 

 

 

 

 

 

 

 

 

 

 

 

 

k=0

 

 

 

 

 

 

 

 

и невязку

δi

можно

рассматривать

как реализацию

случайной ошибки

εi = ε(xi ) , i =

 

.

 

 

 

 

 

 

 

 

 

 

 

 

1, n

 

 

 

 

 

 

 

 

 

 

 

 

Согласно

 

методу

наименьших

 

 

квадратов,

 

оценку

βˆ(Y ) =(βˆ

(Y ),

, βˆ

(Y )) вектора параметров

β =(β

, , β

)T

выбирают

n

0

n

 

m1

 

n

 

 

 

0

 

m1

 

 

так, чтобы сумма квадратов невязок δi

была минимальной, т.е.:

 

 

 

 

 

 

 

 

 

n

n

m1

 

2

 

 

 

 

 

 

 

 

 

 

2

 

 

i

 

 

 

 

 

 

 

 

 

 

(β) = δi

 

 

 

 

 

 

 

 

 

 

 

 

= yi βk ψk (x

) min ,

 

 

 

 

 

 

 

 

 

i=1

 

k=0

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

или, что то же самое,

(β) = δT δ =(Y Fβ)T (Y Fβ) min ,

где δ =(δ1, , δn ) – вектор невязок.

Необходимым условием экстремума функции (β) переменных

β0, β1, , βm1 (а, следовательно, и условием существования МНК-оценки

параметра β ), как известно, является равенство нулю ее частных производных, т.е.

∂Δ

 

i

 

i

 

 

 

 

 

n

 

 

m1

 

 

 

 

 

= −2ψν

(x

ψk (x

 

= 0 , ν = 0, m 1 .

 

) yi

)βk

βν

i=1

 

 

k=0

 

 

 

 

 

 

 

 

 

 

Эту систему можно представить, используя матричную

запись

2FT (Y Fβ) = 0 , или

 

FT Fβ = FTY .

(6.8)

Из геометрических соображений очевидно, что решением системы (6.8) является точка минимума функции (β) , в чем можно убедиться непосред-

ственно, воспользовавшись достаточным условием экстремума. Систему линейных алгебраических уравнений (6.8) называют системой нормальных

11

уравнений Гаусса. Она всегда имеет решение (хотя не всегда единственное).

Пусть матрица FT F имеет обратную матрицу (FT F)1 (для этого необходимо и достаточно, чтобы Rg F был равен числу столбцов матрицы F ).

Тогда, умножая обе части равенства (6.8) слева на матрицу FT F1 , приходим к формуле (6.7), которая дает единственное решение системы (6.8).

Если матрица FT F не имеет обратной (случай, когда ранг матрицы F меньше числа m ее столбцов), то МНК-оценка параметра β существует, но не является единственной.

Несмещенность оценки βˆ(Yn ) , заданной равенством (6.7), и эффектив-

ность в классе всех линейных несмещенных оценок непосредственно следуют из исходных предположений для метода наименьших квадратов. Действительно,

Mβˆ(Yn ) = M((FT F)1FTY ) =(FT F)1FTMY =(FT F)1FFT β = β ,

т.е. βˆ(Yn ) – несмещенная оценка для β . Докажем ее эффективность. Пусть LY – произвольная линейная несмещенная оценка для β . Тогда

из равенства

M(LY ) = LMY = LFβ = β

получаем LF = In и

D(LY ) = M(LY LMY )2 = ML(Y −MY )2 LT = LDYLT = Lσ2InLT = σ2LLT .

Наша задача минимизировать диагональные элементы матрицы LLT , которые с точностью до множителя σ2 являются дисперсиями оценок параметров βk , k = 0, m 1 . Для этого рассмотрим равенство

LLT =(M 1FT )(M 1FT )T +(L M 1FT )(L M 1FT )T ,

в справедливости которого можно убедиться непосредственно, перемножив матрицы в правой его части с учетом равенств LF = In и M = FT F . По-

скольку диагональные элементы матрицы вида AAT являются неотрицательными, то можно утверждать, что диагональные элементы матрицы LLT

12

будут минимальными, если L = M 1FT , т.е. оценка βˆ(Yn ) является эффек-

тивной в классе всех линейных оценок.

Итак, по теореме 6.1 МНК-оценки являются наилучшими в указанном выше смысле в классе линейных оценок. Тем самым равенство (6.5) определяет наилучшую модель регрессии для выбранных базисных функций и

значений βˆk , k = 0, m 1 , найденных по методу наименьших квадратов, ко-

торую будем записывать (обозначив fˆa (x) = yˆ(x) ) в виде

 

m1

 

 

 

 

 

 

yˆ(x) = βˆk ψk (x) .

 

 

 

 

(6.9)

 

k=0

 

 

 

 

 

Случайную величину

 

 

 

 

 

 

 

ˆ

m1

ˆ

 

 

 

 

 

Y(x) =

βk (Yn )ψk (x)

 

 

 

 

 

k=0

 

 

 

 

 

 

будем называть оценкой среднего значения отклика Y .

 

 

 

Согласно (6.9), можно определить оценки

ˆ

ˆ

i

)

среднего значения

Yi

=Y(x

 

отклика (условного математического ожидания отклика) в каждой точке x i факторного пространства:

ˆ

m1

ˆ

 

 

 

 

 

 

 

i

) , i = 1, n .

 

Yi

=

βk (Yn )ψk (x

 

 

k=0

 

 

 

 

 

 

 

 

 

 

ˆ

 

ˆ

ˆ T

оценок среднего значе-

При этом, если ввести матрицу Y

=(Y1, ,Yn )

ния отклика, то

 

 

 

 

 

 

 

 

 

 

ˆ

 

ˆ

 

 

 

(6.10)

 

 

Y

= Fβ(Yn ) .

 

 

В ряде случаев интерес представляют не сами параметры β0, β1, , βm1 в линейной регрессионной модели (6.6), а их некоторые линейные комбина-

ции, т.е.

новый вектор параметров α =(α0, α1, , αq1) ,

q m , связанный с

вектором

β =(β

, , β

)T

соотношением α = Aβ , где A – некоторая мат-

 

0

 

m1

 

 

 

 

рица типа q ×m .

 

 

 

 

 

 

Для вектора α

 

 

ˆ

 

 

МНК-оценка α(Yn ) определяется равенством

 

 

 

 

 

ˆ

ˆ

(6.11)

 

 

 

 

 

α(Yn )

= Aβ(Yn ) ,

13

где βˆ(Yn ) – МНК-оценка для β .

Укажем теперь правило определения ковариационной матрицы Σ(βˆ)

МНК-оценки βˆ(Yn ) вектора параметров β . Это правило будет вытекать как частный случай из следующей теоремы.

Теорема 6.2. Пусть β m -мерный вектор-столбец линейной регрессионной модели (6.6), A – произвольная матрица типа q ×m , где 1 q m , а

матрица FT F является обратимой (т.е. det(FT F) 0 ). Тогда для вектора

α = Aβ

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

является не-

МНК-оценка α(Yn ) , определяемая равенством (6.11),

 

смещенной оценкой с матрицей ковариаций

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

2

A(F

T

 

 

1

 

T

 

 

 

 

 

 

 

 

 

 

 

 

(6.12)

 

 

 

 

 

 

Σ(α) = σ

 

 

F)

 

 

A ,

 

 

 

 

 

 

 

 

 

 

 

 

где σ2

– дисперсия отклика.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Доказательство. Согласно (6.7) и (6.6), имеем

 

 

 

 

 

 

 

 

 

 

 

βˆ(Y ) =(FT F)1FT (Fβ + ε) =(FT F)1(FT F)β +(FT F)1FT

ε = β +(FT F)1FT ε .

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

ˆ

 

 

 

 

параметра α = Aβ

 

имеем представ-

Отсюда для оценки α(Yn ) = Aβ(Yn )

 

ление

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

ˆ

 

 

 

 

 

 

T

 

 

1

F

T

ε = α +A(F

T

 

1

F

T

ε ,

(6.13)

 

α(Yn )

= Aβ(Yn ) = Aβ +A(F

 

 

F)

 

 

 

 

 

F)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

из которого вытекает несмещенность оценки α(Yn ) , т. к., согласно исходным

предположениям метода наименьших квадратов, Mε = 0 и, следовательно,

 

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

T

 

 

 

1

F

T

Mε = α .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Mα(Yn ) = α +A(F

 

F)

 

 

 

 

 

 

 

 

 

 

 

 

Далее, матрица ковариаций вектора МНК-оценок

ˆ

 

 

 

в силу несме-

α(Yn )

 

щенности оценки а имеет вид

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

ˆ

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

 

T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Σ(α) = M[(α(Yn ) α)(α(Yn ) α) ] .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

Используя представление (6.13), преобразуем выражение для Σ(α)

следующим образом:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

= M[(A(F

T

1

F

T

ε)(A(F

T

1

F

T

 

T

 

 

= M[A(F

T

1

F

T

εε

T

F(F

T

1 T

Σ(α)

 

F)

 

 

F)

 

 

ε) ]

 

F)

 

 

 

F)

A ] =

= A(FT F)1 FTM(εεT )F(FT F)1 AT .

(При переходе к правой части мы воспользовались правилом транспониро-

14

вания произведения матриц (AB)T = BT AT и симметричностью матрицы

(FT F)1 ).

Если теперь учесть, что, согласно исходным предположениям метода наименьших квадратов, M(εT ε) = Inσ2 , то

ˆ

T

1

2

F(F

T

1

T

=

Σ(α) = A(F

 

F)

Inσ

 

F)

A

= σ2A(FT F)1(FT F)(FT F)1AT = σ2A(FT F)1AT ,

что и доказывает представление (6.12).

 

 

 

 

 

Следствие 6.1. Если A = Im , т.е.

α = Aβ = β , то

 

 

Σ(βˆ) = σ2C ,

 

 

 

(6.14)

где C =(FT F)1 – дисперсионная матрица Фишера.

 

 

 

 

 

ˆ

 

среднего значения отклика в

Следствие 6.2. Дисперсия оценки Y(x)

произвольной точке x факторного пространства Xp

определяется по фор-

муле

 

 

 

 

 

 

 

 

ˆ

 

 

2 T

 

 

 

 

 

DY(x) = σ ψ (x)C ψ(x) ,

 

 

где ψT (x) =(ψ (x), ..., ψ

(x)) .

 

 

 

 

 

 

0

m1

 

 

 

 

 

 

Доказательство. Действительно, согласно (6.9) и (6.14), имеем

ˆ

T

ˆ

T

ˆ

ˆ

T

ψ(x)] =

DY(x) = D[ψ

(x)β(Yn )] = M[ψ

(x)(β(Yn ) β)(β(Yn ) β)

= ψT (x)M[(βˆ(Yn ) β)(βˆ(Yn ) β)T ]ψ(x) = ψT (x)Σ(βˆ)ψ(x) = σ2ψT (x)C ψ(x) .

Формулы (6.14) и (6.15) содержат неизвестный параметр σ2 – дисперсию отклика Y . Поэтому требуется правило определения оценки параметра

σ2 . Такое правило устанавливает следующая теорема. Однако прежде чем формулировать теорему, отметим, что случайную величину

εˆT εˆ =(Y Fβˆ(Y ))T (Y Fβˆ(Y )) ,

(6.16)

n

n

 

где εˆ =Y Fβˆ(Y ) – случайный вектор, а

βˆ(Y ) – МНК-оценка вектора па-

n

n

 

раметров β линейной регрессионной модели (6.6), называют остаточной суммой квадратов.

15

Теорема 6.3. Если выполнены исходные предположения метода наименьших квадратов и ранг матрицы базисных функций F типа n ×m равен

m ,

то несмещенная оценка для остаточной дисперсии σ2

определяется по

формуле:

 

 

 

 

 

S2(Y ) =

1

(Y Fβˆ(Y ))T (Y Fβˆ(Y )) ,

(6.17)

 

 

 

n

n m

n

n

 

 

 

 

 

 

где

βˆ(Y ) – МНК-оценка вектора параметров β

линейной регрессионной

 

n

 

 

 

 

модели (6.6).

Из равенства (6.6) и предположений о случайной составляющей модели следует:

 

 

n

 

 

n

 

 

T

T

 

2

 

 

2

 

 

 

= Dεi = nσ

. (6.18)

M[(Y Fβ)

(Y Fβ)] = M(ε

ε) = M εi

 

 

 

 

 

 

 

n=1

 

 

 

 

i=1

 

 

 

 

Рассмотрим равенство:

(Y Fβ)T (Y Fβ) =[Y Fβˆ(Yn ) +F(βˆ(Yn ) β)]T [Y Fβˆ(Yn ) +F(βˆ(Yn ) β)] =

=(Y Fβˆ(Yn ))T (Y Fβˆ(Yn )) +F(βˆ(Yn ) β))T F(βˆ(Yn ) β) +

+(Y Fβˆ(Yn ))T F(βˆ(Yn ) β) +(F(βˆ(Yn ) β))T (Y Fβˆ(Yn )) .

Поскольку βˆ(Yn ) – МНК-оценка вектора параметров β то, согласно (6.7),

βˆ(Yn ) =(FT F)1FTY , и, как следствие, имеем

(F(βˆ(Yn ) β))T (Y Fβˆ(Yn )) =(βˆ(Yn ) β))T FT (Y F(FT F)1FTY ) = =(βˆ(Yn ) β)T (FTY FT F(FT F)1FTY ) = 0

и, кроме того,

(Y Fβˆ(Y ))T F(β βˆ(Y )) =(F(βˆ(Y ) β))T (Y Fβˆ(Y ))T = 0 .

n

n

n

n

Таким образом,

 

 

 

(Y Fβ)T (Y Fβ) F(βˆ(Y ) β))T F(βˆ(Y ) β)) =

 

 

n

n

 

=(Y Fβˆ(Y ))T (Y Fβˆ(Y )) .

(6.19)

 

n

n

 

Воспользовавшись свойствами следа матриц и следствием 6.1, получим:

16

M[F(βˆ(Yn ) β))T F(βˆ(Yn ) β)] = M[(βˆ(Yn ) β)T (FT F)(βˆ(Yn ) β)] =

= M[tr((FT F)(βˆ(Yn ) β)(βˆ(Yn ) β)T ] = tr((FT F)M[(βˆ(Yn ) β)(βˆ(Yn ) β)T ]) = = tr[(FT F) (βˆ(Yn ))] = tr[(FT F)(FT F)1 σ2 ] = σ2 tr Im = mσ2 .

Таким образом, согласно (6.17) – (6.19), имеем

nσ2 mσ2 = M[(Y Fβˆ(Yn ))T (Y Fβˆ(Yn ))] ,

откуда

σ2 = n 1 m M[(Y Fβˆ(Yn ))T (Y Fβˆ(Yn ))] .

Следовательно,

S2 = n 1 m (Y Fβˆ(Yn ))T (Y Fβˆ(Yn ))

является несмещенной оценкой для σ2 .

6.03. Статистический анализ регрессионной модели

Статистический анализ модели регрессии (6.9), построенной на основе параметризации искомой функции регрессии f(x) в виде (6.2) и на основе МНК-оценок параметров, состоит из следующих трех этапов:

проверка адекватности модели регрессии;

проверка значимости модели регрессии и ее параметров;

анализ точности результатов, полученных с использованием регрессионной модели.

Для проведения статистического анализа требуется дополнить исходные предположения метода наименьших квадратов еще одним. Будем счи-

тать, что случайные ошибки εi , i = 1, n , в модели (6.3) не только независи-

мы, но и распределены по нормальному закону: εi N(0, σ2 ) , i = 1, n , т.е.

случайная составляющая ε =(ε1, ..., εn )T линейной регрессионной модели (6.6) имеет n -мерный нормальный закон распределения с нулевым средним значением и ковариационной матрицей σ2In .

Это предположение в силу (6.3) эквивалентно тому, что наблюдения Yi ,

17

i = 1, n , являются независимыми нормально распределенными случайными величинами, т.е.:

Y

N(f (x i ), σ2 ) ,

(6.22)

i

a

 

где

m1

fa (x i ) = βk ψk (x i ) , i = 1, n . k=0

Проверку рассматриваемого предположения проводят на основе статистического анализа случайных величин

ˆ i

) , i =1, n ,

εi =Yi Y(x

значения которых представляют собой отклонения наблюдаемых значений yi отклика Y от его значений, предсказанных моделью регрессии

m1

yˆ(x i ) = βˆiψk (x i ) .

k=0

Таким образом, все сводится к проверке статистической гипотезы о вы-

полнении исходных предположений: случайные величины εi , i =1, n , явля-

ются независимыми и εi N(0, σ2 ) , i =1,n . Критерии проверки указанных гипотез рассмотрены в теме 5.

Следует отметить, что, когда каждая случайная величина εi имеет единственную реализацию (нет повторных наблюдений), мы не можем про-

верить гипотезу о независимости случайных величин εi , i =1, n . Однако,

если у исследователя есть основания считать, что случайные величины εi ,

i =1, n , независимы и одинаково распределены, можно ограничиться про-

веркой гипотезы о том, что εˆi , i = 1, n , – реализация случайной величины εi ,

распределенной по нормальному закону.

Считая, что исходные предположения метода наименьших квадратов выполнены, перейдем к рассмотрению этапов статистического анализа регрессионной модели.

Проверка адекватности построенной модели регрессии. Линейную регрессионную модель называют адекватной, если предсказанные по ней значения отклика Y согласуются с результатами наблюдений.

18

В основе процедуры проверки адекватности модели лежат предположе-

ния, что случайные ошибки наблюдений εi , i = 1, n , являются независимыми, нормально распределенными случайными величинами с нулевыми средними значениями и одинаковыми дисперсиями σ2 .

Пусть для каждого или некоторых значений переменного x =(x1, ..., xp )

имеется несколько ( ri , i =1, n ) повторных наблюдений отклика Y (т.е. ис-

ходные данные представлены матрицей D – см. п. 6.1). Тогда для проверки адекватности модели можно использовать следующую процедуру.

Итак, повторные наблюдения получены при различных значениях

x 1, ..., x n

переменного x , причем в точке x = x i произведено r

наблюдений

 

 

 

 

 

i

 

n

 

 

 

 

yi1, ..., yir

отклика Y , а ri = N – объем выборки. Введем обозначение:

 

i=1

 

 

 

 

 

 

 

1

r

 

 

 

 

yi =

i

yij .

 

 

 

r

 

 

 

 

j=1

 

 

 

 

 

i

 

 

Если линейная регрессионная модель адекватна, то значения yi долж-

ны быть близки к значениям yˆi = yˆ(x i ) , i =1, n . Следовательно, сумму квадратов

n

Qn = ri (yi yˆ(x i ))2

i=1

можно рассматривать как меру неадекватности рассматриваемой модели. Можно показать, что статистики

n

 

 

ˆ

 

i 2

 

 

 

 

 

 

 

 

 

 

 

 

Qn (YN ) = ri (Yi Y

(x )) ,

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

n

ri

 

 

 

 

 

 

Qp (YN ) = ∑∑(Yij Y

(x i ))2

 

 

 

 

i=1 i=1

 

 

 

 

 

 

являются независимыми случайными величинами. Статистика

Qp (YN )

имеет

 

σ2

 

 

 

 

 

 

 

 

 

n

распределение χ2 с числом степеней свободы (ri 1) , а отношение

i=1

19

Q (Y )

Sy2(YN ) = n p N

(ri 1)

i=1

является несмещенной оценкой остаточной дисперсии. Эта статистика не связана с ошибкой в выборе модели. Статистика Qnσ(Y2 N ) имеет распределе-

ние χ2 c числом степеней свободы n m , если гипотеза H0 : MY = Fβ верна (здесь m – число неизвестных параметров в модели (6.2)). При этом

S2 =

Qn (YN )

 

– несмещенная оценка σ2 .

 

 

 

адекв.

n m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Следовательно, следующая статистика имеет распределение Фишера

 

 

 

 

 

 

 

 

 

 

n

 

со степенями свободы rn

= n m и rp

= (ri 1) :

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

2

 

 

Qn (YN )

 

 

(ri 1)

n

 

F =

Sадекв.(YN )

 

=

 

 

i=1

 

F(n m,

(ri 1)) .

 

2

n m

 

 

 

 

 

Sy (YN )

 

 

Qp (YN )

i=1

Поэтому проверка гипотезы H0 осуществляется стандартным образом по критерию Фишера.

Если выборочное значение Fíàáë. cтатистики F не превышает критического Fêðèò. , т.е.

Fíàáë. Fêðèò. = f1α, rn , rp ,

то гипотезу H0 принимают (точнее, не отклоняют) на уровне значимости α,

т.е. модель признается адекватной.

В противном случае модель признается неадекватной и нужно пытаться построить более сложную модель, увеличив, например, число базисных функций или выбрав другие базисные функции.

Проверка значимости параметров модели регрессии. Напомним, что регрессионную модель мы выбрали в виде (6.3), т.е. неизвестную функцию регрессии f (x) ищем в виде

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]