Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
СМОД – Статистические методы обработки данных / СМОД_Часть2 Муха ВС, БГУИР 2007 (Мет пособие).pdf
Скачиваний:
95
Добавлен:
15.06.2014
Размер:
797 Кб
Скачать

 

 

 

 

 

u = a) − a n N( 0,1) ,

 

 

 

 

 

 

 

1

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u2 = b b sx n N( 0,1),

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

)2

 

 

)2

 

 

 

 

 

 

 

v =

nσ

=

( n 2 )σ

1

H1( n

2 ) .

 

 

 

σ 2

 

σ 2

 

 

 

 

 

 

 

 

 

 

 

 

)2

независимы. Отсюда можно сделать вывод, что

Оценки a , b , σ

 

 

 

t

a

= a) a

n 2 T ( n 2 ),

 

 

 

 

 

 

)

 

 

 

1

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

t

b

= b b s

x

n 2 = b b s

x

n T ( n 2 ).

 

 

)

 

 

 

 

)

 

 

 

1

 

 

 

σ

 

 

 

 

 

σ1

 

 

 

 

Статистики ta , tb , v применяются для построения доверительных интервалов для параметров a , b , σ 2 соответственно и для проверки гипотез относительно этих параметров, например гипотезы { H 0 : a = a0 ; H1 : a a0 } .

10.2 Регрессионный анализ для многих переменных (множественная нелинейная регрессия)

10.2.1 Постановка задачи

Рассмотрим некоторый исследуемый объект в виде черного ящика с векторным входом и скалярным выходом. Будем считать, что выходная переменная объекта η зависит от входной векторной переменной X =( x1 , x2 ,..., xq ) таким

образом, что условная плотность вероятности величины η нормальная,

f (η / X ) = N(ϕ( X ),σ 2 ) ,

где

y =ϕ( X )

54

– условное математическое ожидание (функция регрессии η на X ), σ 2 – ус-

ловная дисперсия. Эту зависимость можно представить в виде

η =ϕ( X ) +ξ ,

где случайная величина ξ имеет нормальное распределение с нулевым матема-

тическим ожиданием и дисперсией σ 2 : ξ N( 0,σ 2 ).

Пусть для некоторых значений X1,..., X n входной векторной переменной X

получены значения yo,1 ,..., yo,n выходной случайной переменной η,

yo,i =ϕ( X i ) + zi , i =1,n ,

где zi – значения

случайной величины ξ . Требуется по наблюдениям

( X1 , yo1 ),...,( X n , yon )

построить математическую модель объекта,

то есть по-

 

)2

условной

лучить эмпирическую функцию регрессии y =ϕ( X ) и оценку σ

 

дисперсии σ 2 . Понятно, что построенная модель будет отличаться от действительной, однако это отличие должно быть несущественным (незначимым).

Обычно для аппроксимации (подбора) функции регрессии используют класс функций, линейных по параметрам, то есть представимых в виде

 

 

m

 

 

 

y =ϕ( X ,θ

) = θ j h j ( X ),

(10.1)

 

 

j=1

 

 

 

где h j ( X ) – некоторые функции вектора X , а θ j ,

j =

 

, – неизвестные па-

1,m

раметры, θ = (θ1,...,θm ) – вектор неизвестных параметров функции регрессии

ϕ( X ,θ ) . Функция (10.1) называется гипотетической функцией регрессии.

(Функцию регрессии, полученную по результатам экспериментов, называют

эмпирической).

Гипотетическую функцию регрессии (10.1) можно записать в векторно-

матричной форме

 

y =ϕ( X ,θ ) = H T θ =θ T H ,

(10.2)

55

где H T =( h j ( X ) ), j =1,m , – вектор-строка функций от X , θ T =(θ j ), j =1, m , – вектор-строка параметров, m – число неизвестных параметров. От-

метим, что функция, линейная по параметрам, может быть как линейной, так и нелинейной по своим аргументам X =( x1 , x2 ,..., xq ). Например, желая получить линейную по входной скалярной переменной x функцию регрессии, мы должны выбрать

H T =(1, x ) , θ T =(α,β ) .

Тогда

y=ϕ( x,α,β ) =(1, x ) α =α + βx .

β

Желая получить функцию регрессии скалярной переменной x в виде полинома второй степени y =α + βx1 + γx2 +τ x12 , необходимо выбрать

H T =(1, x1 , x2 , x12 ) , θ T =(α,β,γ ,τ ) .

Из приведенных примеров легко заметить, что в любой линейной по параметрам модели, содержащей свободный член θ1, функция h1 ( X ) должна быть рав-

ной единице.

Часто выбирают модель, линейную как по параметрам, так и по входным переменным. В этом случае

H T = H T ( X ) = X T =( x

, x

2

,..., x

m

) ,

 

 

1

 

 

 

 

 

и функция регрессии имеет вид:

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

 

 

 

 

 

) = θ j x j =X T θ

 

 

T X .

y =ϕ( X ,θ

=θ

j=1

Если такая модель должна содержать свободный член, то необходимо выбрать x1 =1.

56

10.2.2Оценки параметров функции регрессии

Всоответствии с гипотетической моделью (10.1) (или (10.2)) мы имеем следующий набор данных

 

 

 

 

 

 

yo,i

= H iT θ

+ zi ,

i =

 

,

 

 

 

(10.3)

 

H T

 

 

 

 

1,n

где

=( h

) =( h

 

( X

 

)),

 

 

,

z

 

– независимые случайные величины с

j

i

i =1,n

i

 

i

i, j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

нормальным распределением

N (0,σ 2 ) . В этих условиях случайные величины

yoi

распределены по нормальному закону N( H iT θ

,σ 2 ) = N( yi ,σ 2 ),

то есть

имеют плотность вероятности вида

 

 

 

 

 

 

 

 

 

 

 

f ( yo,i ,θ ,σ 2 ) =

 

1

 

 

 

1

 

 

 

 

 

 

(10.4)

 

 

 

 

 

 

 

 

 

 

 

2πσ 2

exp

2σ 2

( yo,i H iT θ )2 , i =1,n .

 

 

 

 

 

 

 

 

 

 

 

 

 

Для нахождения оценок воспользуемся методом максимума правдоподобия. Функция правдоподобия для выборки (10.3) при распределении (10.4) имеет вид:

L(θ ,σ 2

n

 

n

1

 

 

 

1

( yo,i H iT θ )2

 

=

) = f ( yo,i ,θ ,σ 2

) =

2πσ 2

exp

2σ 2

 

 

i=1

 

i=1

 

 

 

 

 

 

 

 

=

1

 

1

n

( y

 

H T θ )2

 

 

 

 

exp

 

,

 

 

 

 

( 2π )n σ 2n

 

2σ 2

o,i

 

i

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

а логарифмическая функция правдоподобия – вид:

 

 

 

 

 

 

ln L(θ ,σ 2 ) = −ln ( 2π )n n lnσ 2

1

 

n

 

H iT θ )2 .

 

 

 

( yo,i

 

 

 

 

 

 

 

 

2σ 2

i=1

 

 

 

 

Необходимые условия максимума функции ln L(θ ,σ 2 ) состоят в следующем:

θ ln L(θ ,σ 2 ) = 0 ,

σ2 ln L(θ ,σ 2 ) = 0 .

57

Перепишем выражение для ln L(θ ,σ 2 ), отбросив слагаемое, не зависящее от

параметров:

 

 

 

 

 

 

 

 

1

n

 

 

 

 

 

 

 

,σ 2 ) ~ n lnσ 2

 

( yo,i H iT θ

)T ( yo,i H iT θ

) =

 

 

ln L(θ

2σ 2

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

1

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= −n lnσ 2

 

 

( yo2,i 2 yo,i H iT θ

 

 

T H i H iT θ

) .

 

 

 

 

+θ

2σ 2

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

,σ 2 )

 

 

и σ 2

Дифференцирование скалярной функции ln L(θ

по параметрам θ

дает нам следующие уравнения

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( H i yo,i H i H iT θ

) = 0 ,

(10.5)

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

nσ 2

( yo,i H iT θ

)2 = 0 ,

(10.6)

i=1

которые называются нормальными уравнениями. Первое из этих уравнений можно переписать в виде

n

n

( H i H iT )θ

= H i yo,i .

i=1

i=1

Будем считать векторы H1 ,..., H n линейно независимыми, что обеспечивает не-

n

вырожденность матрицы H i H iT и существование обратной матрицы

i=1

n

( H i H iT )1. Умножим обе части последнего уравнения слева на матрицу

i=1

n

(Hi HiT )1 , в результате чего получим следующую оценку вектора-столбца

i=1

параметров θ :

)

n

n

 

θ

=( H i H iT )1

( H i yo,i ).

(10.7)

 

i=1

i=1

 

С учетом этой оценки из второго нормального уравнения (10.6) получаем оцен-

ку дисперсии σ 2 :

58

)

 

1

n

)

 

σ

2 =

 

( yo,i H iT θ )2 .

(10.8)

 

 

 

n i=1

 

 

 

Оценка ординаты y = H T θ

гипотетической функции регрессии в любой точке

X , очевидно, будет определяться формулой

 

 

 

 

y) = H T θ

,

(10.9)

где H T = H T ( X ) , а оценка ординаты yi = HiT θ гипотетической функции рег-

рессии в точке наблюдения X i – формулой

y)i = H iT θ ,

где H iT = H T ( X i ) . Выражение (10.9) представляет собой построенную эмпи-

рическую функцию регрессии.

Чаще полученные оценки записывают в другой форме. Рассматривают весь набор данных эксперимента

yo,1 = H1T θ + z1 = h1( X1 )θ1 + h2 ( X1 )θ2 + ... + hm ( X1 )θm + z1 ,

 

y

o,2

= H T θ

+ z

2

= h ( X

2

)θ

1

+ h

2

( X

2

)θ

2

+ ... + h

m

( X

2

)θ

m

+ z

2

,

 

 

2

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

……………………………………………………………..

 

 

 

y

o,n

= H T θ

+ z

n

= h ( X

n

)θ

1

+ h

2

( X

n

)θ

2

+ ... + h

m

( X

n

)θ

m

+ z

n

.

 

 

n

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Этот набор данных можно записать в виде

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Yo

 

 

 

 

+ Z ,

 

 

 

 

 

 

 

 

 

 

 

(10.10)

 

 

 

 

 

 

 

 

 

 

= Fθ

 

 

 

 

 

 

 

 

 

 

 

где Z T

 

 

,

 

вектор ошибок измерений, который распределен по

=( zi ), i =1,n

 

нормальному закону,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Z N( 0,σ 2 I ) ,

 

 

 

 

 

 

 

 

 

I – единичная матрица, Y T =( y

 

 

 

), i =

 

, – вектор наблюдений выходной ве-

oi

1,n

 

 

 

 

 

 

 

 

 

 

o

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

личины

 

объекта,

 

 

T

=(θ j ),

 

 

 

j =

 

, –

 

вектор

параметров

 

объекта,

 

 

 

 

 

 

 

 

1,m

 

 

 

 

θ

 

 

 

 

 

F =( fij ) =( h j ( X i

)) ,

 

i =

 

 

 

 

( n ×m ) -матрица, которая называется

 

1,n, j =1,m , –

59