Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
лабораторные работы.pdf
Скачиваний:
27
Добавлен:
11.02.2015
Размер:
1.32 Mб
Скачать

ЛАБОРАТОРНАЯ РАБОТА № 10. РЕГРЕССИОННЫЙ АНАЛИЗ

10.1.Цель работы

10.1.1.Изучение методов решения задач регрессионного анализа.

10.1.2.Приобретение навыков решения задач регрессионного анализа с помощью системы Matlab.

10.2.Теоретические положения

10.2.1. Постановка задачи

В регрессионном анализе изучается взаимосвязь между случайными и неслучайными величинами на основе экспериментальных данных. Ограничения, накладываемые на изучаемые величины, менее обременительны по сравнению с корреляционным анализом. В связи с этим считается, что задачи регрессионного анализа чаще встречаются на практике.

Рассмотрим сразу случай многих переменных (множественную нелинейную регрессию) в матричной форме, поскольку он включает и простую линейную и нелинейную регрессии.

Считается, что случайная величина η зависит от векторной неслучайной переменной X = (x1 ,..., xq ) таким образом, что условная плотность вероятности величины η нормальная следующего вида:

f (η / x) = N (ϕ(x,θ ),σ 2 ) ,

где θ = (θ1,...,θm ) – вектор неизвестных параметров функции регрессии y =ϕ(x,θ ) .

Эквивалентной является следующая модель данных:

η =ϕ( X ,θ ) +ξ ,

где ξ N (0,σ 2 ) .

Выбирая некоторые значения X1,..., X n векторной переменной X , можно получить значения yo,1 ,..., yo,n случайной величины η в виде

yoi =ϕ(xi ,θ ) + zi , i =1, n ,

где zi – независимые случайные величины (значения величины ξ ).

Требуется по наблюдениям (X1 , yo,1 ),..., (X n , yo,n ) получить оценки θ , σ) 2

неизвестных параметров θ ,σ 2 и сделать статистические выводы относительно этих параметров.

10.2.2. Точечные оценки параметров

Решим задачу в матричных обозначениях. Функция регрессии y =ϕ(x,θ ) ,

как линейная, так и нелинейная относительно X , может быть представлена следующим образом:

 

 

) = H Tθ

,

 

 

 

 

 

y =ϕ( X ,θ

 

 

 

 

 

где

 

 

 

 

 

 

 

 

H T = H T ( X ) = (h ( X ),...,h

 

( X )) = (h

 

( X )),

j =

 

 

m

j

1,m

.

1

 

 

 

 

 

 

Здесь h j (X ) – некоторые функции вектора X ,

θ T = (θ1 ,...,θm ) = (θ j ), j =1, m ,

где θ T – вектор-столбец параметров.

Класс функций, описываемых таким образом, называется классом функций, линейных по параметрам. Желая получить линейную функцию регрессии одной переменной, мы можем выбрать

H T = (1, x), θ T = (α, β) .

Тогда

y=ϕ(x,α, β) = (1, x) α =α + βx .

β

Желая получить нелинейную функцию регрессии в виде y =α + βx

+ γx

2

+τx 2

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

1

 

достаточно выбрать H T

= (1, x , x

2

, x

2 ), θ

T

= (α, β,γ,τ) .

 

 

 

 

 

 

 

 

1

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом, мы рассматриваем зависимости вида

 

 

 

 

 

 

 

 

yoi = H iT θ

+ zi , i =

 

,

 

 

 

 

 

 

 

 

где

 

 

 

1, n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H T

= (h (X

 

),..., h

 

(X

 

)) = (h

 

(X

 

)), j =

 

, i =

 

,

 

 

 

 

i

m

i

j

i

1, m

1, n

 

 

 

 

i

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и считаем, что векторы H1,..., H n линейно независимы.

Воспользовавшись методом максимума правдоподобия, можно получить следующие оценки:

 

)

 

n

n

T =

(H j H Tj )1

(H i yo,i ) ,

θ

 

 

 

j=1

i=1

 

 

σ) 2 = 1 ( yo,i HiTθ))2 .

 

 

 

n

 

 

 

n i=1

Обычно эти оценки записывают в другой форме. Если рассмотреть весь набор данных эксперимента, то рассматриваемую модель можно записать в виде

Yo = Fθ + Z ,

где

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y T

= ( y

 

) , F = ( f

 

) = (h

 

(X

 

 

 

 

T = (θ

 

) , Z T

= (z

 

) , i =

 

, j =

 

.

o,i

i, j

j

i

)) , θ

j

i

1, n

1, m

o

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В этом случае оценки запишутся следующим образом:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= (F T F )1(F T Y ) ,

 

 

(10.1)

 

 

 

 

 

θ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

o

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ) 2 =

 

1

(Y

 

)

)T (Y

 

 

)

 

 

 

 

 

 

 

 

 

 

Fθ

 

Fθ

) .

 

 

(10.2)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

o

 

 

 

 

o

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

10.2.3. Свойства оценок

Оценка θ – несмещенная, состоятельная, эффективная. Оценка σ) 2 – асимптотически несмещенная, состоятельная, асимптотически эффективная. Исправленная оценка

σ)2

=

n

σ)2 =

 

 

1

 

 

)

)T (Y Fθ)

) ,

 

 

 

 

 

(Y Fθ

 

 

 

 

 

 

 

 

 

 

 

 

1

 

n m

 

 

 

 

 

n m

o

 

 

o

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где m – количество оцениваемых параметров,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

)2

 

является несмещенной, состоятельной и эффективной. Оценки θ

незави-

и σ

симы.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рассмотрим распределения оценок. Доказано, что

 

 

 

 

 

 

 

 

 

 

,σ 2 (F T F )1 ) ,

 

(10.3)

 

 

θ

N m (θ

 

 

 

 

 

n

σ) 2

 

 

(n m)σ 2

 

 

 

 

 

 

 

 

 

v =

 

 

 

=

 

 

 

ˆ1

 

H nm .

 

 

 

 

 

 

σ 2

 

 

 

σ 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Матрица

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ 2 (F T F )1

 

 

 

 

 

 

(10.4)

является ковариационной матрицей оценки. Введем обозначения:

A = F T F = (ai, j ) , A1 = (F T F )1 = (ai, j ), i, j =1, m .

Используя эти обозначения и распределение вектора θ , можно записать, что

ui = θi θi

N (0,1), i =1, m ,

 

σ 2 ai,i

 

ti = θi θi

n m = θi θi Tnm , i =1, m .

nσ) 2 ai,i

 

σ)12 ai,i

Имея оценку θ , мы можем получить оценку ординаты функции регрессии y

для любой точки X в виде

y) = H Tθ .

Можно показать, что

y) = H T θ N (H Tθ ,σ 2 H T A1H )

) 2

. Тогда статистика

 

 

 

 

 

 

 

 

и не зависит от σ

 

 

 

 

 

 

 

 

 

t

y

=

( y) y) n m

=

 

( y) y)

T

.

 

 

 

H

T

A

1

) 2

 

H

T

A

1

) 2

nm

 

 

 

 

 

 

 

Hnσ

 

 

 

Hσ1

 

 

10.2.4. Доверительные интервалы для параметров и функции регрессии

На основе статистики ti получаем доверительный интервал для параметра

θi , i =1, m :

θ)i t1γ

σ)12 ai,i <θi <θ)i + t1γ σ)12 ai,i .

2

2

На основе статистики t y получаем доверительный интервал для истинного зна-

чения функции регрессии y = H Tθ :

)

 

 

 

) 2

T

A

1

H < y

)

 

) 2

T

A

1

H .

y t1γ

σ1 H

 

 

 

 

< y +t1γ

σ1 H

 

 

 

 

2

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

В этих выражениях t

1−γ

100

1− γ

-процентное отклонение распределения T

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

nm

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(Стьюдента с n m степенями свободы).

 

 

 

 

 

 

 

На основе статистики v получаем доверительный интервал для дисперсии

σ 2 :

 

 

 

 

 

 

 

 

) 2

 

)

2

 

 

 

 

 

 

 

 

 

 

(n m)σ

1

<σ 2 <

(n m)σ

1

,

 

 

 

 

 

 

 

 

 

v1γ

 

v1+γ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

2

 

 

 

где v1γ ,

v1+γ

– 100

1γ

 

- и 100

1+γ

-процентные отклонения распределения

2

 

2

 

2

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H nm (хи-квадрат с n m степенями свободы).

 

 

Статистики

ti , v

можно использовать для проверки гипотез о параметрах