Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
СМОД – Статистические методы обработки данных / СМОД_Часть2 Муха ВС, БГУИР 2007 (Мет пособие).pdf
Скачиваний:
95
Добавлен:
15.06.2014
Размер:
797 Кб
Скачать

выбранной модели с тем, чтобы попытаться построить новую модель. Если все попытки завершаются принятием гипотезы H0 , то остается сделать вывод, что зависимость между y и h1( X ),...,hm ( X ) действительно отсутствует, как ли-

нейная, так и нелинейная.

10.2.8 Проверка адекватности регрессионной модели

Важным вопросом после получения оценок параметров функции регрессии является проверка пригодности полученной модели. Такая проверка получила название проверки адекватности модели. Проверка адекватности модели – это проверка того, что модель постулирована априори верно, что выбранная модель соответствует действительности. Эта задача формулируется как задача проверки вполне определенной двухальтернативной гипотезы {H 0 ,H1} [8]. Чтобы сформулировать эту гипотезу, обратимся к следующим рассуждениям. Как указывалось выше, величина

 

1

n

 

σ)12 =

( yoi y)i )2

(10.27)

 

 

n m i=1

 

является несмещенной оценкой дисперсии σ 2 гипотетической модели, а величина

 

 

 

 

)2

 

 

 

 

v =

( n m )σ1

 

 

 

 

σ 2

 

 

 

 

 

 

имеет распределение хи-квадрат с n m степенями свободы.

 

Выполнив k

дополнительных опыта в некоторой точке X с результатами

y1 , y2 ,..., yk ,

 

 

 

)2

дисперсии

можно получить другую независимую оценку σд

модели:

 

 

 

 

 

 

 

σ)2 =

1

k

 

 

( yi y)2 ,

(10.28)

 

 

 

 

k 1 i=1

 

74

где

yд = 1 k yi . k i=1

Наблюдения y1 , y2 ,..., yk не должны использоваться при получении оценок

θ , σ)12 . Оценка σ)д2 является несмещенной оценкой дисперсии σ м2 любой, а

значит и действительной, модели с однородной дисперсией, а величина

w = ( k 1)σ)д2

σ м2

имеет распределение хи-квадрат с k 1 степенями свободы. Проверка адекватности модели состоит в проверке гипотезы о равенстве гипотетической и действительной дисперсий:

{ H 0 :σ 2 =σ м2 ; H1 :σ 2 >σ м2 }.

Критерий для проверки этой гипотезы основывается на сравнении оценок этих дисперсий (10.27), (10.28). Рассматривается отношение

 

v

 

w

 

)2

2

F =

 

=

σ1

σ м ,

 

 

 

 

 

 

 

n m k 1

 

σ 2σ2

которое при истинности проверяемой гипотезы H 0 :σ м2 =σ 2 принимает вид

 

 

 

σ)2

 

 

 

 

F =

 

1

 

 

 

 

(10.29)

 

σ)2

 

 

 

 

 

 

 

 

 

 

 

 

д

 

 

 

и имеет F -распределение Фишера с n m,k 1 степенями свободы. Критерий проверки гипотезы имеет вид

P( F > Fα ) =α .

Гипотеза проверяется следующим образом. После оценивания регрессионных коэффициентов вычисляют σ)12 по формуле (10.27). Проводят k дополнитель-

ных опытов и по формуле (10.28) получают независимую оценку σ)д2 дисперсии

σ м2 случайной ошибки. Вычисляют эмпирическое значение Fэ дисперсионного

75

отношения F по формуле (10.29). Выбирают уровень значимости α , например, α = 0,05 , и по таблицам процентных отклонений F -распределения Фишера с

n m,k 1

степенями свободы находят предел значимости Fα . Сравнивают ве-

личины Fэ

и Fα и делают один из следующих выводов. Если Fэ Fα , то гипо-

теза

H 0 :σ 2

=σ м2 принимается и модель

считается

адекватной,

поскольку

оценка σ)2

 

оказалась соизмеримой с оценкой σ)2 . Если F > F ,

то гипотеза

 

1

 

 

д

э

α

 

H 0 : σ 2 =σ м2

отклоняется и модель считается неадекватной, поскольку оценка

)2

 

 

)2

 

)2

сыграла свою

σ1

оказалась значимо больше оценки σд

. В увеличении σ1

роль неадекватность модели. При констатации неадекватности модели надо изменить ее структуру и заново обработать данные. Например, если полином первой степени оказался неадекватным, надо перейти к полиному второй степени.

10.2.9 Случай простой линейной регрессии

Представляется полезным рассмотреть случай простой линейной регрессии как частный случай множественной регрессии. Это позволит полнее усвоить технику векторно-матричных обозначений и преобразований множественного регрессионного анализа.

В случае простой линейной регрессии ϕ( x ) = a +bx модель наблюдения описывается в виде

yi = Η iΤ θ + εi , i =1,n ,

где

Η iΤ =(1, xi ), θΤ =( a,b ).

Напомним, что оценка вектора параметров имеет вид (см. (10.7))

)

n

Η i Η iT )1

n

θ =(

( Η i yi )

 

i=1

 

i=1

76

или

θ =( F T F )1 F T Y ,

где в случае простой линейной регрессии

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

n

 

 

 

 

 

 

 

T

 

 

 

 

 

 

 

 

n

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n 1 x

i

 

 

 

 

 

 

 

 

xi

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

F

F = A = [1

xi ]=

 

 

 

 

=

 

n

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

xi

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

xi

 

xi

xi

 

 

 

xi2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

1

xi

 

 

 

1

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= n

 

2

 

 

 

 

 

2

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

xi

 

 

 

 

xi2

 

 

 

x sx

 

+ x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sx2 =

1

( xi

 

x )2 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

A

 

= n2 ( sx2 + x 2 x 2 ) = n2 sx2 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sx2 + x 2

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

2

+ x

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1,1

 

 

a

1,2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

A1 =

 

 

 

sx

 

 

 

 

x

=

 

 

 

 

 

nsx

 

 

 

 

 

 

nsx

 

 

 

=

 

a

 

 

 

 

 

 

,

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2,1

 

 

2,2

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

1

 

 

 

 

 

 

 

 

a

a

 

 

 

 

 

 

nsx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

nsx2

 

 

nsx2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

F

T

Y =

n

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yi

 

yi

 

 

 

 

 

 

 

 

y

 

 

 

,

Η i yi =

 

 

yi =

 

 

 

 

 

=

 

 

 

 

 

 

 

= n

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

i=1

xi

 

 

 

 

 

 

 

 

 

 

 

 

 

yi xi

yi xi

 

 

 

 

 

sxy + x y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sxy =

1

( xi x )( yi yi ).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Оценка в векторной форме имеет вид

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sx2 + x 2

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sxy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

 

 

 

 

 

( sxy + x y )

 

 

 

y

 

 

 

 

 

x

 

 

 

 

 

 

ˆ

 

 

 

 

 

sx2

 

 

 

 

sx2

 

 

 

 

sx2

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

,

 

 

 

 

 

θ =

 

ˆ

 

 

 

 

 

 

x

2

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sxy

 

 

 

 

 

 

 

 

 

b

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

+

 

 

 

 

 

 

( s

xy

+ x y )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

s

 

2

 

 

s 2

 

 

 

 

 

 

 

s

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

откуда получаем оценки отдельных параметров простой линейной регрессии

77

)

 

sx2 y + x 2 y xsxy x 2 y

 

 

 

 

sxy

 

a

=

 

 

 

 

= y

 

x ,

 

 

sx2

 

sx2

 

 

)

 

x y + sxy + x y

 

 

sxy

 

 

 

 

 

b

=

 

=

 

 

.

 

 

 

 

sx2

sx2

 

 

 

 

 

 

 

 

 

 

 

 

 

Мы получили те же оценки, что и в разделе 10.1 путем привлечения метода наименьших квадратов и еще раньше в разделе 9.1 путем привлечения выборочного метода. Следовательно, выборочный метод, метод наименьших квадратов и метод максимума правдоподобия в данном случае оказываются эквивалентными.

Продолжим анализ случая простой линейной регрессии исходя из результа-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

=

ˆ

 

ˆ

 

 

тов для множественной регрессии, учитывая, что теперь θ1

, θ2

 

= b . Найдем

оценки дисперсии исходя из общих формул (см. (10.8))

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ)12 =

 

 

 

1

 

 

n

 

 

 

 

 

Η iT

)

2 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( yi

θ )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n 2 i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ)2 =

1

( yi Η iT θ) )2 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Учитывая выражения для Η iT

 

 

 

 

 

 

 

 

, будем иметь

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и θ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Η iT θ) = y

sxy

 

 

 

x +

sxy

xi

= y +

sxy

( xi x ),

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sx2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sx2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sx2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

n

 

 

 

 

 

 

 

 

 

 

 

)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σˆ 2

=

 

 

 

 

 

 

( yi Η iT θ )2 =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

n

 

 

 

 

 

sxy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

1 n

 

 

&

2

 

 

 

& &

sxy

 

 

 

 

 

sxy2

 

&2

 

 

=

 

( yi

y )

 

 

( xi

 

x )

=

 

 

 

 

 

 

 

 

 

 

 

 

 

+

 

 

 

 

 

=

 

 

s 2

 

 

 

 

yi

2xi yi

s 2

 

 

( s 2 )2

xi

 

n i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

x

 

 

 

 

 

 

 

 

=

1

 

 

n &2

2

 

 

 

n

& &

 

 

sxy

+

1

n

&2

 

 

sxy2

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yi

 

 

 

 

xi yi

sx2

 

 

xi

( sx2

)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n i=1

 

 

 

 

n i=1

 

 

 

 

 

 

 

n i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= s 2

2s

 

 

 

sxy

 

+ s 2

 

 

 

 

 

 

sxy2

 

= s 2

 

sxy2

= s 2 (1

r

 

2

) =σˆ 2

,

 

 

 

 

 

 

xy sx2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

 

 

 

x ( sx2 )2

 

 

 

 

 

y

 

 

 

sx2

 

 

 

 

 

y

 

 

 

xy

 

 

 

 

 

 

 

78

где

x&i = xi x , y&i = yi y ,

 

 

sxy

 

r =

.

 

xy

sx s y

 

 

 

 

Мы получили то же выражение для оценки σ)2 , что и в разделе 10.1. Эта оценка является смещенной. Несмещенной будет оценка σ)12 :

σ)12 = n n 2 σ)2 = n n 2 s y2 (1 rxy2 ).

Далее, учитывая, что

 

s 2

+ x 2

a1,1 =

xy

 

 

,

nsx2

 

 

 

 

a 2,2 =

 

1

,

 

nsx2

 

 

 

 

 

Получим выражения для t -статистик коэффициентов a и b из общей формулы

ti = θσi)2 aθii,i .

1

Будем иметь

 

 

 

 

a

 

 

 

 

 

 

 

 

ˆ

a )sx

n

2

 

t1 = ta =

 

 

 

=

 

 

( a

 

 

=

 

 

 

 

 

 

 

 

 

 

s 2 (1

r 2 )( s 2

+ x 2 )

 

n

 

 

 

 

 

 

 

 

 

s 2 + x 2

 

 

 

 

s 2

(1

 

r

2

)

x

 

 

 

y

 

xy

x

 

 

 

 

 

 

nsx2

 

 

 

 

 

 

 

n 2

y

 

 

 

 

xy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

( aˆ a )sx n 2

Tn2 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

σˆ

x 2 + sx2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t2 = tb =

 

 

 

 

 

 

 

b b

=

( b b )sx

n =

 

 

 

n

 

 

 

s y2

 

 

 

xy2 )

1

 

σˆ

1

 

 

 

 

 

 

 

 

(1

r

 

 

 

 

 

 

 

 

 

 

n

2

 

nsx2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

79

=

( b b )s

x n =

( b b )s

x

n 2 Tn2 .

)

)

 

σ1

 

σ

 

 

Выражение для статистики tb такое же, как и в разделе 10.1.

80

 

ОГЛАВЛЕНИЕ

 

6 ТЕОРИЯ СТАТИСТИЧЕСКИХ РЕШЕНИЙ.........................................................

2

6.1

Постановка задачи оптимальных статистических решений..........................

2

6.2

Статистические решения без наблюдений. Случай непрерывных

 

состояний и решений...............................................................................................

3

6.3

Статистические решения с наблюдениями. Случай непрерывных

 

состояний и решений...............................................................................................

6

6.4

Статистические решения с наблюдениями. Случай дискретных состояний,

дискретных решений и непрерывных наблюдений..............................................

9

6.4.1 Постановка задачи........................................................................................

9

6.4.2 Вероятностный смысл среднего риска в случае (0,1)-матрицы потерь 11

6.4.3 Общее решение задачи ..............................................................................

12

6.4.4 Решение в случае двух состояний............................................................

14

6.4.5 Решение в случае (0,1)-матрицы потерь..................................................

16

6.4.6 Проверка простой двухальтернативной гипотезы о математическом

 

ожидании нормальной генеральной совокупности .........................................

17

6.4.7 Статическое распознавание многомерных гауссовских образов..........

19

7 ОДНОФАКТОРНЫЙ ДИСПЕРСИОННЫЙ АНАЛИЗ......................................

22

7.1

Постановка задачи............................................................................................

22

7.2

Оценки параметров..........................................................................................

23

7.3

Статистика для проверки гипотезы................................................................

25

8 СТАТИСТИКА СЛУЧАЙНЫХ ПРОЦЕССОВ...................................................

28

8.1

Некоторые определения теории случайных процессов...............................

28

8.2

Оценивание математического ожидания стационарной случайной

 

последовательности ...............................................................................................

32

8.3

Оценивание ковариационной функции стационарной случайной

 

последовательности ...............................................................................................

33

8.3.1 Случай известного математического ожидания......................................

33

81

8.3.2 Случай неизвестного математического ожидания..................................

35

8.4 Оценивание спектральной плотности стационарной случайной

 

последовательности ...............................................................................................

36

8.4.1 Случай известного математического ожидания......................................

37

8.4.2 Случай неизвестного математического ожидания..................................

40

8.5 Оценки спектральной плотности, основанные на оценках ковариаций.....

41

8.5.1 Случай известного математического ожидания......................................

41

8.5.2 Случай неизвестного математического ожидания..................................

42

8.5.3 Примеры оценок спектральной плотности..............................................

43

9 КОРРЕЛЯЦИОННЫЙ АНАЛИЗ ДЛЯ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН.....

46

9.1 Оценки параметров функции регрессии........................................................

47

9.2 Распределения оценок параметров функции регрессии ..............................

48

9.3 Проверка гипотез и построение доверительных интервалов для параметров

функции регрессии.................................................................................................

49

10 РЕГРЕССИОННЫЙ АНАЛИЗ............................................................................

50

10.1 Линейный регрессионный анализ для двух переменных (простая

 

линейная регрессия) ...............................................................................................

50

10.2 Регрессионный анализ для многих переменных (множественная

 

нелинейная регрессия) ...........................................................................................

54

10.2.1 Постановка задачи....................................................................................

54

10.2.2 Оценки параметров функции регрессии................................................

57

10.2.3 Рекуррентная форма оценок параметров функции регрессии.............

60

10.2.4 Свойства оценок параметров функции регрессии................................

62

10.2.5 Распределения оценок параметров функции регрессии.......................

65

10.2.6 Построение доверительных интервалов и проверка гипотез об

 

отдельных параметрах функции регрессии......................................................

67

10.2.7 Проверка гипотезы о линейности функции регрессии.........................

68

10.2.8 Проверка адекватности регрессионной модели....................................

74

10.2.9 Случай простой линейной регрессии.....................................................

76

82