
- •6.1 Постановка задачи оптимальных статистических решений
- •6.2 Статистические решения без наблюдений. Случай непрерывных состояний и решений
- •6.3 Статистические решения с наблюдениями. Случай непрерывных состояний и решений
- •6.4 Статистические решения с наблюдениями. Случай дискретных состояний, дискретных решений и непрерывных наблюдений
- •6.4.1 Постановка задачи
- •6.4.2 Вероятностный смысл среднего риска в случае (0,1)-матрицы потерь
- •6.4.3 Общее решение задачи
- •6.4.4 Решение в случае двух состояний
- •6.4.6 Проверка простой двухальтернативной гипотезы о математическом ожидании нормальной генеральной совокупности
- •6.4.7 Статическое распознавание многомерных гауссовских образов
- •7 ОДНОФАКТОРНЫЙ ДИСПЕРСИОННЫЙ АНАЛИЗ
- •7.1 Постановка задачи
- •7.2 Оценки параметров
- •7.3 Статистика для проверки гипотезы
- •8 СТАТИСТИКА СЛУЧАЙНЫХ ПРОЦЕССОВ
- •8.1 Некоторые определения теории случайных процессов
- •8.2 Оценивание математического ожидания стационарной случайной последовательности
- •8.3.1 Случай известного математического ожидания
- •8.3.2 Случай неизвестного математического ожидания
- •8.4.1 Случай известного математического ожидания
- •8.4.2 Случай неизвестного математического ожидания
- •8.5 Оценки спектральной плотности, основанные на оценках ковариаций
- •8.5.1 Случай известного математического ожидания
- •8.5.2 Случай неизвестного математического ожидания
- •8.5.3 Примеры оценок спектральной плотности
- •9 КОРРЕЛЯЦИОННЫЙ АНАЛИЗ ДЛЯ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН
- •9.1 Оценки параметров функции регрессии
- •9.2 Распределения оценок параметров функции регрессии
- •9.3 Проверка гипотез и построение доверительных интервалов для параметров функции регрессии
- •10 РЕГРЕССИОННЫЙ АНАЛИЗ
- •10.1 Линейный регрессионный анализ для двух переменных (простая линейная регрессия)
- •10.2 Регрессионный анализ для многих переменных (множественная нелинейная регрессия)
- •10.2.1 Постановка задачи
- •10.2.2 Оценки параметров функции регрессии
- •10.2.3 Рекуррентная форма оценок параметров функции регрессии
- •10.2.4 Свойства оценок параметров функции регрессии
- •10.2.5 Распределения оценок параметров функции регрессии
- •10.2.6 Построение доверительных интервалов и проверка гипотез об отдельных параметрах функции регрессии
- •10.2.7 Проверка гипотезы о линейности функции регрессии
- •10.2.8 Проверка адекватности регрессионной модели
- •10.2.9 Случай простой линейной регрессии

|
|
|
|
|
u = a) − a n N( 0,1) , |
|
||||||||
|
|
|
|
|
|
1 |
|
σ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
u2 = b − b sx n N( 0,1), |
||||||||||
|
|
|
|
|
|
|
|
σ |
|
|
|
|
|
|
|
|
|
|
|
)2 |
|
|
)2 |
|
|
|
|
||
|
|
|
v = |
nσ |
= |
( n − 2 )σ |
1 |
H1( n |
− 2 ) . |
|||||
|
|
|
σ 2 |
|
σ 2 |
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
||||
)2 |
независимы. Отсюда можно сделать вывод, что |
|||||||||||||
Оценки a , b , σ |
||||||||||||||
|
|
|
t |
a |
= a) − a |
n − 2 T ( n − 2 ), |
||||||||
|
|
|
|
|
|
) |
|
|
|
1 |
|
|
||
|
|
|
|
|
|
|
σ |
|
|
|
|
|
|
|
|
t |
b |
= b − b s |
x |
n − 2 = b − b s |
x |
n T ( n − 2 ). |
|||||||
|
|
) |
|
|
|
|
) |
|
|
|
1 |
|||
|
|
|
σ |
|
|
|
|
|
σ1 |
|
|
|
|
Статистики ta , tb , v применяются для построения доверительных интервалов для параметров a , b , σ 2 соответственно и для проверки гипотез относительно этих параметров, например гипотезы { H 0 : a = a0 ; H1 : a ≠ a0 } .
10.2 Регрессионный анализ для многих переменных (множественная нелинейная регрессия)
10.2.1 Постановка задачи
Рассмотрим некоторый исследуемый объект в виде черного ящика с векторным входом и скалярным выходом. Будем считать, что выходная переменная объекта η зависит от входной векторной переменной X =( x1 , x2 ,..., xq ) таким
образом, что условная плотность вероятности величины η нормальная,
f (η / X ) = N(ϕ( X ),σ 2 ) ,
где
y =ϕ( X )
54

– условное математическое ожидание (функция регрессии η на X ), σ 2 – ус-
ловная дисперсия. Эту зависимость можно представить в виде
η =ϕ( X ) +ξ ,
где случайная величина ξ имеет нормальное распределение с нулевым матема-
тическим ожиданием и дисперсией σ 2 : ξ N( 0,σ 2 ).
Пусть для некоторых значений X1,..., X n входной векторной переменной X
получены значения yo,1 ,..., yo,n выходной случайной переменной η,
yo,i =ϕ( X i ) + zi , i =1,n ,
где zi – значения |
случайной величины ξ . Требуется по наблюдениям |
||
( X1 , yo1 ),...,( X n , yon ) |
построить математическую модель объекта, |
то есть по- |
|
|
)2 |
условной |
|
лучить эмпирическую функцию регрессии y =ϕ( X ) и оценку σ |
|
дисперсии σ 2 . Понятно, что построенная модель будет отличаться от действительной, однако это отличие должно быть несущественным (незначимым).
Обычно для аппроксимации (подбора) функции регрессии используют класс функций, линейных по параметрам, то есть представимых в виде
|
|
m |
|
|
|
y =ϕ( X ,θ |
) = ∑θ j h j ( X ), |
(10.1) |
|||
|
|
j=1 |
|
|
|
где h j ( X ) – некоторые функции вектора X , а θ j , |
j = |
|
, – неизвестные па- |
||
1,m |
раметры, θ = (θ1,...,θm ) – вектор неизвестных параметров функции регрессии
ϕ( X ,θ ) . Функция (10.1) называется гипотетической функцией регрессии.
(Функцию регрессии, полученную по результатам экспериментов, называют
эмпирической).
Гипотетическую функцию регрессии (10.1) можно записать в векторно-
матричной форме |
|
y =ϕ( X ,θ ) = H T θ =θ T H , |
(10.2) |
55

где H T =( h j ( X ) ), j =1,m , – вектор-строка функций от X , θ T =(θ j ), j =1, m , – вектор-строка параметров, m – число неизвестных параметров. От-
метим, что функция, линейная по параметрам, может быть как линейной, так и нелинейной по своим аргументам X =( x1 , x2 ,..., xq ). Например, желая получить линейную по входной скалярной переменной x функцию регрессии, мы должны выбрать
H T =(1, x ) , θ T =(α,β ) .
Тогда
y=ϕ( x,α,β ) =(1, x ) α =α + βx .
β
Желая получить функцию регрессии скалярной переменной x в виде полинома второй степени y =α + βx1 + γx2 +τ x12 , необходимо выбрать
H T =(1, x1 , x2 , x12 ) , θ T =(α,β,γ ,τ ) .
Из приведенных примеров легко заметить, что в любой линейной по параметрам модели, содержащей свободный член θ1, функция h1 ( X ) должна быть рав-
ной единице.
Часто выбирают модель, линейную как по параметрам, так и по входным переменным. В этом случае
H T = H T ( X ) = X T =( x |
, x |
2 |
,..., x |
m |
) , |
||||
|
|
1 |
|
|
|
|
|
||
и функция регрессии имеет вид: |
|
|
|
|
|
|
|
|
|
|
|
m |
|
|
|
|
|
|
|
|
|
) = ∑θ j x j =X T θ |
|
|
T X . |
||||
y =ϕ( X ,θ |
=θ |
j=1
Если такая модель должна содержать свободный член, то необходимо выбрать x1 =1.
56

10.2.2Оценки параметров функции регрессии
Всоответствии с гипотетической моделью (10.1) (или (10.2)) мы имеем следующий набор данных
|
|
|
|
|
|
yo,i |
= H iT θ |
+ zi , |
i = |
|
, |
|
|
|
(10.3) |
|||||
|
H T |
|
|
|
|
1,n |
||||||||||||||
где |
=( h |
) =( h |
|
( X |
|
)), |
|
|
, |
z |
|
– независимые случайные величины с |
||||||||
j |
i |
i =1,n |
i |
|||||||||||||||||
|
i |
i, j |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
нормальным распределением |
N (0,σ 2 ) . В этих условиях случайные величины |
|||||||||||||||||||
yoi |
распределены по нормальному закону N( H iT θ |
,σ 2 ) = N( yi ,σ 2 ), |
то есть |
|||||||||||||||||
имеют плотность вероятности вида |
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
f ( yo,i ,θ ,σ 2 ) = |
|
1 |
|
|
|
1 |
|
|
|
|
|
|
(10.4) |
|||||
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
2πσ 2 |
exp − |
2σ 2 |
( yo,i − H iT θ )2 , i =1,n . |
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
Для нахождения оценок воспользуемся методом максимума правдоподобия. Функция правдоподобия для выборки (10.3) при распределении (10.4) имеет вид:
L(θ ,σ 2 |
n |
|
n |
1 |
|
|
|
− |
1 |
( yo,i − H iT θ )2 |
|
= |
|
) = ∏ f ( yo,i ,θ ,σ 2 |
) = ∏ |
2πσ 2 |
exp |
2σ 2 |
|
||||||||
|
i=1 |
|
i=1 |
|
|
|
|
|
|
|
|||
|
= |
1 |
|
1 |
n |
( y |
|
− H T θ )2 |
|
|
|
||
|
exp − |
∑ |
|
, |
|
|
|||||||
|
|
( 2π )n σ 2n |
|
2σ 2 |
o,i |
|
i |
|
|
|
|
||
|
|
|
i=1 |
|
|
|
|
|
|
|
|
||
а логарифмическая функция правдоподобия – вид: |
|
|
|
|
|
|
|||||||
ln L(θ ,σ 2 ) = −ln ( 2π )n − n lnσ 2 − |
1 |
|
n |
|
− H iT θ )2 . |
|
|
||||||
|
∑( yo,i |
|
|
||||||||||
|
|
|
|
|
|
2σ 2 |
i=1 |
|
|
|
|
Необходимые условия максимума функции ln L(θ ,σ 2 ) состоят в следующем:
∂∂θ ln L(θ ,σ 2 ) = 0 ,
∂σ∂2 ln L(θ ,σ 2 ) = 0 .
57

Перепишем выражение для ln L(θ ,σ 2 ), отбросив слагаемое, не зависящее от
параметров:
|
|
|
|
|
|
|
|
1 |
n |
|
|
|
|
|
||||||||
|
|
,σ 2 ) ~ −n lnσ 2 |
− |
|
∑( yo,i − H iT θ |
)T ( yo,i − H iT θ |
) = |
|
|
|||||||||||||
ln L(θ |
||||||||||||||||||||||
2σ 2 |
||||||||||||||||||||||
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
||||||||||
|
|
|
|
1 |
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
= −n lnσ 2 − |
|
|
∑( yo2,i − 2 yo,i H iT θ |
|
|
T H i H iT θ |
) . |
|
|
|||||||||||||
|
|
+θ |
||||||||||||||||||||
2σ 2 |
||||||||||||||||||||||
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
,σ 2 ) |
|
|
и σ 2 |
||||||||||||||
Дифференцирование скалярной функции ln L(θ |
по параметрам θ |
|||||||||||||||||||||
дает нам следующие уравнения |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
∑( H i yo,i − H i H iT θ |
) = 0 , |
(10.5) |
||||||||||||||||||
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
nσ 2 |
− ∑( yo,i − H iT θ |
)2 = 0 , |
(10.6) |
i=1
которые называются нормальными уравнениями. Первое из этих уравнений можно переписать в виде
n |
n |
( ∑H i H iT )θ |
= ∑H i yo,i . |
i=1 |
i=1 |
Будем считать векторы H1 ,..., H n линейно независимыми, что обеспечивает не-
n
вырожденность матрицы ∑H i H iT и существование обратной матрицы
i=1
n
( ∑H i H iT )−1. Умножим обе части последнего уравнения слева на матрицу
i=1
n
(∑Hi HiT )−1 , в результате чего получим следующую оценку вектора-столбца
i=1
параметров θ :
) |
n |
n |
|
θ |
=( ∑H i H iT )−1 |
( ∑H i yo,i ). |
(10.7) |
|
i=1 |
i=1 |
|
С учетом этой оценки из второго нормального уравнения (10.6) получаем оцен-
ку дисперсии σ 2 :
58

) |
|
1 |
n |
) |
|
|
σ |
2 = |
|
∑ |
( yo,i − H iT θ )2 . |
(10.8) |
|
|
||||||
|
|
n i=1 |
|
|
|
|
Оценка ординаты y = H T θ |
гипотетической функции регрессии в любой точке |
|||||
X , очевидно, будет определяться формулой |
|
|||||
|
|
|
y) = H T θ |
, |
(10.9) |
где H T = H T ( X ) , а оценка ординаты yi = HiT θ гипотетической функции рег-
рессии в точке наблюдения X i – формулой
y)i = H iT θ ,
где H iT = H T ( X i ) . Выражение (10.9) представляет собой построенную эмпи-
рическую функцию регрессии.
Чаще полученные оценки записывают в другой форме. Рассматривают весь набор данных эксперимента
yo,1 = H1T θ + z1 = h1( X1 )θ1 + h2 ( X1 )θ2 + ... + hm ( X1 )θm + z1 ,
|
y |
o,2 |
= H T θ |
+ z |
2 |
= h ( X |
2 |
)θ |
1 |
+ h |
2 |
( X |
2 |
)θ |
2 |
+ ... + h |
m |
( X |
2 |
)θ |
m |
+ z |
2 |
, |
|||||||||||||||
|
|
2 |
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
…………………………………………………………….. |
|
|
||||||||||||||||||||||||||||||||||
|
y |
o,n |
= H T θ |
+ z |
n |
= h ( X |
n |
)θ |
1 |
+ h |
2 |
( X |
n |
)θ |
2 |
+ ... + h |
m |
( X |
n |
)θ |
m |
+ z |
n |
. |
|||||||||||||||
|
|
n |
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
Этот набор данных можно записать в виде |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
Yo |
|
|
|
|
+ Z , |
|
|
|
|
|
|
|
|
|
|
|
(10.10) |
||||||||||
|
|
|
|
|
|
|
|
|
|
= Fθ |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
где Z T |
|
|
, |
|
– |
вектор ошибок измерений, который распределен по |
|||||||||||||||||||||||||||||||||
=( zi ), i =1,n |
|
||||||||||||||||||||||||||||||||||||||
нормальному закону, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Z N( 0,σ 2 I ) , |
|
|
|
|
|
|
|
|
|
|||||||||||||||
I – единичная матрица, Y T =( y |
|
|
|
), i = |
|
, – вектор наблюдений выходной ве- |
|||||||||||||||||||||||||||||||||
oi |
1,n |
||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
o |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
личины |
|
объекта, |
|
|
T |
=(θ j ), |
|
|
|
j = |
|
, – |
|
вектор |
параметров |
|
объекта, |
||||||||||||||||||||||
|
|
|
|
|
|
|
|
1,m |
|
|
|||||||||||||||||||||||||||||
|
|
θ |
|
|
|
|
|
||||||||||||||||||||||||||||||||
F =( fij ) =( h j ( X i |
)) , |
|
i = |
|
|
|
|
( n ×m ) -матрица, которая называется |
|||||||||||||||||||||||||||||||
|
1,n, j =1,m , – |
59