
- •6.1 Постановка задачи оптимальных статистических решений
- •6.2 Статистические решения без наблюдений. Случай непрерывных состояний и решений
- •6.3 Статистические решения с наблюдениями. Случай непрерывных состояний и решений
- •6.4 Статистические решения с наблюдениями. Случай дискретных состояний, дискретных решений и непрерывных наблюдений
- •6.4.1 Постановка задачи
- •6.4.2 Вероятностный смысл среднего риска в случае (0,1)-матрицы потерь
- •6.4.3 Общее решение задачи
- •6.4.4 Решение в случае двух состояний
- •6.4.6 Проверка простой двухальтернативной гипотезы о математическом ожидании нормальной генеральной совокупности
- •6.4.7 Статическое распознавание многомерных гауссовских образов
- •7 ОДНОФАКТОРНЫЙ ДИСПЕРСИОННЫЙ АНАЛИЗ
- •7.1 Постановка задачи
- •7.2 Оценки параметров
- •7.3 Статистика для проверки гипотезы
- •8 СТАТИСТИКА СЛУЧАЙНЫХ ПРОЦЕССОВ
- •8.1 Некоторые определения теории случайных процессов
- •8.2 Оценивание математического ожидания стационарной случайной последовательности
- •8.3.1 Случай известного математического ожидания
- •8.3.2 Случай неизвестного математического ожидания
- •8.4.1 Случай известного математического ожидания
- •8.4.2 Случай неизвестного математического ожидания
- •8.5 Оценки спектральной плотности, основанные на оценках ковариаций
- •8.5.1 Случай известного математического ожидания
- •8.5.2 Случай неизвестного математического ожидания
- •8.5.3 Примеры оценок спектральной плотности
- •9 КОРРЕЛЯЦИОННЫЙ АНАЛИЗ ДЛЯ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН
- •9.1 Оценки параметров функции регрессии
- •9.2 Распределения оценок параметров функции регрессии
- •9.3 Проверка гипотез и построение доверительных интервалов для параметров функции регрессии
- •10 РЕГРЕССИОННЫЙ АНАЛИЗ
- •10.1 Линейный регрессионный анализ для двух переменных (простая линейная регрессия)
- •10.2 Регрессионный анализ для многих переменных (множественная нелинейная регрессия)
- •10.2.1 Постановка задачи
- •10.2.2 Оценки параметров функции регрессии
- •10.2.3 Рекуррентная форма оценок параметров функции регрессии
- •10.2.4 Свойства оценок параметров функции регрессии
- •10.2.5 Распределения оценок параметров функции регрессии
- •10.2.6 Построение доверительных интервалов и проверка гипотез об отдельных параметрах функции регрессии
- •10.2.7 Проверка гипотезы о линейности функции регрессии
- •10.2.8 Проверка адекватности регрессионной модели
- •10.2.9 Случай простой линейной регрессии

L |
|
|
ψ j ( X ) = ∑wi, j P( si ) f ( X / si ) → min . |
(6.19) |
|
i=1 |
d j |
|
Для получения оптимального решения необходимо рассчитать значения функ-
ций ψ j ( X ) , j =1, L , и выбрать решение d j с таким номером j , которому со-
ответствует минимальное значение указанных функций.
6.4.4 Решение в случае двух состояний
Часто один из многих вариантов выбирают путем парных сравнений вариантов. Поэтому рассмотрим функцию вида
ψi, j ( X ) =ψi ( X ) −ψ j ( X ) , i =1,L −1, j = i + 1, L ,
где функции ψi ( X ), ψ j ( X ) определяется выражением (6.19). Функция
ψi, j ( X ) называется дискриминантной или разделяющей. Она призвана вы-
брать одно из двух решений: di или d j . Решение принимается по следующему правилу:
ψ |
i, j |
( X ) > 0, решение |
d j . |
(6.20) |
|
|
|
≤ 0, решение |
di |
|
|
|
|
|
|
||
Эта запись означает следующее. |
Если ψi, j ( X ) больше нуля, |
то принимается |
решение d j , в противном случае принимается решение di . Такое правило сле-
дует из выражения (6.19). Поверхность в n -мерном пространстве измерений
X , определяемая уравнением
ψi, j ( X ) = 0 ,
называется разделяющей или дискриминантной гиперповерхностью. Решение выносится в зависимости от того, по какую сторону разделяющей гиперповерхности находится вектор наблюдений X .
В случае двух состояний разделяющая функция имеет следующий вид:
14
ψ1,2 ( X ) =ψ1( X ) −ψ 2 ( X ) = w1,1P( s1 ) f ( X / s1 ) + w2,1P( s2 ) f ( X / s2 ) − − w1,2 P( s1 ) f ( X / s1 ) − w2,2 P( s2 ) f ( X / s2 ) =
=( w1,1 − w1,2 )P( s1 ) f ( X / s1 ) −( w2,2 − w2,1 )P( s2 ) f ( X / s2 ) = = c1 f ( X / s1 ) − c2 f ( X / s2 ) = f ( X / s2 )( c1l1,2 ( X ) − c2 ),
где
с2 =( w2,2 − w2,1 )P( s2 ), |
|
|||
с1 =( w1,1 − w1,2 )P( s1 ), |
|
|||
l |
( X ) = |
f ( X / s1 ) |
. |
(6.21) |
|
||||
1,2 |
|
f ( X / s2 ) |
|
|
|
|
|
Функция l1,2 ( X ) называется отношением правдоподобия. Решающее правило
(6.20) приобретает следующий вид:
c l |
( X ) > c2 , решение d2 |
, |
(6.22) |
||
1 1,2 |
|
≤ c2 |
, решение d1 |
|
|
|
|
|
|
Данное решающее правило описывается следующим образом. Вычисляется c1l1,2 ( X ) и сравнивается с c2 . При c1l1,2 ( X ) > c2 принимается решение d2 , в противном случае – решение d1 .
Из решающего правила (6.22) можно получить частные случаи. Так, если ( w2,2 − w2,1 ) =( w1,1 − w1,2 ) < 0 , то мы получим правило
|
|
> |
|
P( s |
2 |
) |
, |
решение d1 , |
||
|
|
|
|
|
|
|
||||
|
|
P( s1 ) |
||||||||
l1,2 |
|
|
|
|
|
|||||
( X ) |
|
P( s2 ) |
|
|
|
|
||||
|
≤ |
, |
решение d2 . |
|||||||
|
|
|||||||||
|
|
|
P( s1 ) |
|
|
|||||
|
|
|
|
|
Такое решающее правило известно как правило Зигерта-Котельникова или правило идеального наблюдателя. Если, кроме того, P( s1 ) = P( s2 ), то мы получим правило
l1,2 |
>1, |
решение d1 , |
( X ) |
решение d2 . |
|
|
≤1, |
15
которое известно как правило отношения правдоподобия.
6.4.5Решение в случае (0,1)-матрицы потерь
Вслучае (0,1)-матрицы потерь решение упрощается в сторону уменьшения объема вычислений. В этом случае формула (6.19) примет вид
L |
|
|
ψ j ( X ) = ∑P( si ) f ( X / si ) → min . |
||
i=1 |
|
d j |
i≠ j |
|
|
|
|
L |
Если учесть, что по формуле полной вероятности f ( X ) = ∑P( si ) f ( X / si ), то |
||
|
|
i=1 |
получим |
|
|
ψ j ( X ) = f ( X ) − P( s j |
) f ( X / s j |
) → min . |
|
|
d j |
Последнюю задачу можно записать иначе: |
|
|
ϕ j ( X ) = P( s j ) f ( X / s j |
) → max . |
(6.23) |
|
j |
|
Задача (6.23) интерпретируется следующим образом: решение выносится в пользу состояния с таким номером j , для которого величина P( s j ) f ( x / s j )
наибольшая. Если ввести дискриминантную функцию для двух состояний
ϕi, j ( X ) =ϕi ( X ) −ϕ j ( X ) = P( si ) f ( X / si ) − P( s j ) f ( X / s j ) = = f ( X / s j )(P( si )li, j ( X ) − P( s j )),
где li, j ( X ) – отношение правдоподобия (6.21), то мы получим решающее пра-
вило Зигерта-Котельникова
|
> |
|
P( s j ) |
, решение di , |
|||
|
|
|
|
|
|||
P( si ) |
|||||||
|
|
|
|
||||
li, j ( X ) |
|
|
P( s j ) |
|
|||
|
|
|
, решение d j . |
||||
≤ |
|
|
|
|
|||
|
P( si ) |
||||||
|
|
|
|
где li, j ( X ) – отношение правдоподобия (6.21).
16

Как обычно, можно максимизировать не только функцию ϕ j ( X )
ее логарифм. В этом случае решающее правило приобретает вид
> ln
ln li, j ( X )
≤ ln
P( s j )
P( si ) , решение di ,
P( s j )
P( si ) , решение d j .
(6.23), но и
(6.24)
6.4.6 Проверка простой двухальтернативной гипотезы о математическом ожидании нормальной генеральной совокупности
Пусть имеется выборка X =( x1 , x2 ,..., xn ) из нормальной генеральной сово-
купности fξ ( x / a ) = N( a,σ 2 ), и требуется проверить гипотезу вида
{ H 0 :a = a1 ; H1 :a = a2 } ,
где a1 ,a2 – значения дискретной случайной величины, имеющие вероятности
P( a1 ), P( a2 ) .
Мы видим, что это задача оптимального статистического решения с двумя состояниями s1 = a1 , s2 = a2 и непрерывными наблюдениями. Для решения за-
дачи выберем ( 0,1 ) -матрицу потерь и воспользуемся логарифмическим отно-
шением правдоподобия
ln l |
( X ) = ln |
f ( X / a1 ) |
= ln f ( X / a ) − ln f ( X / a |
2 |
) |
|
|
||||||
1,2 |
|
f ( X / a2 ) |
1 |
|
||
|
|
|
|
|
и решающим правилом (6.24). В нашем случае
n |
|
1 |
|
n |
n |
|
|
|
|
( x |
i |
− a )2 |
|
|
|
f ( X / a ) = ∏ fξ ( xi / a ) = |
|
|
|
|
|
|
|
|
− |
|
|
2 |
|
, |
|
|
2πσ 2 |
|
∏ exp |
|
2σ |
|
|||||||||
i=1 |
|
i=1 |
|
|
|
|
|
|
|
|
|||||
|
|
1 |
n |
|
n |
( x |
i |
− a )2 |
|
|
|
|
|
||
ln f ( X / a ) = ln |
|
|
|
− ∑ |
|
|
2 |
, |
|
|
|
|
|||
|
2πσ 2 |
|
|
i=1 |
|
2σ |
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
17

имы получим
=1
2σ 2
где x = 1 ∑n xi . n i=1
|
|
|
n |
( x |
i |
− a )2 |
|
n |
( x |
i |
− a |
2 |
)2 |
|
|
|
|
|
|
||
ln l1,2 ( X ) = −∑ |
|
1 |
|
+ ∑ |
|
|
|
|
|
= |
|
|
|
|
|||||||
|
|
2σ 2 |
|
|
|
|
2σ 2 |
|
|
|
|
|
|
||||||||
|
|
|
i=1 |
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|||
= |
1 |
∑n (− xi2 + 2xi a1 − a12 + xi2 − 2xi a2 + a22 )= |
|
|
|
||||||||||||||||
|
|
|
|
||||||||||||||||||
|
2σ 2 |
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
(2xi ( a1 − a2 ) −( a12 − a |
22 ))= n |
( a − a |
2 |
) |
a |
+ a |
2 |
|
||||||||||||
∑ |
|
|
1 |
|
|
|
x − |
1 |
|
, |
|||||||||||
|
|
σ 2 |
|
|
|
|
2 |
|
|||||||||||||
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Решающее правило (6.24) для нашей задачи имеет вид
|
( a − a |
2 |
) |
a + a |
2 |
> ln h, решение a = a , |
||
n |
1 |
|
x − |
1 |
|
1 |
||
σ 2 |
|
|
2 |
|
решение a = a2 , |
|||
|
|
|
|
|
≤ ln h, |
где h = |
P( a2 ) |
– порог. Предположим, что a |
> a |
2 |
. Этого всегда можно достичь |
|||||||||||
|
|
|||||||||||||||
|
P( a1 ) |
|
|
|
|
|
1 |
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
выбором гипотезы H 0 . Тогда наше решающее правило можно представить в |
||||||||||||||||
виде |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
> h , |
решение a = a |
, |
, |
(6.25) |
||||
|
|
|
|
|
|
|
|
x |
1 |
|
|
|
1 |
|
||
|
|
|
|
|
|
|
|
≤ h1 , |
решение a = a2 , |
|
|
|||||
|
|
a |
+ a |
2 |
|
σ 2 ln h |
|
|
|
|
|
|
|
|
|
|
где h = |
1 |
|
|
+ |
|
– новый порог. Мы видим, что решение о матема- |
||||||||||
|
|
|
|
|
||||||||||||
1 |
|
|
2 |
|
|
|
n( a1 − a2 ) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
тическом ожидании принимается путем сравнения его оценки |
x с некоторым |
числом h1 . Это число есть сумма середины отрезка [ a2 ,a1 ] и порога
h = |
σ 2 ln h |
|
|
. Геометрический смысл решающего правила (6.25) поясняется |
|
|
|
|
|
||
2 |
n( a1 |
− a2 |
) |
|
|
|
|
рисунком 6.1, на котором изображен отрезок действительной прямой [ a2 ,a1 ]
и его середина – точка с = a1 +2 a2 . Решение выносится в пользу правой грани-
цы отрезка, если выборочное среднее превышает середину отрезка плюс порог
18