Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
СМОД – Статистические методы обработки данных / СМОД_Часть2 Муха ВС, БГУИР 2007 (Мет пособие).pdf
Скачиваний:
95
Добавлен:
15.06.2014
Размер:
797 Кб
Скачать

d * = sf ( s / X )ds .

−∞

Заметим, что данная задача аналогична задаче получения байесовской оценки математического ожидания нормального распределения в примере 2.6 раздела

2.5 с очевидной заменой обозначений: a на s , a0 на as и σa2 на σs2 . Используя результаты указанного примера, можно записать апостериорную плотность вероятности состояния s в виде

f ( s / X ) = N( d*,σd2* ),

 

 

где σd2* – апостериорная дисперсия,

d *

– апостериорное среднее, определяе-

мые выражениями (см. пример 2.5 раздела 2.4)

 

 

 

 

 

 

 

1

 

 

 

 

 

 

σ 2σ 2

 

 

σd2* =

 

 

 

 

 

=

 

 

 

 

s

 

,

 

 

 

 

 

σ

2 + nσs2

 

σs2 + nσ 2

 

 

1

 

1

 

1

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

d* = 2

 

2 as

+

 

 

2 xi

.

 

σd*

σs

σ

 

 

i=1

 

 

Оптимальным решением является d * . Минимальное значение риска при этом равно σd2* . В частном случае отсутствия наблюдений ( n = 0 ) мы имеем мини-

мальный риск σd2* =σs2 и оптимальное решение d* = as . Эти же результаты мы получили ранее при рассмотрении задачи без наблюдений в примере 6.1 разде-

ла 6.2.

6.4 Статистические решения с наблюдениями. Случай дискретных состояний, дискретных решений и непрерывных наблюдений

6.4.1 Постановка задачи

9

 

 

 

 

____

 

 

Система находится в одном из состояний si , i = 1, L ,

si S . Известны апри-

 

 

 

 

____

L

 

орные

вероятности

этих состояний

P( si ),

i = 1, L ,

P( si ) =1.

Решение

 

 

 

 

 

i=1

 

di D ,

____

 

 

 

 

 

i = 1, L ,

принимается на

основе

наблюдения над

системой

X =( x1 ,..., xn ) , X X . Наблюдения должны быть связаны с состояниями, что-

бы предоставлять информацию о них. Будем считать, что эта связь выражается условной плотностью вероятности f ( X / si ) , которая предполагается извест-

ной. Для характеристики потерь при принятии решения вводится функция потерь w( s,d ). Так как состояния и решения дискретны, то эта функция задается

____

в виде матрицы потерь W =( wi, j ) =( w( si ,d j )) , i, j = 1, L . Элемент wi, j матри-

цы потерь характеризует потери, которые несет статистик, когда он принимает решение d j , в то время как система находится в состоянии si (i – номер со-

стояния, j – номер решения). Если i = j , то wi, j – потери при правильном ре-

шении, поскольку решение совпадает с состоянием. Часто применяется так называемая (0,1)-матрица потерь [20], диагональные элементы которой равны нулю, а остальные – единице. Элементы этой матрицы определяются формулой

wi, j =1 δi, j , где

δi, j

1,

если

i = j

 

– символ Кронекера. Например, при

=

если

i j

 

 

 

0,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

1

1

 

 

L = 3 (0,1)-матрица потерь имеет вид

 

 

1

0

1

 

. Принимаемое решение

W =

 

 

 

 

 

 

 

 

1

1

0

 

 

 

 

 

 

 

 

 

 

 

d j зависит от наблюдения X , то есть d j = d j ( X ). Такое решение называется нерандомизированным. В общем случае будем рассматривать рандомизированные решения, то есть решения, принимаемые путем случайного выбора. Это значит, что в пространстве решений D вводится распределение вероятностей

P( d j ) , j =1, L , со свойствами

10

L

0 P( d j ) 1, P( d j ) =1.

j=1

Качество решения характеризуется средним риском – математическим ожиданием функции потерь r = E( w( s,d )), где усреднение производится по всем случайным аргументам функции потерь. Оптимальное решение определяется из условия минимума среднего риска:

r( P( d j )) = E( w( s,d )) min .

(6.10)

P( d j )

 

Средний риск определяется выражением

 

L L

 

r = r( P( d j )) = E( w( s,d )) = ∑∑wi, j P( si )P( d j ( X )) f ( X / si )dX ,

(6.11)

X i=1 j=1

где искомые вероятности P(d j ) должны удовлетворять указанным выше свой-

ствам.

6.4.2 Вероятностный смысл среднего риска в случае (0,1)-матрицы потерь

Выясним вероятностный смысл среднего риска (6.11) в случае (0,1)-матрицы

потерь. Для этого рассмотрим выражение P( d j / si ) = P( d j ( X )) f ( X / si

)dX ,

X

 

представляющее собой вероятность принятия решения d j при условии,

что

система находится в состоянии si . С учетом этого обозначения средний риск примет вид:

L

L

 

r = ∑∑wi, j P( d j / si )P( si ).

 

i=1 j=1

 

В случае (0,1)-матрицы потерь выражение

 

L

L

 

wi, j P( d j / si ) = P( d j / si ) = P( d

s / si )

j=1

j=1

 

 

ji

 

11

есть вероятность принятия неверного решения при условии, что система находится в состоянии si , то есть условная вероятность принятия неверного реше-

ния. Учитывая это выражение, для среднего риска получим

L

r = P( d s / si )P( si ) = P( d s ).

i=1

Мы видим, что средний риск представляет собой безусловную вероятность принятия неверного решения, или, иначе, безусловную вероятность ошибки P(d s) . Следовательно, при (0,1)-матрице потерь оптимальное решение обес-

печивает минимальную безусловную вероятность ошибки принятия решения.

6.4.3 Общее решение задачи

Для решения оптимизационной задачи (6.10), в которой средний риск определяется выражением (6.11), введем в рассмотрение условный риск r(d j )

L

 

 

r( d j ) = wi, j P( si ) f ( X / si )dX .

(6.12)

i=1 X

 

 

Тогда решаемая задача примет вид

 

 

L

 

 

r( P( d j )) = r( d j )P( d j ) min .

 

j=1

P( d j )

 

Очевидно, можно воспользоваться дискретным аналогом теоремы интегрального исчисления о среднем значении и записать

 

 

 

 

L

 

 

 

 

 

 

 

 

r( P( d j )) = r( d j )ср. P( d j )

=r( d j )ср r( d j

)min ,

(6.13)

 

 

 

 

j=1

 

 

 

 

где

r( d

j

)

– среднее значение условного риска (6.12), r( d

j

)

= r( d ) – ми-

 

 

ср.

 

 

min

j

нимальное значение условного риска (6.12),

d j – решение, минимизирующее

условный риск (6.12). Из выражения (6.13) вытекает, что средний риск (6.11) и условный риск (6.12) ограничены одним и тем же минимальным значением

12

r( d j )min = r( d j ). Это минимальное значение достигается, если выбрать все вероятности P(d j ) = 0 , кроме одной вероятности P( d j ) =1. Такое решение

называется нерандомизированным. Итак, оптимальное решение является нерандомизированным и отыскивается из условия минимума условного риска (6.12). Далее, в выражении (6.12) выполним подстановку

P( si ) f ( X / si ) = P( si / X ) f ( X ).

Тогда получим

L

 

 

 

 

r( d j ) = wi, j P( si / X ) f ( X )dX ,

(6.14)

i=1 X

 

 

 

 

где

 

 

 

 

P( si / X ) =

P( si ) f ( X / si )

(6.15)

f ( X )

 

 

 

 

апостериорная вероятность состояния si . В выражении (6.14) введем обозначение

L

 

r( d j / X ) = wi, j P( si / X ).

(6.16)

i=1

 

Тогда выражение (6.14) будет иметь вид

 

r( d j ) = r( d j / X ) f ( X )dX .

(6.17)

X

 

Можно показать, что минимизация риска (6.17) эквивалентна минимизации риска (6.16). Итак, оптимальное решение определяется как решение оптимизационной задачи

L

 

 

r( d j / X ) = wi, j P( si / X ) min ,

(6.18)

i=1

d j

 

где P( si / X ) определяется формулой Байеса (6.15). Подставляя выражение

(6.15) в (6.18) с учетом того, что знаменатель f ( X ) будет присутствовать в ка-

ждом слагаемом в (6.18) и не повлияет на минимизацию, получим, что оптимальное решение определяется из условия

13