
СМОД – Статистические методы обработки данных / Лаба 1 - 8 / smodlabs / по смоду / шпоры_2006г / 30
.doc30.Теория статистических решений без наблюдения
в случае непрерывных состояний и решений
Пусть имеется некоторая
система, которая может находится в
состоянии
,
где S
– мн-во состояний, кот. предназн.
котинуумам.
Состояние системы случайные, s-х извест плотностью вероятности.
Случ. велич. Имеет плотность распр. f(s).
Требуется не производя наблюдений над системой принять решение (указать состояние s).
Решение статистики обозн.
,
где D
– пространство решений, аналогичное
пространству состояния S.
Решение можт быть правильным и не правильным; в случае неправильного решения статистик должен нести потери. Для характеристики потерь вводится функция потерь. Чаще всего функция потерь зависит от рас-ия м/у s и d – q(s,d) Функция потерь должна удовлетворять следующим свойствам:
-
W(0)=0
-
W(q) >0
-
W(q2)≥ W(q2), если q2≥q1.
Решение будем рассматривать также случайное, т.е. имеется плотность вероятности f(d). Плотность вероятности f(d) называется решающей функцией, она называется рандомизированной.
Поскольку s и d случайные, то функция потерь явл. случайной величиной, следовательно, качество решения характеризуется математическим ожиданием функции потерь, которое называется средним риском r=E(w(s,d))
Задача теории статистических решений формулируется как оптимизационная: требуется найти решающую функцию f(d), минимизирующую средний риск. В виде одного выражения эта задача записывается так:
(1)
* Любая задача, в которой предполагаются известными все априорные распределения наз-ся байесовской, а подход такой – байесовский.
Мы видим, что задача теории статистических решений формулируется как байесовская. Для этого запишем выражение среднего риска от мат. ожидания функции потерь. По формуле мат. ожидания функции случайной величины получим:
(*здесь под r
имеют ввиду r(f(d))*)
где f(s,d) – совместная плотность вероятности.
Поскольку состояние решений можно считать независимым, то по теореме умножения независимых случайных величин f(s,d)=f(s)*f(d) получим:
,
где f(d)-
решающая плотность вер-ти
Введем понятие условного риска при условии что фиксировано решение d:
(2)
тогда средний риск запишется:
(3)
Применим к выражению (3) теорему о среднем интегральном исчислении, получим:
,
где
- это среднее значение условного риска
(2)
-
- это min
значение условного риска
Неравенство
записано на основании того, что
Из нер-ва можно сделать вывод, что условный риск x(d) и средний риск r имеют одно и тоже min значение. Это значит, что вместо минимизации среднего риска можно минимизировать условный риск (2),т.е. вместо задачи (1) решать следующую задачу:
(4)
=>Решающая функция f(d)
имеет вид:
, где
-дельта
функция
-решение,
доставляющее минимум условному риску
r(d),
т.е.
В этом случае средний риск (3) имеет вид:
Записано на основе фильтрующего свойства:
Решающая функция вида
называется нерандомизированной
функцией.
Итак, доказали:
-
Opt решающее правило является нерандомизированным
-
Opt решение отыскивается из условия минимума условного риска
Пример:
Предположим, что состояние
системы:f(s)=N(as
2)
Необходимо принять решение по состоянии системы w(s,d)=(s-d)2.
По скольку решение не рандом., то d- неслуч. перем.
отсюда видно, что r(d)=
=E((s-d)2)=E(s2-2sd-d2)=E(s2)-2dE(s)+d2=
+
-2d
+d2
Необходимое условие минимума
.
Получим –2a+2d=0
; d*=a
Найдем r(d*),
т.е. чем мы рискуем: r(d*)=a2+-2a2+a2=
-т.е. минимальный риск равен дисперсии.