Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
РУР.doc
Скачиваний:
11
Добавлен:
01.05.2025
Размер:
212.99 Кб
Скачать

33. Основы теории дш: обработка незнания в теории вероятности и теории дш

Первоначально метод неточного вывода, называемый теорией ДШ, базировался на работе Демпстера, который представил модель нечёткости с помощью ряда вероятностей вместо единственного вероятностного числа. Шефер расширил и переработал метод Демпстера и опубликовал результаты в 1976 г. в книге «Математическая теория свидетельств». Последующее расширение, названное выводом с помощью свидетельств, имеет дело с информацией, которая предполагалась нечёткой, неточной и случайно не появляющейся.

Обработка незнания в теории ДШ

Основное различие между теорией ДШ и теорией вероятности состоит в обработке незнания. Например, если отсутствует априорное знание о N возможных случайных событиях, тогда вероятность Р = 1/N. Значение такой вероятности является следствием использования принципа безразличия, т.е. теория вероятности не предусматривает ничего иного, если наряду со знанием подразумевается незнание. Предельным случаем проявления несостоятельности принципа безразличия может служить следующий случай: рассмотрим два события: Н – под вашим домом – море девонской нефти, не Н – под домом нефти нет. События Н и не Н – полная группа событий, следовательно, Р(Н) + Р(не Н) = 1, т.е. Р(Н) = 50%. Подобный вывод служил бы стимулом поиска.

Все это является следствием того, что теория вероятности неявно требует, чтобы свидетельство, не поддерживающее гипотезу, её отрицало. Теория ДШ не усиливает доверия, назначенного незнанию или отрицанию гипотезы. Масса назначается только тем подмножествам окружения, которым желательно присвоить доверие. Любое доверие, которое не присвоено специфическому подмножеству, рассматривается как недоверие и только связано с окружением , но не входит в него.

Доверие, которое отрицает гипотезу, есть недоверие, что не является неверием.

35. Основы теории дш: нормализация доверия, правило дисконтирования Демпстера

Первоначально метод неточного вывода, называемый теорией Демпстера-Шефера, базировался на работе Демпстера, который представил модель нечёткости с помощью ряда вероятностей вместо единственного вероятностного числа. Шефер расширил и переработал метод Демпстера и опубликовал результаты в 1976 г. в книге «Математическая теория свидетельств». Последующее расширение, названное выводом с помощью свидетельств, имеет дело с информацией, которая предполагалась нечёткой, неточной и случайно не появляющейся.Привлекательно то, что теория ДШ оказалась лучшим теоретическим фундаментом для факторов уверенности, которые в сущности оказались одним из частных случаев теории ДШ, чем специально построенные методы.

Нормализация доверия.

Допустим, что третий датчик передал конфликтное свидетельство от лайнера. m3({A}) = 0.95, m3() =0.05. Тогда:

m1  m2 ({B})=0.9

m1  m2 ({B, F})=0.07

m1  m2 ({})=0.03

m3 ({А})=0.95

 0,855

 0,0665

{А} 0.0285

m3 ({})=0.05

{B} 0.045

{B, F} 0.0035

 0.0015

Значит, m1  m2  m3 ({А}) = 0,0285;

m1  m2  m3 ({В}) = 0,045;

m1  m2  m3 ({B, F}) = 0,0035;

m1  m2  m3 () = 0,0015;

m1  m2  m3 () = 0 (по свойству пустого множества).

В данном примере сумма всех масс меньше 1: 0,0285+0,045+0,0035+0,0015 = 0,0785. Но сумма масс по всем центральным элементам должна составлять 1. Решить это противоречие позволяет нормализация центральных элементов, которая производится путём деления каждого центрального элемента на (1-k), где k находится как XY= m1(X) * m2(Y). Для нашего примера: k = 0,855+0,0665=0,9215. Отсюда 1-k = 1-0,9215=0,0785. Разделив значения m1  m2  m3 центральных элементов на 0,0785, получим:

m1  m2  m3 ({А}) = 0,363;

m1  m2  m3 ({В}) = 0,573;

m1  m2  m3 ({B, F}) = 0,045;

m1  m2  m3 () = 0,019.

Видно, что событие А размывает событие В. общее доверие в В теперь Bel({B}) = 0,573. Bel({B’})=Bel({A, F})= m1  m2  m3 ({A, F})+ m1  m2  m3 ({A})+ m1  m2  m3 ({F}) = 0 + 0,363 + 0 = 0,363. Интервал событий теперь равен [0,573; 1-0,363] =[0,573; 0,637]. База и правдоподобие В сильно уменьшились.Коэффициент k указывает величину конфликта свидетельств. Если он равен 0, свидетельства совместимы, если он равен 1 – они полностью противоречивы. Полностью противоречивые источники не могут быть скомбинированы при помощи правила комбинирования Демпстера. Промежуточные значения говорят о частичной совместимости.Рассмотрим ещё один пример: есть 4 предприятия (={1,2,3,4}) кандидаты на покупку акций. 5 экспертов из первой группы считают, что необходимо покупать акции 1-го предприятия, 3 эксперта из первой группы считают, что необходимо покупать акции 2-го или 3-го предприятия. 8 экспертов из второй независимой группы считают, что необходимо покупать акции 1-го или 2-го предприятия, 7 экспертов из второй группы считают, что необходимо покупать акции 3-го предприятия и один эксперт из второй группы считает, что необходимо покупать акции 4-го предприятия. Первый источник: N1=8, c1(1) = 5, m1({1})=5/8, c2(1) = 3, m1({2, 3})=3/8. Второй источник: N2=16, c1(2) = 8, m2({1, 2})=8/16, c2(2) = 3, m2({3})=7/16, c3(2) = 1, m2({4})=1/16. Представим все данные в таблице:

{1}

{2, 3}

{1, 2}

{1}

{2}

{3}

{3}

{4}

Коэффициент K вычисляется как 5/8*7/16+5/8*1/16+3/8*1/16=0,336. Отсюда 1 – K = 1 – 0.336 = 0.664. Из таблицы видно, что непустые пересечения имеют вид {1}, {2}, {3}. Тогда

m({1})=(5/8*8/16)/0.664 = 0.4706 = Bel({1})

m({2})=(3/8*8/16)/0.664 = 0.2824 = Bel({2})

m({3})=(3/8*7/16)/0.664 = 0.2470 = Bel({3})

В отзыве на книгу Шефера “Математическая теория свидетельств” Заде представил пример, показывающий, что правило комбинирования Демпстера может давать некорректные результаты в случае большого количества противоречивых данных. Представим, что пациент осматривается двумя врачами-терапевтами по поводу неврологических симптомов. Первый врач уверен, что у пациента либо менингит с вероятностью 0.99, либо опухоль мозга с вероятностью 0.01. Второй врач уверен, что у пациента расстройство нервной системы после сотрясения с вероятностью 0.99, но допускает опухоль мозга с вероятностью 0.01. Комбинируя полученные свидетельства при помощи правила комбинирования Демпстера, мы получаем, что m(опухоль) = Bel(опухоль) = 1. Результат комбинирования полностью поддерживает диагноз, который оба врача рассматривают как очень маловероятный.Правило дисконтирования

Правило комбинирования Демпстера предполагает абсолютную надежность источника информации. Однако всегда есть сомнение, что источники абсолютно надежны. Для того чтобы учесть надежность источников Шефер предложил использование дисконтирование базовых вероятностей некоторым коэффициентом д[0, 1], т.е. умножение базовой вероятности на 1-д. В результате для каждого центрального элемента получаем новые базовые вероятности m = (1-)m. Если коэффициент дисконтирования равен 1, то источник абсолютно ненадежный и m = 0. Наоборот, если  = 0, то источник абсолютно надежный и m = m. Чтобы выполнить условие нормирования базовых вероятностей (сумма базовых вероятностей всех центральных элементов равна 1), при дисконтировании добавляется базовая вероятность всего множества , т.е. m() =  + (1-)m(). Фактически добавление ненулевой базовой вероятности  не меняет информации, имеющейся в распоряжении. Если эксперт говорит, что любой элемент  может быть истинным значением случайной величины, он не дает никакой дополнительной информации.Интересно отметить, что использование дисконтирования даже при очень малых значениях  делает коэффициент k в правиле комбинирования Демпстера не равным 1 и, следовательно, позволяет всегда найти комбинированную оценку независимо от количества противоречивой информации.

Вернемся к предыдущему примеру о покупке акций 4 предприятий. 100 экспертов из первой группы считают, что необходимо покупать акции второго предприятия, 60 экспертов из первой группы считают, что необходимо покупать акции второго или третьего предприятия. 8 экспертов из второй независимой группы считают, что необходимо покупать акции первого. Первый источник: N1=160, c1(1) = 100, m1({2})=100/160, c2(1) = 60, m1({2, 3})=60/160. Второй источник: N2=8, c1(2) = 8, m2({1})=8/8. Нетрудно увидеть, что k = 1. Следовательно, невозможно получить комбинированную оценку, используя правило комбинирования Демпстера. Поэтому используем правило дисконтирования с учетом надежности источников. Так как первый источник содержит намного больше экспертов, чем второй, то можно считать его более надежным по сравнению с первым. Примем 1 = 1 – 160/168 = 0,048 и 2 = 1 – 8/168 = 0,952. Заметим, что вовсе не обязательно, чтобы сумма коэффициентов дисконтирования была равна 1. Тогда m1({2})=(1-1)*100/160=0.595

m1({2, 3})=(1-1)*60/160=0.357

m1()=1=0.048

m2({1})=(1-2)*1=0.048

m2()=1=0.952

Теперь можно использовать правило комбинирования Демпстера, согласно которому k = m1({2})*m2({1})+m1({2, 3})*m2({1}) = 0.595*0.048+0.357*0.048=0.046.

1 - k=0.0954

m1m2({1}) = m1()*m2({1})/(1 - k)=0.048*0.048/0.954=0.002

m1m2({2}) = m1({2})*m2()/(1 - k)=0.595*0.952/0.954=0.594

m1m2({2, 3}) = m1({2, 3})*m2()/(1 - k)=0.357*0.952/0.954=0.356

m1m2() = m1()*m2()/(1 - k)=0.048*0.952/0.954=0.048

Следует отметить, что сумма всех масс равна 1.

Найдем функции доверия и правдоподобия для всех предприятий

Bel({1})= m1m2({1})=0.002,

Pls({1})= m1m2({1})+ m1m2()=0.05

Bel({2})=m1m2({2})=0.594, Pls({2})=m1m2({2})+m1m2({2,3})+m1m2()= 0.998

Bel({3})= 0,

Pls({3})=m1m2({2,3})+m1m2()=0.404

Bel({4})= 0,

Pls({4})= m1m2()=0.048.

Суда по значению интервала свидетельств, лучшим кандидатом является предприятие {2}.

свидетельств

Первоначально метод неточного вывода, называемый теорией ДШ, базировался на работе Демпстера, который представил модель нечёткости с помощью ряда вероятностей вместо единственного вероятностного числа. Шефер расширил и переработал метод Демпстера и опубликовал результаты в 1976 г. в книге «Математическая теория свидетельств». Последующее расширение, названное выводом с помощью свидетельств, имеет дело с информацией, которая предполагалась нечёткой, неточной и случайно не появляющейся. Привлекательно то, что теория ДШ оказалась лучшим теоретическим фундаментом для факторов уверенности, которые в сущности оказались одним из частных случаев теории ДШ, чем специально построенные методы.

Комбинирование свидетельств.

Предположим, что информация в виде различных наборов центральных элементов с их базовыми вероятностями получена из различных источников. Эти источники предоставляют различные данные об одном и том же объекте или явлении. Рассмотрим случай появления нового свидетельства от другого типа датчика. Скомбинируем все свидетельства, чтобы получить лучшую оценку свидетельства. Для иллюстрации этого рассмотрим специальный случай общей формулы комбинирования свидетельств.

Предположим, что второй тип датчика распознает мишень как бомбардировщик с доверием 0,9. Массы свидетельства от датчиков теперь будут следующие:

m1({B, F}) = 0.7, m1() = 0.3

m2({B}) = 0.9, m2() = 0.1

где m1 и m2 относятся соответственно к первому и второму типам датчиков.

Это свидетельство может быть скомбинировано с помощью специального правила комбинирования Демпстера, предназначенного для получения комбинированной массы. Оно основано на предположении, что источники данных абсолютно независимы.m1  m2 (Z) = X Y = Z m1(X) * m2(Y), где сумма распространяется на все элементы X  Y = Z. Оператор  означает ортогональную сумму, которая определена суммированием перекрестных произведений масс правой части правила. Правило Демпстера комбинирует массы с целью получения новой массы, которая представляет согласование первоначального, возможно, конфликтного свидетельства.