Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции.doc
Скачиваний:
13
Добавлен:
28.06.2014
Размер:
940.03 Кб
Скачать

Обработка плохооопределеннлой информации в эс (соз)

Природа неопределенности

  1. Неопределенность исходной информации (данных).

  2. Неопределенность в знаниях, с коэффициентом правдоподобия.

  3. Неопределенность при задании цели.

1) Для принятия более качественных решений желательно снять неопределенность:

* получение доп. информации

* использование субъективных предпочтений ЛПР

2) Выбор адекватной логики обработки неопределенностей

- вероятностные методы

- интервальная вероятность

- n-арные логики

- непрерывнозначные (нечеткие) логики

- субъективные коэффициенты уверенности и операции над ними.

Теоретико-вероятностные методы обработки неопределенностей

- степень принадлежности, уверенности

Метод Байеса

PiСiRi

PiEH

P(H/E) – апостериорная вероятность истинностиHпри свидетельствеEили коэффициент правдоподобия.

- истин. (наличия) Х

OR(H/E)∞

R(H/E) = 1 – гипотеза не влияет на свидетельство

R(H/E) < 1 – контр свидетельство

R(H/E) > 1 – свидетельство

Определение: Ei Ej R(H/E) >R(H/E)

Обычно вводят пороговое значение R, ниже к-го гипотезаfalse, выше –true.

Для случая одного свидетельстваE

P(H/E) – вероятность, при к-ой гипотеза не принимается.

Психологи установили для человека.

1– инт. по правдоп.

2– надо считать.

3– интервал правдоподобияH.

P(H(E1…En)),E1…En– свидетельства

Если E1…En– независимы

 - т.к. ф-ла учитывает как свидетельства, так и контр свидетельства.

W– важность свидетельства

{Hj}j=1…m– мн-во гипотез

{Ei}i=1…n– мн-во свидетельств

Если Ei взаимно независемы, то справедливо:

PP(H); Pi+ = P(E/H); PiP(Ei/H)

Пример: с-ма диагностики.

{Hj}j=1…m- множ-во диагнозов;

{Ei}i=1…n- множ-во свидетельств.

Информация (знания) о гипотезах

БЗ<H,P,n, {Nei,Pi+,Pi}>

БДИнформация о симптомах

<Nei, название, источник получения>

Пример:

I путь.Отсутствие эпидемии.

- в БЗ: <грипп; 0,01; 2; {(1;0,99;0,01),(2;0,9;0,1)}>

- в БД: <1; t0; запрос>

<2; насморк; запрос>

P(H) = 0,01

  1. Пусть имеется только 1 симптом E1(t0):

  1. Имеется E2(насморк):

  2. Имеются E1,E2 (t0и насморк):P(H/Ei,E2) = 0,9

II путь. Эпидемия,P(H) = 0,1

  1. E1 (t0) P(H/E1) = 0,9

  2. E2 (H) P(H/E2) = 0,5

  3. E1,E2 (t0и насморк)P(H/E1,E2) ≈ 1

Если есть статистика, то все свидетельства определяются след. образом:

Ограничения на схемы Байеса:

  1. Независимость E1

  2. Сложности с учетом неопределенности свидетельств.

  3. Учет правдоподобности E1

бывают разные шкалы

a{0, 1}a{0, 100}a{1, 0.5}

Лингвистическая шкала:

0 – не присутствует

1 – очень слабо

2 – слабо

3 – средне

4– сильно

5 – очень сильно

Вместо P(H/E) используемP(H/А)

P(H/A) = P(H/E) P(E/A) + P(H/E) P(E/A)

13.11.02

  1. Использование к-значной и непрерывной логики.

Невыполн. закона искл. третьего в человеческих рассуждениях.

P(X) +P(X) = 1 не выполн.

Отсутствие зоны неопределенности:

Поскольку в человеческих рассуждениях P(Н) +P(Н) не всегда = 1, возможна ситуация неопределенности:

Логики трехзначные: {0; ½; 1}

четырехзначные: {t;f; 0;r}0 - противоречие,r- неoпределенность

шестизначные: { t;f; +½; -½; 0;r}

Интервальные вероятности:

Мы можем гарантировать, что вероятность попадает в интервал P(H)P(H)P(H)

Когда гипотеза сложная

P(H) = P(Hi) P(H) =UP(Hi)

Соседние файлы в предмете Экспертные системы