Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
LOIS_pechat.doc
Скачиваний:
1
Добавлен:
01.07.2025
Размер:
1.54 Mб
Скачать

19. Нечеткая нейронная сеть для моделирования алгоритма Tsukamoto.

Входные функции – монотонные.

Если х есть Ai, то z есть Bi.

Для заключения высказывания мы будем использовать сигмоидную функцию.

Выходной нейрон определяет четкое выходное значение:

z0=∑αi·zi/∑αi z0=B-1(αi) E=1/2(z0-e)2

Ai(x)=1/(1+e^(-bi·(zi-ai)))= αi Bi(x)=1/(1+e^(-ci·(zi-ki)))= αi

αi=1/(1+e^(-bi·(zi-ai))) => zi=ki-1/ci·ln((1- αi)/ αi)

Si=-bi·(x-ai)

ai(t+1)=ai(t)-γ·(δE/δai) δE/δai= δE/δz0· δz0/δαi· δαi/δSi· δSi/δai =

= (zo-e)•(( zi·∑αi-∑αi·zi)/ (∑αi) 2)•( αi(1- αi))•bi

bi(t+1)=bi(t)-γ·(δE/δbi) δE/δbi= δE/δz0· δz0/δαi· δαi/δSi· δSi/δbi =

= (z0-e)•(( zi·∑αi-∑αi·zi)/ (∑αi) 2)•( αi(1- αi))•(-(x-ai))

ci(t+1)=ci(t)-γ·(δE/δci) δE/δci= δE/δz0· δz0/δzi· δzi/δci =

= (z0-e)•(αi/∑αi)•( 1/ci2·ln((1- αi)/ αi))

ki(t+1)=ki(t)-γ·(δE/δki) δE/δki= δE/δz0· δz0/δzi· δzi/δki =

= (z0-e)•(αi/∑αi)

20. Нечеткая нс при композиции в предпосылках высказываний

Пусть имеется следующая последовательность нечетких правил:

Если x есть Аi и y есть Bi, то z есть Сi.

Пусть выходные функции принадлежности Сi(z) являются монотонными, тогда архитектуру НС для моделирования таких высказываний можно представить следующим образом:

Возьмем другие функции принадлежности (гауссовские)

Здесь настраиваемыми параметрами будут ai, τi, bi, pi, ki, ci.

Из выражения для ci найдем:

Аналогично рассчитываются выражения для пересчета bi, pi в случае, если αi=Bi.

21. Неопределенности в эс и проблемы порождаемые ими. Теория субъективных вероятностей.

Если А то В. Возможны неопределенности двух типов:

  1. В истинности самой посылки

  2. Правила

(В большинстве случаев но не всегда можно утверждать что если есть А то есть В)

Более сложные ситуации – если А и В то С

Существуют 4 проблемы возникающие при проектировании ЭС с неопределенным заданием:

  1. Как количественно выразить степень определенности при установлении истинности или ложности нек. части данных.

  2. Как выразить степень поддержки заключения конкр. посылкой.

  3. Как исп-ть совместно 2 или более посылки, независимо влияющие на заключение.

  4. Как быть в ситуации, когда нужно обсудить цепочку вывода для подтверждения заключения в условиях неопределенности.

Если А то В ; если В то С.

Прежде всего рассмотрим возможность использования теории вероятности при выводе в условиях неопределенности.

Теория субъективных вероятностей

Основное понятие вероятности настолько естественно, что оно играет значительную роль в повседневной жизни. «М.б.» «Шанс» «удача» - понятия неопределенности.

Классически вероятность события определяется отношением случившихся событий к общему числу событий. Но есть и другие:

      1. Объективистский - Вероятность отношений исхода по всем наблюдениям в течении длительного времени.

      2. Персонифицированный (субъективистский, Байесовский) – Вероятностная мера рассматривается как степень доверия того, как отдельная личность судит об истинности некоторого высказывания.

      3. Необходимый (логический) – Вер. мера расширяется на множество утверждений имеющих такую логическую связь, что истинность одного из них может выводится из другого.

С учетом вероятности для использования в Э.С. явл-ся интерпретации основанные на субъективном доверии. Большинство современных экспертных систем используют теорию вероятностей – Байесовские (субъективистское понимание)

Пусть А – некоторое событие реального мира. Совокупность всех событий наз-ся выборочным пространством (или пространством событий) – Ω

Вер-ть соб. А – р(А).

Кажд. Вероятностная функция р должна удовлетворять 3-ем аксиомам:

  1. р(А) > 0 для любого А из Ω

  2. Вероятность всех событий – 1 р(Ω) = 1.

  3. Если к событий: А1, А2, …, Ак явл-ся взаимонезависимыми (не могут произойти одновременно), то вероятность по крайне мере 1-го события = сумме вероятностей.

Р(А1 ˅ А2 ˅ … ˅ Ак) = сумме р(Аi)

0≤p^p≤1 для любого А из Ω

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]