Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
OPIS.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
24.55 Mб
Скачать

51. Алгоритм Mamdani

Даний алгоритм відповідає розглянутому прикладу на рис.3.15. У розглянутій ситуації він математично може бути описаний у такий спосіб [1]:

  1. Введення нечіткості. Знаходяться ступені істинності для передумов кожного правила: А1(х0), А2(х0), В1(х0), В2(х0).

  2. Логічний висновок. Знаходяться рівні “відсікання” для передумов кожного з правил (з використанням операції МІНІМУМ):

де через “ ” позначена операція логічного мінімуму (min). Потім знаходяться “усічені” функції належності:

  1. Композиція. Проводиться об’єднання знайдених усічених функцій з використанням операції МАКСИМУМ (mах, позначені далі як “ ”), що призводить до одержання підсумкової нечіткої підмножини для змінної виходу з функцією належності:

.

  1. Приведення до чіткості. Проводиться для перебування z0, наприклад, центроїдним методом.

56. Нечеткий контроллер Мамдани.

57. Нечеткие нейронные сети(ННС). Нечеткий контроллер на основе ННС. Контроллер Цукамото.

58. Метод обратного распространения ошибки в нечетком контроллере

59. Настройки параметров функций принадлежности в НС

60. Нечеткая нейронная сеть ANFIS. Структура, алгоритм обучения. Применение нечеткой ННС ANFIS

ANFIS - гібридна система з механізмом логічного висновку запропонованого Сугено на базі правил ЯКЩО-ТО. Дана система може бути успішно використана для настройки функції належності та настройки бази правил в нечіткій експертній системі. Модель нечіткого висновку Сугено та структурна схема мережі ANFIS.

f1 = a1 x + b1 y + r1 f 2= a2 x + b2 y + r2

мережа ANFIS використовує наступну базу правил:

я кщо х = А1 та у = В1 то f1 = a1x + b1y + r1

якщо х = А2 та у = В2 то f 2= a2x + b2y + r2 , де Аi та Вi є лінгвістичними змінними.

Шари даної нечіткої нейронної мережі виконують такі функції:

Шар 1. Кожен нейрон даного шару є нейроном, що перетворює вхідний сигнал х чи у за допомогою функції належності (фазифікатор). Найчастіше використовують дзвіноподібну функцію (1) чи функцію Гауса (2)

(1) (2)

Шар 2. Кожен нейрон в цьому шарі позначений як  здійснює множення вхідних сигналів, моделюючи логічну операцію AND і посилає на вихід

(3)

По суті, кожен нейрон представляє активуючу силу правила. (Фактично будь-який оператор Т-норми, що узагальнює операцію AND може бути використаний в даних нейронах).

Шар 3. Кожен нейрон в даному шарі обчислює нормовану силу правила:

(4)

Шар 4. На даному шарі в нейронах формуються значення вихідних змінних:

(5)

Шар 5. В останньому шарі отримується вихідний сигнал нейронної мережі та виконується дефазифікація результатів: (6)

Нейронна мережа архітектури ANFIS в даній роботі навчається за допомогою градієнтного методу. Нехай Х1 може приймати r лiнгвiстичних значень.

Х2 – k лiнгвiстичних значень.

Створюється повна база правил - на всi можливi комбiнацii складається таблиця.

,

де y*- бажаний вихiд.

Алгоритм навчання НМ ANFIS

Нехай описується наступними параметрами: - центр iнтервалу, характеристика ширини iнтервалу.

Градiєнтний алгоритм навчання

t+1 iтерацiя - розмiр кроку.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]