Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
LOIS_pechat.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
1.54 Mб
Скачать

17. Понятие нечеткой (гибридной) нс.

Нечеткие нейронные сети (fuzzy-neural networks) осуществляют выводы на основе аппарата нечеткой логики, однако параметры функций принадлежности настраиваются с использованием алгоритмов обучения НС. Поэтому для подбора параметров таких сетей применим метод обратного распространения ошибки, изначально предложенный для обучения многослойного персептрона. Для этого модуль нечеткого управления представляется в форме многослойной сети. Нечеткая нейронная сеть как правило состоит из четырех слоев: слоя фазификации входных переменных, слоя агрегирования значений активации условия, слоя агрегирования нечетких правил и выходного слоя. Наибольшее распространение в настоящее время получили архитектуры нечеткой НС вида ANFIS и TSK. Доказано, что такие сети являются универсальными аппроксиматорами.

Каждая разновидность систем ИИ имеет свои особенности, например, по воз-ти обучения, обобщения и выработки вывода, что делает такую систему пригодной для решения одних задач и в тоже время непригодной для решения других.

НС хороши для распознавания образов, но их «-» в понимании как происходит распознавание. Процесс обучения такой НС – черный ящик для пользователя.

В свою очередь системы с нечеткой логикой хороши для объяснения получаемых с их помощью выводов. Но они не могут автоматически приобретать знания для использования их в мех-ме вывода. Т.Е, на практике есть и «+» и «-».

Данное соображение легло в основу аппаратногибридных НС, в которых, выводы делаются на основе аппарата нечеткой логики, но а соответствующие функции принадлежности подстраиваются с помощью алгоритмов обучения НС.

Например, алгоритм обратного распространения ошибки.

18. Нечеткая нс для моделирования алгоритма Sugeno.

Выводы делаются на основе аппарата нечеткой логики, но соответствующие функции принадлежности подстраиваются с использованием алгоритмов обучения нейросетей, например, алгоритма обратного распространения ошибки. Такие системы не только используют априорную информацию, но могут приобретать новые знания и для пользователя являются логически прозрачными.

П1: если х есть А1, тогда y есть z1,

П2: если х есть А2, тогда y есть z2,

………………………………

ПN: если х есть АN, тогда y есть zN,

Нечеткие понятия Аi имеют сигмоидные функции принадлежности Ai(x)=1/(1+e^(-bi·(x-ai))), характеризующиеся параметрами ai и bi.

Входной нейрон выполняет распределител. функции. Нейроны скрытого слоя вычисляют значения функции принадлежности a1, a2,… ,aN при конкретном входном x. Выходной нейрон определяет четкое выходное значение:

y=∑αi·zi/∑αi E=1/2(y-e)2

Предполагается, что известна обучающая выборка. Рассчитать: ai,bi,zi.

При обучении такой нейронной сети используется алгоритм обратного распространения ошибки.

Воспользуемся методом градиентного спуска:

zi(t+1)=zi(t)-γ·(δE/δzi) ai(t+1)=ai(t)-γ·(δE/δai) bi(t+1)=bi(t)-γ·(δE/δbi)

δE/δzi= δE/δy· δy/δzi= (y-e)•αi/∑αi

δE/δai= δE/δy· δy/δαi· δαi/δSi· δSi/δai Si=-bi·(x-ai)

= (y-e)•(( zi·∑αi-∑αi·zi)/ (∑αi) 2)•( αi(1- αi))•bi

δE/δbi= δE/δy· δy/δαi· δαi/δSi· δSi/δbi

= (y-e)•(( zi·∑αi-∑αi·zi)/ (∑αi) 2)•( αi(1- αi))•(-(x-ai))

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]