- •1.Нечеткие множества.
- •2.Основные характеристики нечетких множеств.
- •3.Логические операции над нечеткими множествами.
- •Включение AcB
- •6.Нечеткие числа: операции над нечеткими числами.
- •7.Нечеткие числа: нечеткие числа (l-r) типа.
- •8.Нечеткие отношения.
- •10.Свойства нечетких отношений.
- •Асимметричность:
- •11.Нечеткие выводы: алгоритм Mamdani.
- •12. Нечеткие выводы: алгоритм Tsukamoto.
- •13.Нечеткие выводы: алгоритм Sugeno.
- •14. Нечеткие выводы: алгоритм Larsen.
- •15.Нечеткие выводы: упрощенный алгоритм нечеткого вывода.
- •16. Нисходящие нечеткие выводы.
- •17. Понятие нечеткой (гибридной) нс.
- •18. Нечеткая нс для моделирования алгоритма Sugeno.
- •19. Нечеткая нейронная сеть для моделирования алгоритма Tsukamoto.
- •20. Нечеткая нс при композиции в предпосылках высказываний
- •21. Неопределенности в эс и проблемы порождаемые ими. Теория субъективных вероятностей.
- •22. Элементы теории вероятностей: условная вероятность, совместная вероятность, теорема Байеса.
- •23. Логический вывод в байесовской эс (априорная вероятность, апостериорная вероятность).
- •24. Распространение вероятностей в эс на основе правила Байеса. Последовательное распространение вероятностей.
- •25.Байесовские сети доверия.
- •26. Процесс рассуждения в байесовских сетях доверия. Пример построения простейшей байесовской сети доверия.
- •29. Генетический алгоритм.
- •30.Деревья решений: общие понятия и принципы построения.
- •31.Пакет прикладных программ Fuzzy Logic Toolbox: назначение, структура.
- •32.Проектирование нечеткого вывода при помощи функций командной строки пакета Fuzzy Logic Toolbox.
- •33.Проектирование нечеткого вывода при использовании графического интерфейса пользователя пакета Fuzzy Logic Toolbox. Диалоговые окна (fis Editor, Rule Editor …) и их назначение.
- •34.Структура данных системы нечеткого логического вывода в среде MatLab. Модели функций принадлежности.
- •35.Функции для работы с нечеткими множествами: newfis, addvar, addmf.
- •36.Функции для работы с нечеткими множествами: addrule, evalmf, evalfis.
- •37. Возможности и назначение anfis-редактора.
17. Понятие нечеткой (гибридной) нс.
Нечеткие нейронные сети (fuzzy-neural networks) осуществляют выводы на основе аппарата нечеткой логики, однако параметры функций принадлежности настраиваются с использованием алгоритмов обучения НС. Поэтому для подбора параметров таких сетей применим метод обратного распространения ошибки, изначально предложенный для обучения многослойного персептрона. Для этого модуль нечеткого управления представляется в форме многослойной сети. Нечеткая нейронная сеть как правило состоит из четырех слоев: слоя фазификации входных переменных, слоя агрегирования значений активации условия, слоя агрегирования нечетких правил и выходного слоя. Наибольшее распространение в настоящее время получили архитектуры нечеткой НС вида ANFIS и TSK. Доказано, что такие сети являются универсальными аппроксиматорами.
Каждая разновидность систем ИИ имеет свои особенности, например, по воз-ти обучения, обобщения и выработки вывода, что делает такую систему пригодной для решения одних задач и в тоже время непригодной для решения других.
НС хороши для распознавания образов, но их «-» в понимании как происходит распознавание. Процесс обучения такой НС – черный ящик для пользователя.
В свою очередь системы с нечеткой логикой хороши для объяснения получаемых с их помощью выводов. Но они не могут автоматически приобретать знания для использования их в мех-ме вывода. Т.Е, на практике есть и «+» и «-».
Данное соображение легло в основу аппаратногибридных НС, в которых, выводы делаются на основе аппарата нечеткой логики, но а соответствующие функции принадлежности подстраиваются с помощью алгоритмов обучения НС.
Например, алгоритм обратного распространения ошибки.
18. Нечеткая нс для моделирования алгоритма Sugeno.
Выводы делаются на основе аппарата нечеткой логики, но соответствующие функции принадлежности подстраиваются с использованием алгоритмов обучения нейросетей, например, алгоритма обратного распространения ошибки. Такие системы не только используют априорную информацию, но могут приобретать новые знания и для пользователя являются логически прозрачными.
П1: если х есть А1, тогда y есть z1,
П2: если х есть А2, тогда y есть z2,
………………………………
ПN: если х есть АN, тогда y есть zN,
Нечеткие понятия Аi имеют сигмоидные функции принадлежности Ai(x)=1/(1+e^(-bi·(x-ai))), характеризующиеся параметрами ai и bi.
Входной
нейрон выполняет распределител. функции.
Нейроны скрытого слоя вычисляют значения
функции принадлежности a1, a2,… ,aN при
конкретном входном x.
Выходной
нейрон определяет четкое выходное
значение:
y=∑αi·zi/∑αi E=1/2(y-e)2
Предполагается, что известна обучающая выборка. Рассчитать: ai,bi,zi.
При обучении такой нейронной сети используется алгоритм обратного распространения ошибки.
Воспользуемся методом градиентного спуска:
zi(t+1)=zi(t)-γ·(δE/δzi) ai(t+1)=ai(t)-γ·(δE/δai) bi(t+1)=bi(t)-γ·(δE/δbi)
δE/δzi= δE/δy· δy/δzi= (y-e)•αi/∑αi
δE/δai= δE/δy· δy/δαi· δαi/δSi· δSi/δai Si=-bi·(x-ai)
= (y-e)•(( zi·∑αi-∑αi·zi)/ (∑αi) 2)•( αi(1- αi))•bi
δE/δbi= δE/δy· δy/δαi· δαi/δSi· δSi/δbi
= (y-e)•(( zi·∑αi-∑αi·zi)/ (∑αi) 2)•( αi(1- αi))•(-(x-ai))
