
- •Общие вопросы
- •Многослойный персептрон (mlp)
- •Алгоритм имитации отжига относится к классу алгоритмов глобальной оптимизации
- •Радиально-базисная сеть (rbf)
- •Гипер радиально-базисная сеть (hrbf)
- •Сеть Кохонена
- •Алгоритм типа нейронного газа предполагает коррекцию весов: Нейрона-победителя и его соседей Сеть Хопфилда
- •Сеть Хемминга
- •Пороговая функция активизации используется в сети хопфилда и хемминга
- •Сеть Эльмана
- •Сеть Вольтерри
- •Теория нечетких множеств
- •Сеть Мамдани-Заде
- •Сеть Такаги-Сугено-Канга
- •Сеть Цукамото
- •Сеть Ванга-Менделя
- •Нечеткий многослойный персептрон
Сеть Вольтерри
Число нейронов – потомков у каждого нейрона сети Вольтерри зависит от – числа единичного задержания
По формуле:
рассчитывается выходное значение сети:Вольтерри
Сеть Вольтеррн обучается при помощи … алгоритмов обучения Градиентных
По формуте
рассчитываются выходные значения сети ВОЛЬТЕРРИ
Сеть Вольтерри относится к сетям следующего типа прямого распределения сигнала
Теория нечетких множеств
Логическое произведение нечетких множеств А и В определяется как min[A(e)(x)]
Формирование значения импликации правила «если х1 – это А1 и х2 – это А2 и хn – это Аn, y – это В» называется – агрегирование на уровне импликации
Дефуззификатор трансформирует нечетное множество в полностью … решение y – четкое
Формула
описывает функцию фузификации - трапециидальную
Функция T(S(w1,x1),S(w2,x2),…,S(sn,xn)) реализована на входе нечеткого нейрона типа – N
Агрегация равнозначных результатов импликации многих правил чаще всего реализуется при помощи операции …Логической или алгебраической суммы
Наиболее распространёнными функциями принадлежности, используемыми для фуззификации, являются: Гаусса, Треугольная, Трапецеидальная
Функция
реализована на выходе нечёткого нейрона: Композиция правил
Ограниченное произведение нечётких множеств A и B определяется как
Для агрегирования условия правила «если – то» наиболее часто используются операции …Алгебраическое произведение или логическое
Функция s(t(w,x),t(w,x),…,f(w,x)) реализованная на выходе нечёткого нейрона типа …ИЛИ
Гибридная нейронная нечёткая сеть Абе и Лэна состоит изБолее 3х слоёв
Логическая сумма нечетких множеств А и В определяется так: Max(A(x), B(x))
Для агрегирования результата импликаций правил «если-то» в системах нечеткого вывода наиболее часто используется операция MAX
Фуззификатор преобразует N-мерный входной вектор x=[x1,x2,…,xn] в НЕЧЕТКОЕ множество А, характеризуемое функцией принадлежности m(x) с НЕЧЕТКИМИ переменными.
Функция s(t(w,x),t(w,x)…t(w,x)) реализована на выходе нечеткой нейрона типа ИЛИ
Алгоритм С-means предназначена для обучения НЕЧЕТКИХ НЕЙРОННЫХ СЕТЕЙ
Формула
описывает ТРЕУГОЛЬНУЮ функцию фуззификации.
Сеть Мамдани-Заде
Правило вида «Если X1 – это A1 и X2 – это A2 и XN – это AN, то Y – это B», отображает модель Мамдани-Заде
Если в качестве агрегатора в правилах использовать оператор алгебраического произведения, а деффузификацию реализовать относительно среднего центра, то сеть Ванга-Менделя реализует модель нечеткого вывода: МАМДАНИ-ЗАДЕ
Сеть Такаги-Сугено-Канга
Правила вида «если если х1 – это А1 и х2 – это А2 и хn – это Аn, то
» отображает модель – Такаги-Сугено-Канга
Правило вида «если х1 – это А1 и х2 – A2 и хn – An», то y=f(х1, х2, …,хn) отображает общую формулу модели :ТАКАГИ-СУГЕНО-КАНГА
Гибридный алгоритм обучения нечетких сетей может применяться для сетей ВАНГА-МЕНДЕЛЯ И TSK
Сеть Цукамото
Модель нечеткого вывода Цукамото реализует – гибридный нейронечеткий классификатор
По формуле
где
есть
рассчитывается выходное значение нечеткой сети - гибриднонейронечеткого классификатора
Правило вида «если Х1 – это А1 и Х2 – это А2 и ХN – это АN, то Y = f-1(W)» где W – уровень срабатывания предпосылки правила, отображает модель Цукамото
По формуле
формируется выходной сигнал в модели нечеткого вывода ЦУКАМОТО
Для обучения гибритногонейронечёткого классификатора используется … алгоритмы Градиентные