Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Otvety_na_voprosy_KAKIE_NADO.docx
Скачиваний:
5
Добавлен:
01.03.2025
Размер:
452.36 Кб
Скачать

Нечёткий контроллер на основе нейронной сети (nnflc).

Специализированная архитектура нейронной сети меняет алгоритм обучения, в частности процедура становится многоэтапной, на каждом этапе определяются веса различных слоёв. Кроме того, для 1-го условия представляющего собой функцию принадлежности, в состав настраиваемых весов включают параметры функции принадлежности. Таким образом, гибридная технология устраняет основной недостаток теории нечётких систем, а именно субъективное формирование экспертом функции принадлежности.

Существует 2 способа формирования функции принадлежности:

  1. Экспертная

  2. С помощью статистической диаграммы.

  3. Гибридная технология предлагает 3-ий способ – коэффициент настраиваются с точностью для обучающей выборки.

Этапы обучения гибридной нейронной сети:

  1. Первый слой нейронов обучается с помощью соревновательных алгоритмов Коханова.

  2. Особенностью обучения весов, связывающих «и», «или» нейронов является формирование правил за счёт удаления слабых связей.

  3. Окончательную настройку всех параметров осуществляют с помощью классического алгоритма обратного распространения ошибки.

Архитектура anfis (адаптивная нейронная сеть, основанная на системе нечёткого вывода).

См. вопрос 26

Нейронная сеть для нечётких (nndfr)

Перцептрон – математическая модель фрагмента нейронной системы головного мозга, осуществляющего восприятие внешнего объекта. Первые перцептроны создавались как модель искусственного глаза. В настоящее время перцептрон представляет собой многослойную нейронную сеть прямого распространения сигнала, способную к обучению.

Данная архитектура предложена для решения задачи кластеризации. Специализация осуществляется не по слоям, а по отдельным перцептронам, которые объединены в общую сеть.

Каждый отдельный перцептрон отвечает за выделение определённого кластера образов, а многослойны перцептрон памяти помнит центры всех кластеров.

В целом, данная архитектура определяет степень близости результатов отдельных перцептронов в содержании памяти специализированного многослойного перцептрона. Самый близкий из них формирует результат на выходе всей сети.

Нечёткие нейронные сети с генетической настройкой.

При формировании как обычных нейронных сетей, так и нечётких нейронных сетей необходимо решить следующие вопросы:

  1. какое количество слоёв нейронной сети необходимо использовать?

  2. какое количество нейронов в каждом слове необходимо использовать?

При формировании базы нечётких правил из полной базы необходимо удалить слабые правила, которые вносят в окончательный результат малые значения.

Для решения всех данных задач предложено использовать генетические алгоритмы.

Генетический алгоритм к нечётким системам применяют с помощью 2-х подходов:

  1. Мичиганский подход кодирует в качестве хромосомы одно правило

  2. Питсбурский подход кодирует в качестве хромосомы всю базу правил

В качестве fitness-функции оба подхода используют нечёткий вывод.

При построении нечётких нейронных сетей в качестве хромосомы кодируют структуру нейронной сети, или хотя бы 1 из слоёв нейронной сети, чтобы определить в нём количество нейронов. Качество хромосомы вычисляют с помощью контрольной выборки.

Генетические алгоритмы применяют на стадии проектирования, а не использования из-за большой вычислительной мощности.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]