Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпоры_ИСУ (2).doc
Скачиваний:
2
Добавлен:
01.05.2025
Размер:
6.53 Mб
Скачать

5.1. Введение

Различные типы интеллектуальных систем имеет свои осо­бенности, например, по возможностям обучения, обобщения и вы­работки результатов, что делает их наиболее пригодными для ре­шения одних классов задач и менее пригодными для других.

Например, нейронные сети хороши для задач идентификации объектов, но весьма неудобны для объяснения, как они такую идентификацию осуществляют. Они могут автоматически приобре­тать знания, но процесс их обучения зачастую происходит доста­точно медленно, а анализ обученной сети весьма сложен (обучен­ная сеть представляет обычно черный ящик для пользователя). При этом какую-либо априорную информацию (знания эксперта) для ускорения процесса ее обучения в нейронную сеть ввести не­возможно.

Системы с нечеткой логикой, напротив, хороши для объяс­нения получаемых с их помощью выводов, но они не могут авто­матически приобретать знания для использования их в меха­низмах вывода. Необходимость разбиения универсальных мно­жеств (универсумов) на отдельные области, как правило, ограничивает количест­во входных переменных в таких системах небольшим значением.

Вообще говоря, теоретически, системы с нечеткой логикой и искусственные нейронные сети подобны друг другу, однако, в со­ответствии с изложенным выше, на практике у них имеются свои собственные достоинства и недостатки. Данное соображение лег­ло в основу создания аппарата нечетких нейронных сетей, в кото­рых выводы делаются на основе аппарата нечеткой логики, но соответствующие функции принадлежности подстраиваются с ис­пользованием алгоритмов обучения нейронных сетей, например, алгоритма обратного распространения ошибки. Такие системы не только используют априорную информацию, но могут приобретать новые знания, являясь логически прозрачными.

    1. Алгоритм обучения anfis

Если параметры предпосылок фиксированы, то выход всей сети является линейной комбинацией параметров заключений. В символах этот выход может быть записан в виде

(7)

(8)

(9)

и он представляет линейную комбинацию параметров заключений (i=1,2; j=0,1,2). Гибридный алгоритм настраивает параметры заключений при прямом распространении сигнала и параметры предпосылок

{ai, bi, ci} при обратном распространении сигнала. При прямом распространении сеть передает входные сигналы в прямом направлении до слоя 4, в котором параметры заключений идентифицируются с помощью метода наименьших квадратов или путем псевдоинверсии матрицы. При обратном распространении сигнал ошибки передается в обратном направлении и параметры предпосылок обновляются с помощью метода наискорейшего спуска.

В связи с тем, что обновления параметров предпосылок и заключений происходят раздельно, в гибридных обучающих алгоритмах можно ускорить процесс вычислений путем использования различных вариантов

Рис. 2

градиентных методов или других методах оптимизации для настройки параметров предпосылок.

Пример (ANFIS). Посмотрим как сеть может аппроксимировать нелинейную функцию. Рис. 2 показывает изображение множества данных и результирующую интерполирующую кривую. Одиннадцать точек данных (кружки на рисунке) были предъявлены сети ANFIS. В начале были

Рис. 3

выбраны параметры двух гауссовских функций принадлежности (рис. 3, слева). Они занимали весь универсум входа с 50 процентным перекрытием между собой. Другим выбором начального шага проектирования был выбор числа правил, т. е. двух правил. В результате обучения эти правила приняли следующий вид,

Если u есть A1 то y1 = -18,75u + 249,1 (10)

Если u есть A2 то y2 = 23,55u – 276,7 (11)

Правой стороне правил соответствуют две прямые линии, также нарисованные на рисунке, одна из которых имеет положительный, а другая отрицательный наклон. Интерполирующая кривая является результатом нелинейной комбинации этих двух прямых. Вес значений прямых линий в каждой точке интерполяционной кривой определяется видом функций принадлежности входа (рис. 3, справа), который они приняли после обучения.

Одиннадцать точек данных были предъявлены сети 100 раз и каждый раз алгоритм обучения ANFIS обновлял параметры предпосылок, что определило форму и положение двух функций принадлежности, и параметры заключений, что в свою очередь определило наклон и постоянные двух прямых линий, описываемых уравнениями в правой части правил. Начальные значения коэффициентов для этих уравнений были взяты равными нулю.