- •Глава 2. Элементы теории мягких вычислений и проблемы интеллектуального управления
- •2.1 Введение
- •2.2. Нечеткие системы для описания интеллектуальных стратегий управления присущих человеку
- •2.2.1 Нечеткие множества и их особенности
- •2.2.2 Нечеткая логика и ее особенности
- •2.2.2.1 Типовые нечеткие логические операции
- •2.2.2.2 Процесс нечеткого вывода
- •2.2.3 От нечеткой логики - к нечетким системам и нечетким контроллерам
- •2.2.4 Типовые фаззификаторы и дефаззификаторы
- •2.2.5 Типовые Нечеткие Модели
- •2.2.5.1 Нечеткая Модель Мамдани
- •2.2.5.2 Нечеткая Модель Сугено
- •2.2.5.3 Нечеткая Модель Цукамото
- •2.2.6 Нечеткое пид управление (Fuzzy pid Control)
- •2.2.7 Пример применения нечеткой логики: управление автомобилем на основе нечеткой логики
- •2.3. Внедрение свойств обучения и адаптации в интеллектуальные системы управления
- •2.3.1. Генетические алгоритмы для глобальной оптимизации
- •2.3.1 Основные этапы и блок-схема га
- •2.3.2 Теоретические основы га
- •2.3.3 Примеры применения генетических алгоритмов в задачах управления
- •2.4. Искусственные и нечеткие нейронные сети: основные понятия и применение
- •2.4.1. Простой Перцептрон (Perceptron)
- •2.4.2. Многослойные сети с прямым распространением
- •2.4.3. Многослойные перцептроны (Multiple Layer Perceptron)
- •2.4.4. Нейронные сети как Ассоциативная память
- •2.4.5. Нейронные сети Кохонена
- •2.4.6. Адаптивные сети
- •2.4.7. Нечеткие нейронные сети для задач управления
- •2.4.8. Обучение в нейронных сетях
- •2.4.9 Обучение в нечетких нейронных сетях для задач управления
- •Рекомендуемая дополнительная литература к Главе 2
- •Контрольные вопросы к Главе 2
2.4.9 Обучение в нечетких нейронных сетях для задач управления
На рисунке 2.51 показана схема супервизорного обучения в ННС.
Рис. 2.51. Схема супервизорного обучения в ННС
Задача обучения формулируется следующим образом: на основе обучающей выборки, которую в дальнейшем будем называть «обучающим сигналом» (ОС), настроить параметры сети так, чтобы ошибка аппроксимации ОС была минимальной.
Мера ошибки аппроксимации может быть выбрана, например (смотри (2.23)), как
,
где
– выход ННС, соответствующий выбранной
модели нечеткого вывода.
Рассмотрим метод обратного распространения ошибки для ННС, реализующей, например, модель нечеткого вывода Мамдани. В общем виде правила в такой модели выглядят следующим образом:
Правило l:
ЕСЛИ ТО ,
где – входные лингвистические переменные, « » операция нечеткой конъюнкции.
В общем виде, четкое выходное значение в модели Мамдани (с нечеткой конъюнкцией в виде умножения, синглетон-фаззификатором и дефаззификатором «средний максимум») вычисляется по следующей формуле:
,
где - точка максимального значения (центра) функции .
ННС моделирует этот процесс нечеткого вывода с помощью структуры, показанной на рис. 2.51.
Задача обучения в такой сети ставится следующим образом:
С использованием обучающего сигнала
настроить параметры сети
так,
чтобы мера ошибки аппроксимации была
минимальной.
Будем использовать следующее правило обновления параметров сети:
на каждой следующей итерации
алгоритма обучения добавлять к параметру
его поправку в виде:
,
где 0 < η < 1 - множитель, задающий скорость обучения.
Рис. 2.51. Архитектура ННС для модели нечеткого вывода Мамдани
Вычислим производные функции
:
Алгоритм обучения ННС на основе алгоритма обратного распространения ошибки строится следующим образом:
Генерируем начальные малые (между 0 и 1) значения параметров сети с помощью генератора случайных чисел или задаем априори. Устанавливаем счетчик шагов обучения
= 0;
= 0. Устанавливаем значение допустимой
ошибки
.Устанавливаем счетчик обучающих пар
;
.Если p = P (заданное число обучающих пар), то (если
,
то stop, иначе перейти к
шагу 2).p = p +1.
Распространяем вход p-ой обучающей пары через сеть и вычисляем результат.
Вычисляем общую ошибку
.
Обновляем параметры:
;
Переходим к шагу 3.
Блок-схема данного алгоритма показана на Рис.2.52.
В данной главе мы рассмотрели следующие основные компоненты технологии мягких вычислений:
Нечеткие системы, используемые для задач нечеткого вывода и управления;
Генетические алгоритмы – для задач глобальной оптимизации законов управления;
Нечеткие нейронные сети - для физической реализации законов оптимального управления, а также для реализации обучения и адаптации БЗ.
В следующих главах мы рассмотрим технологию и разработанный инструментарий для проектирования нечетких контроллеров на основе мягких вычислений и рассмотрим примеры их применения.
Рис. 2.52. Блок-схема алгоритма обучения ННС на основе алгоритма обратного распространения ошибки
