Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
глава_2.doc
Скачиваний:
8
Добавлен:
01.07.2025
Размер:
4.42 Mб
Скачать

2.4.9 Обучение в нечетких нейронных сетях для задач управления

На рисунке 2.51 показана схема супервизорного обучения в ННС.

Рис. 2.51. Схема супервизорного обучения в ННС

Задача обучения формулируется следующим образом: на основе обучающей выборки, которую в дальнейшем будем называть «обучающим сигналом» (ОС), настроить параметры сети так, чтобы ошибка аппроксимации ОС была минимальной.

Мера ошибки аппроксимации может быть выбрана, например (смотри (2.23)), как

,

где – выход ННС, соответствующий выбранной модели нечеткого вывода.

Рассмотрим метод обратного распространения ошибки для ННС, реализующей, например, модель нечеткого вывода Мамдани. В общем виде правила в такой модели выглядят следующим образом:

Правило l:

ЕСЛИ ТО ,

где – входные лингвистические переменные, « » операция нечеткой конъюнкции.

В общем виде, четкое выходное значение в модели Мамдани (с нечеткой конъюнкцией в виде умножения, синглетон-фаззификатором и дефаззификатором «средний максимум») вычисляется по следующей формуле:

,

где - точка максимального значения (центра) функции .

ННС моделирует этот процесс нечеткого вывода с помощью структуры, показанной на рис. 2.51.

Задача обучения в такой сети ставится следующим образом:

С использованием обучающего сигнала настроить параметры сети так, чтобы мера ошибки аппроксимации была минимальной.

Будем использовать следующее правило обновления параметров сети:

на каждой следующей итерации алгоритма обучения добавлять к параметру его поправку в виде:

,

где 0 < η < 1 - множитель, задающий скорость обучения.

Рис. 2.51. Архитектура ННС для модели нечеткого вывода Мамдани

Вычислим производные функции :

Алгоритм обучения ННС на основе алгоритма обратного распространения ошибки строится следующим образом:

    1. Генерируем начальные малые (между 0 и 1) значения параметров сети с помощью генератора случайных чисел или задаем априори. Устанавливаем счетчик шагов обучения = 0; = 0. Устанавливаем значение допустимой ошибки .

    2. Устанавливаем счетчик обучающих пар ; .

    3. Если p = P (заданное число обучающих пар), то (если , то stop, иначе перейти к шагу 2).

    4. p = p +1.

    5. Распространяем вход p-ой обучающей пары через сеть и вычисляем результат.

    6. Вычисляем общую ошибку

.

    1. Обновляем параметры:

;

    1. Переходим к шагу 3.

Блок-схема данного алгоритма показана на Рис.2.52.

В данной главе мы рассмотрели следующие основные компоненты технологии мягких вычислений:

  • Нечеткие системы, используемые для задач нечеткого вывода и управления;

  • Генетические алгоритмы – для задач глобальной оптимизации законов управления;

  • Нечеткие нейронные сети - для физической реализации законов оптимального управления, а также для реализации обучения и адаптации БЗ.

В следующих главах мы рассмотрим технологию и разработанный инструментарий для проектирования нечетких контроллеров на основе мягких вычислений и рассмотрим примеры их применения.

Рис. 2.52. Блок-схема алгоритма обучения ННС на основе алгоритма обратного распространения ошибки

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]