
- •4. Основные сведения о нейронных сетях
- •4.1. Введение
- •Каждый нейрон, входящий в нейронную сеть и представленный на рис. 1 в виде кружка, участвует в преобразовании входных сигналов, так что выходной сигнал зависит от алгоритма работы всех нейронов.
- •4.2. Модель нервной клетки (нейрона)
- •Лекция 24
- •4.3. Математическая модель нейрона
- •4.4. Многослойная нейронная сеть
- •4.5. Обучение нейронной сети
- •Лекция 25
- •4.6. Обратное распространение ошибки
- •Лекция 26
- •Если q – й нейрон расположен в k–ом скрытом слое (рис. 8), то согласно (17а) при замене r на q , 2 на k, 1 на k-1 и I на r,
- •4.7. Аппроксимация функций (моделирование) с помощью нейронных сетей (персептронов)
- •Нейронная сеть с радиальными базисными функциями
- •Cтруктура нейронной сети с радиально базисными функциями (рбф сети)
- •Методы обучения рбф сети
- •Лекция 27
- •Моделирование (идентификация) нелинейных динамических процессов (объектов)
- •3. Применение нейронных сетей (нс) для управления
- •3.1. Нейросетевые адаптивные системы управления
- •3.1.1. Нейросетевая технология адаптивной линеаризации обратной связью
- •3.1.2. Нейросетевое прямое и косвенное адаптивное управление на основе желаемой (эталонной) модели
- •Лекция 28
- •5. Синтез нейронных нечетких сетей
- •5.1. Введение
- •Адаптивные нейронные нечеткие системы инференции (anfis)
- •Структура anfis
- •Алгоритм обучения anfis
- •Генетические алгоритмы
- •Лекция 29
- •Генетические нечеткие системы (Извлечение нечетких знаний с помощью генетических алгоритмов)
- •Проектирование нечетких систем
- •Классификация генетических нечетких систем
- •4.6. Обратное распространение ошибки
Генетические нечеткие системы (Извлечение нечетких знаний с помощью генетических алгоритмов)
Нечеткие системы успешно применяются в задачах моделирования и управления, и в значительном числе приложений. В большинстве случаев ключом для успешного применения служит способность нечетких систем встраивать знания экспертов. В прошлое десятилетие на успешную предысторию, отсутствие способностей к обучению у нечетких систем, вызвали интерес к изучению нечетких систем, дополненных способностями к обучению.
Двумя самыми успешными подходами оказались попытки их гибридизации, осуществленные в рамках мягких вычислений с помощью других технологий, таких как, нейронные сети и эволюционные вычисления, которые придают нечетким системам способность к обучению (рис. 5). Нейро-нечеткие системы являются одним из самых успешных и очевидных направлений этих усилий. Другой подход гибридизации приводит к генетическим нечетким системам (ГНС).
Рис. 5
ГНС в сущности представляет собой нечеткую систему, расширенную за счет процесса обучения, основанного на генетическом алгоритме (ГА). Так как ГА являются поисковыми алгоритмами, которые базируются на естественной генетике, что обеспечивает способность робастного поиска в сложных пространствах, то они предлагают обоснованный подход к решению проблем, требующих эффектных и эффективных поисковых процессов.
Анализ литературы показывает, что самыми заметными приложениями ГНС являются генетические нечеткие лингвистические системы (ГНЛС), в которых генетический процесс обучает или настраивает различные компоненты нечетких лингвистических систем, т.е. систем построенных исключительно с помощью правил в отличие от нечетких систем Такаги-Сугено. Рис. 5 показывает эти концепции для системы, в которой генетическое проектирование и нечеткие рассуждения являются двумя основными составляющими. В этой системе ряд параметров находят путем настройки или обучения, используя ГА.
Недостатки проектирования нечетких лингвистических систем с помощью экспертов:
Не всегда можно найти сведущего эксперта;
Извлечение знаний из эксперта отнимает много времени;
Системы, построенные на приобретенных с помощью эксперта знаниях, работают плохо.
Поэтому приходится применять экспериментально полученные данные для обучения нечеткой системы.
Генетические алгоритмы не были специально разработаны как методы машинного обучения, подобно нейронным системам. Однако не является секретом, что задача обучения может быть сформулирована как оптимизационная задача, и таким образом она может быть решена с помощью эволюционных алгоритмов.
Так как они обладают большой вычислительной мощностью для поиска решений задач в сложных плохо определенных пространствах, то это позволяет успешно применять ГА для большого круга проблем машинного обучения и извлечения данных. Присущая им гибкость и способность встраивать полученные от экспертов знания являются весьма важным свойством с точки зрения решаемых задач.
Рис. 6
Другие подходы включают генетические нейронечеткие системы и генетическую нечеткую кластеризацию.