- •1.Коньюнкция условий и разбиение пространства входа.
- •Композиция нечетких отношений.
- •Нечеткое инверсное управление и нечеткая система управления с внутренней моделью
- •Алгоритм жесткой кластеризации.
- •Операции над нечеткими множествами. Модификаторы.
- •8. Проектирование нечетких контроллеров (метод Мамдани)
- •2. Нечеткий контроллер с двумя входами и одним выходом
- •9.Нечеткая система управления с плановым изменением коэффициента.
- •10. Оценка параметров заключений по (мнк)
- •11. Адаптивные нейронные нечеткие системы инференции (anfis)
- •12.Импликация Мамдани. Внешнее произведение.Таблица импликаци
- •13. Нечеткая идентификация. Структура и параметры.
- •14. Нечеткий логический вывод для нескольких правил и нескольких входов.
- •Несколько входов (многомерная лингвистическая модель)
- •16. Функциональная схема нечеткого контроллера
- •17. Отношения между нечеткими множествами
- •18. Алгоритм нечеткой кластеризации с-средних
- •19. Моделирование статических объектов упр-я как аппроксимация функций с помощью нейронных сетей (есть только для динамических объектов)((((((((
- •20. Анализ устойчивости тс модели объекта управления в пространстве состояний.
- •22. Нечеткий логический вывод с исп-м отношений. Пример
- •24. Визуализация алгоритма нечеткого логического вывода.
- •25. Понятия о нечетких множествах
- •26. Обучение нейронной сети. Общие сведения.
- •27. Упрощение алгоритма нечеткого логического вывода.
- •28. Обратное распространение ошибки
- •29. Визуализация нечеткого логического вывода.Аккумуляция.
- •30. Параметры алгоритма с-средних
- •31. Проектирование нечетких контроллеров (метод Мамдани)
- •32. Нечеткая логика. Логические связки.
- •33.Проектирование нечетких контроллеров(метод Мамдани). Многомерный нечеткий контроллер.
- •34. Алгоритм обучения anfis
- •35. Максиминная композиция нечетких отношений. Внутренне произведение. Пример.
- •36. Преобразование вход-выход. Кривая управления. Пов-ть управления.
- •37. Табличное изменение коэффициента усиления (супервизорное управление)
- •38. Алгоритм нечеткой кластеризации Густафсона–Кесселя.
- •39. Генетические алгоритмы
- •40. Извлечение правил с помощью кластеризации
- •41.Нечеткий сумматор для контроллеров с 2 входами и 1 выходом
- •42. Нейросетевое прямое и косвенное адаптивное управление с эталонной моделью
- •43. Обратное распространение ошибки. Обновление весовых коэф-в скрытых слоев. Локальные градиенты.
- •44. Модель Такаги-Сугено как квазилинейное устройство
- •45. Контроллер типа Такаги-Сугено
- •46. Нейросетевое управление с адаптивной линеаризацией обратной связью
- •48. Такаги-Сугено модель оу в пространстве состояний
- •49. Нечеткие множества. Синглтоны и лингвистические переменные.
- •50. Моделирование нелинейных динамических оу с помощью нейронных сетей
- •51. Структура интеллектуальной системы управления
- •52. Многослойная нейронная сеть
- •53. Дефаззификация. Методы дефаззификации.
- •54. Нейронная сеть с радиальными базисными функциями
- •56. Синтез нечеткой обратной связи
- •57. Линейные матричные неравенства, основные понятия.
- •58. Аппроксимация функций (моделирование) с помощью нейронных сетей (персептронов)
- •59. Классификация генетических нечетких систем
- •60. Синтез нейронных нечетких сетей. Структура anfis
- •19. Моделирование статических объектов управления как аппроксимация функций с помощью нейронных сетей.
- •Адаптивные нейронные нечеткие системы интерференции (anfis). . Синтез нечетких нейронных сетей
- •5.1. Введение
- •Адаптивные нейронечеткие системы инференции (anfis)
- •Импликация Мамдани. Внешнее произведение. Таблица импликации.
- •Нечеткая идентификация. Структура и параметры
- •Нечеткий логический вывод для нескольких правил и нескольких входов.
- •1. Настройка пид-регулятора
- •3. Перенос параметров пид-регулятора в нечеткий контроллер
- •Анализ устойчивости тс модели объекта управления в пространстве состояний. Анализ устойчивости тс модели объекта
- •1. Настройка пид-регулятора
- •Нечеткий логический вывод (инференция). Пример.
- •Визуализация нечеткого логического вывода. Агрегирование условий и активизация заключений.
- •Математическая модель нейрона. Математическая модель нейрона
- •Нечеткое управление с предсказанием.
- •Визуализация нечеткого логического вывода. Аккумуляция заключений.
- •5.1. Введение
- •Алгоритм обучения anfis
- •Максиминная композиция нечетких отношений. Внутреннее произведение. Пример.
- •Преобразование вход-выход для нечетких контроллеров. Кривая управления и поверхность управления.
- •2.4. Преобразование вход-выход
- •Табличное изменениекоэффициентаусиления (супервизорное управление).
- •2.8. Табличное изменение коэффициента усиления (супервизорное управление)
- •Алгоритм нечеткой кластеризации Густафсона-Кесселя.
- •Генетические алгоритмы. Генетические алгоритмы
- •Модель Такаги-Сугено как квазилинейное (аффинное) устройство. Модель Такаги-Сугено как квазилинейное устройство
- •Контроллер типа Такаги-Сугено.
- •Деффазификация. Методы деффазификации.
- •2.2.5. Дефаззификация
- •Теорема б универсальной аппроксимации.
- •Такаги-Сугено модель объекта управления в пространстве состояний.
- •Табличный контроллер. Билинейная интерполяция.
- •2.3. Табличный контроллер
- •Моделирование нелинейных динамических объектов управления с помощью нейронных сетей.
- •Моделирование нелинейных динамических процессов (объектов)
- •Упрощение алгоритма нечеткого логического вывода.
- •Обратное распространение ошибки. Обновление весовых коэффициентов выходного слоя.
- •4.6. Обратное распространение ошибки
- •Структура интеллектуальной системы управления.
- •Многослойная нейронная сеть. Многослойная нейронная сеть
- •5.1. Введение
- •Структура anfis
39. Генетические алгоритмы
Проблема использования для обучения сети алгоритма обратного распространения ошибки и оптимизации по методу наименьших квадратов состоит в том, что их применение может быть причиной останова оптимизационного процесса в точках локального минимума нелинейной целевой функции (критерия качества сети). Дело в том, что упомянутые методы основаны на вычислениях производных и являются градиентными методами. Генетические алгоритмы − естественный отбор самого подходящего (выживает наиболее приспособленный!) − не требуют вычисления производных и являются стохастическими оптимизационными методами, поэтому менее склонны к останову оптимизационного процесса в локальных минимумах. Эти алгоритмы могут быть использованы для оптимизации, как структуры, так и параметров в нейронных сетях. Специальная область их применения связана с определением параметров нечетких функций принадлежности. Генетические алгоритмы имитируют естественную эволюцию популяций. Суть этих алгоритмов такова. В начале генерируют возможные различные решения, используя генератор случайных чисел. Затем происходит тестирование (оценка) этих возможных решений с точки зрения поставленной задачи оптимизации, т.е. определяется, насколько хорошее решение они обеспечивают. После чего часть лучших решений отбирается, а другие отсеваются (выживает наиболее приспособленный). Затем отобранные решения подвергаются процессам репродукции (размножения), скрещивания и мутации, чтобы создать новую генерацию (поколение, потомство) возможных решений, которая, как ожидаемо, будет более подходящей, чем предыдущая генерация. Наконец, создание и оценивание новых генераций продолжатся до тех пор, пока последующие поколения не будут давать более подходящих решений. Такой алгоритм поиска решений из широкого спектра возможных решений оказывается предпочтительнее с точки зрения окончательных результатов, чем обычно используемые алгоритмы. Платой является большой объем вычислений. Рассмотрим составные части генетического алгоритма.
Кодирование. Множество параметров для задачи оптимизации кодируется в последовательность бит.
2. Вычисление функции приспособленности (соответствия). После генерации популяции хромосом вычисляется значение функции приспособленности (соответствия) для каждой из ее хромосом. Функция приспособленности определяется через целевую функцию путем ее инвертирования (целевая функция минимизируется, а функция приспособленности максимизируется). Для задач максимизации значение функции приспособленности i-го члена вычисляется как величина, обратная целевой функции в i-ой точке. Обычно применяют строго положительную целевую функцию. Другая возможная мера приспособленности использовать ранжирование (классификацию) членов популяции. В этом случае целевая функция может быть вычислена не очень точно при условии, если она обеспечивает правильное ранжирование.
3. Селекция. Алгоритм селекции
выбирает из членов популяции (хромосом),
какие из них должны принять участие в
качестве родителей с целью создания
потомства для следующего поколения.
Обычно вероятность отбора хромосом для
этой цели пропорциональна присущей
им степени приспособленности.
Основная идея отбора состоит в том,
чтобы членам с степенью приспособленности
выше средней позволить размножаться
и тем самым заменить члены со степенью
приспособленности ниже средней. Родители
(хромосомы) отбираются, используя метод
колеса рулетки, как показано на рис. 4.
Каждому родителю может быть сопоставлен
сектор колеса рулетки, величина которого
устанавливается пропорциональной
степени приспособленности данного
родителя (данной хромосомы). Поэтому,
чем больше степень приспособленности,
тем больше сектор на колесе рулетки.
Все колесо рулетки соответствует 1, т.е.
накопленной сумме вероятностей
отбора всех родителей (всех хромосом)
рассматриваемой популяции
.
Каждому i-му родителю
соответствует сектор колеса, определяемый
в данном случае как
,где
- степень приспособленности i-го
родителя,
-
вероятность отбора (селекции) i-го
родителя,
-
значение i-ой хромосомы.
Отбор родителя может быть представлен
как результат поворота колеса рулетки,
если «выигравший», т.е. выбранный родитель
относится к выпавшему сектору этого
колеса. Очевидно, чем больше сектор, тем
больше вероятность победы соответствующей
хромосомы. Поэтому вероятность выбора
данного родителя оказывается
пропорциональной степени ее
приспособленности. Если всю окружность
колеса рулетки представить в виде
цифрового интервала [0,1], то выбор родителя
можно отождествить с выбором числа из
интервала [a,b],
где a и b
обозначают соответственно начало и
окончание фрагмента окружности,
соответствующей этому сектору колеса;
очевидно, что
.
В этом случае выбор с помощью колеса
рулетки сводится к выбору числа из
интервала [0,1], которое соответствует
конкретной точке на окружности колеса.
Так для примера на рис. 4 есть четыре
кандидата P1, P2,
P3 и P4 на
выбор в качестве родителей, имеющих
вероятность отбора, полученную с помощью
степени приспособленности, 0.5, 0.3, 0.15 и
0.05 соответственно. Для этого примера,
если колесо рулетки поворачивается
последовательно четыре раза, P1
может быть выбран дважды, P2
и P3 один раз и P4
ни разу.
4
.
Скрещивание. Операторы скрещивания
генерируют новые хромосомы, которые,
надеются, сохранят хорошие свойства от
предыдущей генерации. Операция скрещивания
обычно применяется к выбранной паре
родителей с вероятностью, равной
скорости скрещивания. При одноточечном
скрещивании точка скрещивания в
генетическом коде выбирается случайным
образом, и две хромосомы-родители
обмениваются своими последовательностями
бит, расположеннымисправа от этой точки.
При двухточечном скрещивании выбираются
две точки скрещивания и части
последовательностей хромосом,
расположенные между двумя этими точками,
обмениваются местами. В результате
такого обмена получают двух детей от
этих родителей. Фактически родители
переносят фрагменты своих собственных
хромосом на хромосомы своих детей. При
этом такие дети, надеются, способны
превосходить по степени приспособленности
своих родителей, если они получили
хорошие гены от обоих родителей.
6
.Мутация.
Оператор мутации может создать
самопроизвольно новые хромосомы. Самый
распространенный метод случайным
образом изменять биты в генах потомков,
например с 0 на 1с весьма небольшой
вероятностью, определяемой скоростью
мутации. Мутация предотвращает
сходимость популяции к локальному
минимуму. Скорость мутации должна быть
невысокой, чтобы не потерять хорошие
гены. Мутация обеспечивает защиту от
слишком раннего завершения алгоритма
(в случае выравнивания всех хромосом и
целевой функции). Процесс репродукции
очередных поколений продолжается до
тех пор, пока все потомки не будут иметь
примерно одну ту же степень
приспособленности. В ряде случаев, все
потомки, в конце концов, имеют одну и
ту же генетическую структуру (одни и те
же степени приспособленности), которая
представляет глобальный минимум. В
других случаях может быть извлечено
несколько решений, называемых кластерами.
В последнем случае проектировщик системы
должен сам принять решение, какое из
них считать наилучшим решением.Заметим,
что выше было дано только лишь общее
описание основных черт генетического
алгоритма. Конкретные его детали весьма
отличаются от описанных выше.
Алгоритм. Пример простого генетического алгоритма для задачи максимизации состоит из следующих этапов (рис. 4,а):
1.Инициализировать популяцию с генерируемыми случайным образом особями (решениями) и вычислить значение функции (степень) приспособленности для каждой особи.
2.а) Отобрать из популяции два члена с вероятностью, пропорциональной их степени приспособленности.
б) Осуществить скрещивание с вероятностью, равной скорости скрещивания.
в) Осуществить мутацию с вероятностью, равной скорости мутации.
г) Повторять этапы с а) до г) до тех пор, пока число членов не будет достаточно, чтобы сформировать следующее поколение.
3. Повторять этапы 2 и 3 до тех пор, пока не будут удовлетворяться условия останова алгоритма.
Если скорость мутации высокая (выше 0,1), эффективность алгоритма будет такая же плохая, как в случае использования слепого случайного поиска.
