- •1.Коньюнкция условий и разбиение пространства входа.
- •Композиция нечетких отношений.
- •Нечеткое инверсное управление и нечеткая система управления с внутренней моделью
- •Алгоритм жесткой кластеризации.
- •Операции над нечеткими множествами. Модификаторы.
- •8. Проектирование нечетких контроллеров (метод Мамдани)
- •2. Нечеткий контроллер с двумя входами и одним выходом
- •9.Нечеткая система управления с плановым изменением коэффициента.
- •10. Оценка параметров заключений по (мнк)
- •11. Адаптивные нейронные нечеткие системы инференции (anfis)
- •12.Импликация Мамдани. Внешнее произведение.Таблица импликаци
- •13. Нечеткая идентификация. Структура и параметры.
- •14. Нечеткий логический вывод для нескольких правил и нескольких входов.
- •Несколько входов (многомерная лингвистическая модель)
- •16. Функциональная схема нечеткого контроллера
- •17. Отношения между нечеткими множествами
- •18. Алгоритм нечеткой кластеризации с-средних
- •19. Моделирование статических объектов упр-я как аппроксимация функций с помощью нейронных сетей (есть только для динамических объектов)((((((((
- •20. Анализ устойчивости тс модели объекта управления в пространстве состояний.
- •22. Нечеткий логический вывод с исп-м отношений. Пример
- •24. Визуализация алгоритма нечеткого логического вывода.
- •25. Понятия о нечетких множествах
- •26. Обучение нейронной сети. Общие сведения.
- •27. Упрощение алгоритма нечеткого логического вывода.
- •28. Обратное распространение ошибки
- •29. Визуализация нечеткого логического вывода.Аккумуляция.
- •30. Параметры алгоритма с-средних
- •31. Проектирование нечетких контроллеров (метод Мамдани)
- •32. Нечеткая логика. Логические связки.
- •33.Проектирование нечетких контроллеров(метод Мамдани). Многомерный нечеткий контроллер.
- •34. Алгоритм обучения anfis
- •35. Максиминная композиция нечетких отношений. Внутренне произведение. Пример.
- •36. Преобразование вход-выход. Кривая управления. Пов-ть управления.
- •37. Табличное изменение коэффициента усиления (супервизорное управление)
- •38. Алгоритм нечеткой кластеризации Густафсона–Кесселя.
- •39. Генетические алгоритмы
- •40. Извлечение правил с помощью кластеризации
- •41.Нечеткий сумматор для контроллеров с 2 входами и 1 выходом
- •42. Нейросетевое прямое и косвенное адаптивное управление с эталонной моделью
- •43. Обратное распространение ошибки. Обновление весовых коэф-в скрытых слоев. Локальные градиенты.
- •44. Модель Такаги-Сугено как квазилинейное устройство
- •45. Контроллер типа Такаги-Сугено
- •46. Нейросетевое управление с адаптивной линеаризацией обратной связью
- •48. Такаги-Сугено модель оу в пространстве состояний
- •49. Нечеткие множества. Синглтоны и лингвистические переменные.
- •50. Моделирование нелинейных динамических оу с помощью нейронных сетей
- •51. Структура интеллектуальной системы управления
- •52. Многослойная нейронная сеть
- •53. Дефаззификация. Методы дефаззификации.
- •54. Нейронная сеть с радиальными базисными функциями
- •56. Синтез нечеткой обратной связи
- •57. Линейные матричные неравенства, основные понятия.
- •58. Аппроксимация функций (моделирование) с помощью нейронных сетей (персептронов)
- •59. Классификация генетических нечетких систем
- •60. Синтез нейронных нечетких сетей. Структура anfis
- •19. Моделирование статических объектов управления как аппроксимация функций с помощью нейронных сетей.
- •Адаптивные нейронные нечеткие системы интерференции (anfis). . Синтез нечетких нейронных сетей
- •5.1. Введение
- •Адаптивные нейронечеткие системы инференции (anfis)
- •Импликация Мамдани. Внешнее произведение. Таблица импликации.
- •Нечеткая идентификация. Структура и параметры
- •Нечеткий логический вывод для нескольких правил и нескольких входов.
- •1. Настройка пид-регулятора
- •3. Перенос параметров пид-регулятора в нечеткий контроллер
- •Анализ устойчивости тс модели объекта управления в пространстве состояний. Анализ устойчивости тс модели объекта
- •1. Настройка пид-регулятора
- •Нечеткий логический вывод (инференция). Пример.
- •Визуализация нечеткого логического вывода. Агрегирование условий и активизация заключений.
- •Математическая модель нейрона. Математическая модель нейрона
- •Нечеткое управление с предсказанием.
- •Визуализация нечеткого логического вывода. Аккумуляция заключений.
- •5.1. Введение
- •Алгоритм обучения anfis
- •Максиминная композиция нечетких отношений. Внутреннее произведение. Пример.
- •Преобразование вход-выход для нечетких контроллеров. Кривая управления и поверхность управления.
- •2.4. Преобразование вход-выход
- •Табличное изменениекоэффициентаусиления (супервизорное управление).
- •2.8. Табличное изменение коэффициента усиления (супервизорное управление)
- •Алгоритм нечеткой кластеризации Густафсона-Кесселя.
- •Генетические алгоритмы. Генетические алгоритмы
- •Модель Такаги-Сугено как квазилинейное (аффинное) устройство. Модель Такаги-Сугено как квазилинейное устройство
- •Контроллер типа Такаги-Сугено.
- •Деффазификация. Методы деффазификации.
- •2.2.5. Дефаззификация
- •Теорема б универсальной аппроксимации.
- •Такаги-Сугено модель объекта управления в пространстве состояний.
- •Табличный контроллер. Билинейная интерполяция.
- •2.3. Табличный контроллер
- •Моделирование нелинейных динамических объектов управления с помощью нейронных сетей.
- •Моделирование нелинейных динамических процессов (объектов)
- •Упрощение алгоритма нечеткого логического вывода.
- •Обратное распространение ошибки. Обновление весовых коэффициентов выходного слоя.
- •4.6. Обратное распространение ошибки
- •Структура интеллектуальной системы управления.
- •Многослойная нейронная сеть. Многослойная нейронная сеть
- •5.1. Введение
- •Структура anfis
13. Нечеткая идентификация. Структура и параметры.
Построение нечетких моделей представляет одну из задач, которые решаются в рамках метода, называемого извлечением информации (data mining). Под этим названием понимается процесс извлечения информации из набора данных (исходных данных). Двумя основными источниками информации для построении нечетких моделей являются априорные сведения (знания) и данные эксперимента (измерения). Априорные знания могут быть скорее аппроксимирующего (приближенного) характера (качественные знания, эвристика, т.е. знания эксперта на основе собственного опыта). Эти знания берут свое начало от экспертов, т.е. от проектировщиков объектов управления, операторов и т.п. В этом смысле нечеткие модели рассматривают как простые нечеткие экспертные системы. Для большинства ОУ данные доступны как записи данных о работе (функционировании) ОУ или могут быть проведены специальные эксперименты по идентификации, чтобы получить соответствующие данные. Построение нечетких моделей с помощью данных затрагивает (применяет) методы, базирующиеся на нечеткой логике и приближенных (приблизительных) рассуждениях, но также использует идеи, берущие свое начало в области нейронных систем, анализе данных, идентификации традиционных (четких) систем. Получение или настройка нечетких моделей из найденных экспериментальным путем входных и выходных сигналов объекта (данных) определяется как нечеткая идентификация.
Можно отметить два основных подхода, используемых для интеграции знаний и данных:
1. Знания экспертов, выраженные в словесной форме, преобразуют в совокупность правил если-то. Параметры в этой структуре (функции принадлежности, позиции синглтонов заключений или параметры заключений) затем могут быть уточнены (точно настроены) за счет использования данных. При этом некоторые алгоритмы настройки используют тот факт, что с вычислительной точки зрения нечеткую модель можно трактовать как многослойную структуру (сеть), подобную искусственным нейронным сетям, по отношению к которым применимы стандартные алгоритмы обучения. Такой подход определяется как нейро-нечеткое моделирование.
2. Если отсутствуют априорные сведения об исследуемой (рассматриваемой) системе, т.е. те сведения, которые вначале используются для формулировки правил, то нечеткая модель конструируется из данных. При этом предполагается, что извлеченные из данных правила и функции принадлежности могут обеспечить апостериорную (на основе опыта, эмпирическую) интерпретацию поведения системы. Эксперт может сопоставить эту информацию с своими собственными знаниями, может модифицировать правила, или добавить новые, и может запланировать проведение новых экспериментов, чтобы получить более полную информацию. Этот подход определяется как извлечение правил из данных. Нечеткая кластеризация является одной из технологий, которая часто применяется для этих целей.
Рассмотренные технологии, естественно, могут комбинироваться (объединятся, сочетаться) в зависимости от конкретных приложений.
Структура и параметры
Относительно проектирования нечетких моделей (а также и других моделей) различают два субъекта: структуру и параметры модели. Структура определяет гибкость модели с точки зрения аппроксимации (неизвестных) преобразований вход-выход. Параметры затем настраиваются, чтобы соответствовать имеющимся в распоряжении данным. Модель с «богатой» структурой в состоянии аппроксимировать более сложные функции, но в то же время имеет плохие свойства обобщения. Хорошие свойства обобщения означают, что модель, настроенная при одном комплекте данных, также хорошо работает при другом наборе данных для того же самого объекта.В нечетком моделировании выбор структуры связан со следующими моментами:
Переменные входа и выхода. В сложных системах не всегда ясно видно, какие переменные должны быть использованы как входные сигналы системы. В случае динамических систем надо определится с порядком системы. Для модели НАРВ (NARX) (нелинейной авторегрессионной с внешним входом) имеем уравнение
,
где
и
представляют собой настоящие и прошлые
значения выходов и входов модели
соответственно, это означает выбор
целых чисел
,
,
определяющих смещение входных и выходных
последовательностей в сторону
запаздывания. Априорные сведения,
способность проникнуть в сущность
свойств объекта управления и цель
моделирования - вот типичные источники
информации для такого выбора. В ряде
случаев возможен диктуемый данными
автоматический выбор путем сравнения
различных вариантов в рамках некоторого
критерия качества.
Структура правил. Выбор касается типа модели (лингвистическая, синглтонная, Такаги-Сугено) и формат антецедентов. Важными аспектами при этом являются цель моделирования и вид доступных данных.
Число и форма функций принадлежности для каждой переменной. Этот выбор определяет степень (уровень) детализации (гранулярности) модели. И снова цель моделирования и специфика доступных данных оказывают влияние на этот выбор. Методы автоматизации, определяемые данными (data-driven), могут быть использованы для добавления или удаления функций принадлежности из модели.
Тип механизма нечеткого логического вывода (инференции), операторов связок, метода дефаззификации. Этот выбор ограничивается типом нечеткой модели (Мамдани, Такаги-Сугено). В рамках этих моделей, однако, остается некоторая свобода выбора, например, выбор операторов конъюнкции и т.п. Чтобы облегчить оптимизацию нечетких моделей с помощью данных (обучение), часто предпочитают использование операторов (алгебраические произведение и сумма), позволяющих осуществлять дифференцирование выражений для выходных сигналов, вместо стандартных операторов min и max.
При фиксированной структуре свойства нечеткой модели можно улучшать за счет настройки ее параметров. Настраиваемыми параметрами лингвистических моделей являются параметры функций принадлежности антецедентов и консеквентов (определяющие их форму и положение) и правила (определяющие связь между антецедентами и консеквентами в нечетких диапазонах). В нечетких моделях, основанных на отношениях, эта связь кодируется в нечетких отношениях. Модели Такаги-Сугено имеют параметры в функциях принадлежности антецедентов и в функциях консеквентов (a и b для аффинных ТС моделей).
Проектирование, базирующееся на знаниях
Чтобы спроектировать лингвистическую нечеткую модель, используя доступные знания экспертов, надо проделать следующие шаги:
1.Выбрать переменные входа и выхода, структуру правил, и методы инференции и дефаззификации.
2.Решить вопрос о числе лингвистических терм для каждой переменной и выбрать соответствующие функции принадлежности.
3.Сформулировать имеющиеся (доступные) знания в терминах правил Если-То.
4.Протестировать полученную модель (как правило, используя данные). Если модель не обладает желаемыми свойствами, то надо повторить (итерировать) все выше описанные шаги.
Надо отметить, что успешный результат этого метода зависит от рассматриваемой задачи и от объема и качества имеющихся данных. Для некоторых задач проектирование на основе знаний быстро приводит к приемлемым моделям, в то время как в других случаях оно может быть весьма трудоемким, занимающим много времени и неэффективным (особенно тогда, когда осуществляется ручная настройка параметров модели). Поэтому целесообразно комбинировать проектирование на основе знаний с настройкой параметров моделей с помощью данных. Следующие параграфы содержат описание нескольких методов для настройки параметров нечетких моделей с использованием данных.
Сбор данных и настройка нечетких моделей
Пусть имеется множество из K
пар данных (xl,
yi),
l=
,
где xl
– r- векторы входа и
yl
–скалярные выходы. Из доступных
последовательностей данных сформируем
регрессионную матрицу X
размерности
,
включающую как строки векторы входа
x’l
и K – вектор y,
содержащий выходы yi
,причем
,
K >>r,
так что
l- строка регрессионной
матрицы включает значения l
-ой переменной входа xl,
соответствующие первой, второй , … , и
наконец, K паре данных.
Применительно к объекту с r
входными сигналами
и одним выходом y
вектор
является его входным вектором, Для
случая одного входа (r=1)
регрессионная матрица X
вырождается в вектор-строку
.
В целях идентификации часто путем
объединения X и y
образуют матрицу данных размерности
,
Z=[X; y],
называемую обучающими данными.
Каждый вектор-столбец элемент этой
матрицы zk
=
можно рассматривать как точку
(объект) данных в (r+1)-мерном
пространстве.
