
- •Интеллектуальные системы. Основные классы систем и задач. Понятие иис
- •Критерии интеллектуальности ис
- •История развития иис
- •Классификация задач, решаемых иис
- •Классы иис
- •Символьная обработка и вычислительный интеллект в задачах искусственного интеллекта. Символьная обработка в задачах искусственного интеллекта
- •Вычислительный интеллект в задачах искусственного интеллекта
- •Экспертные системы. Архитектура систем. Экспертные системы
- •Архитектура экспертной системы
- •Архитектура нечеткой экспертной системы.
- •Архитектура нейронной экспертной системы.
- •Архитектура мягкой экспертной системы.
- •Экспертная деятельность
- •Вычисление нечеткой импликации:
- •Архитектура нечёткой экспертной системы
- •Искусственная нейронная сеть. Математическая модель нейрона.
- •Функция активации. Виды нейронных сетей. Функция активации.
- •Виды нейронных сетей.
- •Нс без обратных связей
- •Полносвязные сети
- •Обучение нс. Решение задачи классификации. Обучение нс
- •Решение задачи классификации
- •Обучение нс. Решение задачи кластеризации.
- •Обучение нс. Решение задачи аппроксимации.
- •Нейронная сеть как универсальный аппроксиматор.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Линейно-сепарабельные задачи.
- •Нейронная сеть как универсальный аппроксиматор.
- •Сети Кохонена. Алгоритм обучения «победитель забирает все» Сети Кохонена
- •Алгоритм обучения «победитель забирает все»
- •Дельта-правило в машинном обучении
- •Алгоритм обратного распространения ошибки.
- •Архитектура нейронной экспертной системы
- •Эволюционные вычисления. Классы эволюционных вычислений.
- •История эволюционных вычислений
- •Классы эволюционных вычислений.
- •Обобщение идей эволюционных вычислений
- •Понятие генетического алгоритма.
- •3 Основные положения в теории эволюции (Теория «Происхождения Видов» 1859г. Дарвина):
- •Кодировка хромосом. Оператор отбора.
- •Операторы рекомбинации и мутации. Оператор скрещивания (оператор кроссовера)
- •Оператор мутации
- •Сходимость га.
- •Теорема схем.
- •Гибридные интеллектуальные системы.
- •Методы гибридизации.
- •Способ 1
- •Способ 2 (метод -срезов)
- •Понятия t-нормы и s–конормы.
- •Общие свойства t – норм и s — конорм
- •Пары норм и конорм
- •Определения и-или-нейронов и нечеткой нейронной сети.
- •Нечеткая нейронная сеть архитектуры anfis
- •Пример функционирования нечеткого нейронного контроллера
- •Определить входные переменные.
- •Пример. Нечёткий регулятор для стиральной машины (архитектура anfis)
- •Алгоритмы обучения для неч-ой нейр-ой сети контроллера
- •Нечёткий контроллер на основе нейронной сети (nnflc).
- •Архитектура anfis (адаптивная нейронная сеть, основанная на системе нечёткого вывода).
- •Нейронная сеть для нечётких (nndfr)
- •Нечёткие нейронные сети с генетической настройкой.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Моделирование линейного нейрона
- •Моделирование многослойного перцептрона
- •Моделирование сети Кохонена
- •Пример генетической оптимизации при решении задач
Определить входные переменные.
преобразовать четкие значения входных переменных в нечёткие использовать правила преобразования нечётких выходных значений в нечёткие значения управляющих переменных. (Правила в виде если … то …, например, если давление высокое, то кран закрыть. Подчеркнуто – имена объектных переменных, курсив – нечёткие значения переменных)
преобразовать нечёткие значения управляющих переменных в четкие.
Пример. Нечёткий регулятор для стиральной машины (архитектура anfis)
Задача нечёткого моделирования – это настройка функций принадлежности – задачей оптимизации. Самый простой подход к настройке функций принадлежности заключается в том, что выбирают определенную параметризованную функцию формы и подбирают ее параметры на основе обучения нейронной сети.
Рассмотрим простой контроллер с тремя нечёткими правилами вывода в БЗ.
R1: ЕСЛИ <количество_белья> = <много> И <температура_воды> = <высокая> И <загрязненность> = <высокая>
ТО <длительность> = <высокая>;
R2: ЕСЛИ <количество_белья> = <много> И <температура_воды> = <высокая> И <загрязненность> = <низкая>
ТО <длительность> is <низкая;
R3: ЕСЛИ <количество_белья> = <мало> И <температура_воды> = <низкая> И <загрязненность> = <низкая>
ТО <длительность> = <малая>;
Зададим следующие функции формы для правил.
Пусть выражение <количество_белья> = <мало> соответствует функции L1(x), а <количество_белья> = <много> – функции H1(x).
L1(x) = 1/(1 + exp(b1(x - c1)),
H1(x) = 1/(1+exp(-b1(x - c1)),
причем L1(x) + H1(x) = 1.
Аналогично для выражения <температура_воды> = <высокая> будем использовать функцию L2(t), а для <температура_воды> = <низкая> – функцию H2(t).
L2(t)= 1/(1 + exp(b2(t - c2)),
H2(t)= 1/(1 + exp(-b2(t - c2)),
причем L2(t) + H2(t) =1.
Для выражения <загрязненность> = <высокая> определим функцию L3(z) и для <загрязненность> = <низкая> – функцию H3(z).
L3(z)= 1/(1 + exp(b3(z - c3)),
H3(z)= 1/(1 + exp(-b3(z - c3)),
L3(z) + H3(z) =1.
Для выходов <длительность> = <высокая> и <длительность> = <низкая> аналогично определим функции
L4(y)= 1/(1 + exp(b4(y - c4)),
H4(y)= 1/(1 + exp(-b4(y - c4)),
то есть L4(x) + H4(x) = 1.
Для четких значений <количество_белья>, <температура_воды> и <загрязненность>: A1, A2, A3 определим релевантность (силу) правил :
H1 H2 H3,
H1 H2 L3,
L1 L2 L3.
Выходы по каждому из правил определяется с помощью обратных функций принадлежности правых частей правил.
Y1= H4-1(),
Y2= H4-1(),
Y2= L4-1().
Общий выход из системы нечётких правил определяется как
y0 = (y1 + y1 + y1)/ ( + + ).
Далее построим нечёткую нейронную сеть, идентичную системе нечёткого вывода и обучим функции принадлежности анцедента (причина) и консеквента (следствие) правил.
Слой 1. Выходы узлов – это степени, c которыми заданные входы удовлетворяют функциям принадлежности, ассоциированным с этими узлами.
Слой 2. Каждый узел вычисляет силу правила.
Выход верхнего нейрона H1 H2 H3 ,
выход среднего нейрона H1 H2 L3,
а выход нижнего нейрона L1 L2 L3.
Все узлы помечены T, так как можно выбрать любую T-норму для моделирования логического И. Узлы этого слоя называются узлами правил.
Слой 3. Каждый узел помечен N, чтобы показать, что узлы нормализуют силу правил i= /( + + ).
Слой 4. Выход нейронов – это произведение нормализованной силы правила и индивидуального выхода соответствующего правила.
Y1 = H4-1(), Y2 = H4-1(), Y2 = L4-1().
Слой 5. Одиночный выходной нейрон вычисляет выход сети
y0 = Y1 + Y2 + Y2.