
- •Интеллектуальные системы. Основные классы систем и задач. Понятие иис
- •Критерии интеллектуальности ис
- •История развития иис
- •Классификация задач, решаемых иис
- •Классы иис
- •Символьная обработка и вычислительный интеллект в задачах искусственного интеллекта. Символьная обработка в задачах искусственного интеллекта
- •Вычислительный интеллект в задачах искусственного интеллекта
- •Экспертные системы. Архитектура систем. Экспертные системы
- •Архитектура экспертной системы
- •Архитектура нечеткой экспертной системы.
- •Архитектура нейронной экспертной системы.
- •Архитектура мягкой экспертной системы.
- •Экспертная деятельность
- •Вычисление нечеткой импликации:
- •Архитектура нечёткой экспертной системы
- •Искусственная нейронная сеть. Математическая модель нейрона.
- •Функция активации. Виды нейронных сетей. Функция активации.
- •Виды нейронных сетей.
- •Нс без обратных связей
- •Полносвязные сети
- •Обучение нс. Решение задачи классификации. Обучение нс
- •Решение задачи классификации
- •Обучение нс. Решение задачи кластеризации.
- •Обучение нс. Решение задачи аппроксимации.
- •Нейронная сеть как универсальный аппроксиматор.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Линейно-сепарабельные задачи.
- •Нейронная сеть как универсальный аппроксиматор.
- •Сети Кохонена. Алгоритм обучения «победитель забирает все» Сети Кохонена
- •Алгоритм обучения «победитель забирает все»
- •Дельта-правило в машинном обучении
- •Алгоритм обратного распространения ошибки.
- •Архитектура нейронной экспертной системы
- •Эволюционные вычисления. Классы эволюционных вычислений.
- •История эволюционных вычислений
- •Классы эволюционных вычислений.
- •Обобщение идей эволюционных вычислений
- •Понятие генетического алгоритма.
- •3 Основные положения в теории эволюции (Теория «Происхождения Видов» 1859г. Дарвина):
- •Кодировка хромосом. Оператор отбора.
- •Операторы рекомбинации и мутации. Оператор скрещивания (оператор кроссовера)
- •Оператор мутации
- •Сходимость га.
- •Теорема схем.
- •Гибридные интеллектуальные системы.
- •Методы гибридизации.
- •Способ 1
- •Способ 2 (метод -срезов)
- •Понятия t-нормы и s–конормы.
- •Общие свойства t – норм и s — конорм
- •Пары норм и конорм
- •Определения и-или-нейронов и нечеткой нейронной сети.
- •Нечеткая нейронная сеть архитектуры anfis
- •Пример функционирования нечеткого нейронного контроллера
- •Определить входные переменные.
- •Пример. Нечёткий регулятор для стиральной машины (архитектура anfis)
- •Алгоритмы обучения для неч-ой нейр-ой сети контроллера
- •Нечёткий контроллер на основе нейронной сети (nnflc).
- •Архитектура anfis (адаптивная нейронная сеть, основанная на системе нечёткого вывода).
- •Нейронная сеть для нечётких (nndfr)
- •Нечёткие нейронные сети с генетической настройкой.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Моделирование линейного нейрона
- •Моделирование многослойного перцептрона
- •Моделирование сети Кохонена
- •Пример генетической оптимизации при решении задач
Оператор мутации
Оператор мутации с определённой вероятностью заменяет случайный бит на противоположный. Вероятность мутации намного меньше, чем вероятность кроссовера.
Сходимость га.
Схема хромосомы – это строка длины l (длина любой строки популяции), состоящая из знаков алфавита {0; 1; *}, где знак * обозначает неопределенный символ.
Порядок схемы – число определенных битов («0» или «1»).
Длина схемы
– расстояние между крайними определенными
битами в схеме
.
Строящими блоками называют схемы, обладающие высокой приспособленностью, низким порядком и короткой длиной.
Сходимость алгоритма заключается в том, что он сходится к глобальному оптимуму. Стандартный ГА сходится. Дж. Голланд (1992) показал, что, если ГА явным образом обрабатывает n строк в каждом поколении, то он неявно обрабатывает порядка n3 коротких схем низкого порядка и с высокой приспособленностью. Это явление называется неявным параллелизмом. ГА экспоненциально увеличивает число примеров полезных схем или строящих блоков. Данное утверждение известно как «теорема схем».
Острова – отдельные фрагменты популяции, оптимизируемые на определённом интервале времени автономным и обменивающиеся частями популяций с помощью определённого протокола.
Теорема схем.
Пусть t – номер поколения. H – число примеров полезной схемы, M(H, t) - число реализаций схемы H поколений t.
Количество представителей схемы H в следующем поколение t+1 зависит от действия операции селекции и будет равно
,
где
fср – средняя приспособленность популяции, f.
f(H) – средняя приспособленность тех строк в популяции, которые являются примерами H.
Отобранные представители полезной схемы H могут быть разрушены последующим кроссинговерам, при этом вероятность разрушения длинной последовательности больше, чем у короткой. Вероятность, что схема переживёт кроссовер не меньше:
Кроме кроссинговера разрушаемой операцией является операция мутации. Если вероятность мутации Pm, а порядок схемы O(H), то вероятность разрушения можно определить по формуле O(H)• Pm, тогда окончательно соотношение между поколениями будет следующими:
Таким образом, теорема схем утверждает сходимость генетического алгоритма к стандартному максимуму.
Общая сходимость генетического алгоритма к глобальному оптимуму не исключает обратного движения или деградации на отдельном участке развития генетического алгоритма.
Теорема о сходимости доказана только для стандартного генетического алгоритма, а для мобильного генетического алгоритма эволюционной стратегии сходимость не обеспечивается, поэтому в случае использования алгоритмов таких видов сходимость приводит только к рациональному, в лучшем случае, приемлемому решению. С учётом значительной вычислительной затратности генетического алгоритма их необходимо распараллелить, причём распараллеливание ведётся за счёт распределения различных фрагментов исходной популяции по вычислителя, в результате возникли так называемые вычислительные алгоритмы с использованием островов.
Гибридные интеллектуальные системы.
Гибридные системы предназначены для решения задач:
Осуществляет генетический блок
Оптимизации
Синтеза структуры и настройки параметров
Управления
Осуществляется на основе систем нечёткого вывода
Многокритериального выбора
Логического вывода
Осуществляется с помощью обучения нейронных сетей
Распознавания
Прогнозирования
Аппроксимации
Классификации и кластеризации
Обучения
Эффективность аппарата нейросетей определяется их аппроксимирующей способностью, причем НС являются универсальными функциональными аппроксиматорами. С помощью НС можно выразить любую непрерывную функциональную зависимость на основе обучения НС, без предварительной аналитической работы по выявлению правил зависимости выхода от входа.
Недостатком нейросетей является невозможность объяснить выходной результат, так как значения распределены по нейронам в виде значений коэффициентов весов.
Основной трудностью в применении нечётких экспертных систем служит необходимость явно сформулировать правила проблемной области в форме продукции. В нечётких экспертных системах легко построить объяснение результата в форме протокола рассуждений. Поэтому в настоящее время создаются гибридные технологии, сочетающие преимущества нечётких систем и нейронных сетей.
Выделяют 2 вида гибридизации:
на поверхностном уровне: гибридная система представляет собой совокупность элементов, каждый из которых реализует отдельный метод, и элементы взаимодействуют по входам/выходам.
глубинная гибридизация: системы используют обобщающий метод, заимствование различных идей разных методов, поэтому невозможно указать, за какой метод отвечает какой элемент. Глубинный уровень объединения предполагает создание новых методов, использующих понятия объединяемых базовых методов. Так, нечёткая нейронная сеть является представителем нового класса нейронных сетей, поскольку обучается как традиционная нейронная сеть, но способна осуществлять нечёткий логический вывод,