
- •Интеллектуальные системы. Основные классы систем и задач. Понятие иис
- •Критерии интеллектуальности ис
- •История развития иис
- •Классификация задач, решаемых иис
- •Классы иис
- •Символьная обработка и вычислительный интеллект в задачах искусственного интеллекта. Символьная обработка в задачах искусственного интеллекта
- •Вычислительный интеллект в задачах искусственного интеллекта
- •Экспертные системы. Архитектура систем. Экспертные системы
- •Архитектура экспертной системы
- •Архитектура нечеткой экспертной системы.
- •Архитектура нейронной экспертной системы.
- •Архитектура мягкой экспертной системы.
- •Экспертная деятельность
- •Вычисление нечеткой импликации:
- •Архитектура нечёткой экспертной системы
- •Искусственная нейронная сеть. Математическая модель нейрона.
- •Функция активации. Виды нейронных сетей. Функция активации.
- •Виды нейронных сетей.
- •Нс без обратных связей
- •Полносвязные сети
- •Обучение нс. Решение задачи классификации. Обучение нс
- •Решение задачи классификации
- •Обучение нс. Решение задачи кластеризации.
- •Обучение нс. Решение задачи аппроксимации.
- •Нейронная сеть как универсальный аппроксиматор.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Линейно-сепарабельные задачи.
- •Нейронная сеть как универсальный аппроксиматор.
- •Сети Кохонена. Алгоритм обучения «победитель забирает все» Сети Кохонена
- •Алгоритм обучения «победитель забирает все»
- •Дельта-правило в машинном обучении
- •Алгоритм обратного распространения ошибки.
- •Архитектура нейронной экспертной системы
- •Эволюционные вычисления. Классы эволюционных вычислений.
- •История эволюционных вычислений
- •Классы эволюционных вычислений.
- •Обобщение идей эволюционных вычислений
- •Понятие генетического алгоритма.
- •3 Основные положения в теории эволюции (Теория «Происхождения Видов» 1859г. Дарвина):
- •Кодировка хромосом. Оператор отбора.
- •Операторы рекомбинации и мутации. Оператор скрещивания (оператор кроссовера)
- •Оператор мутации
- •Сходимость га.
- •Теорема схем.
- •Гибридные интеллектуальные системы.
- •Методы гибридизации.
- •Способ 1
- •Способ 2 (метод -срезов)
- •Понятия t-нормы и s–конормы.
- •Общие свойства t – норм и s — конорм
- •Пары норм и конорм
- •Определения и-или-нейронов и нечеткой нейронной сети.
- •Нечеткая нейронная сеть архитектуры anfis
- •Пример функционирования нечеткого нейронного контроллера
- •Определить входные переменные.
- •Пример. Нечёткий регулятор для стиральной машины (архитектура anfis)
- •Алгоритмы обучения для неч-ой нейр-ой сети контроллера
- •Нечёткий контроллер на основе нейронной сети (nnflc).
- •Архитектура anfis (адаптивная нейронная сеть, основанная на системе нечёткого вывода).
- •Нейронная сеть для нечётких (nndfr)
- •Нечёткие нейронные сети с генетической настройкой.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Моделирование линейного нейрона
- •Моделирование многослойного перцептрона
- •Моделирование сети Кохонена
- •Пример генетической оптимизации при решении задач
Алгоритм обучения «победитель забирает все»
Задача кластеризации подразумевает решение следующих подзадач:
Множество объектов задаётся своими атрибутами.
Объекты разбиваются на группы или кластеры по принципу подобия.
Система кластеров образует систему классов или понятий.
Формирование системы классов является задачей кластеризации и успешно решается НС особого вида – ассоциативными картами Т. Кохонена.
Задача кластеризации решается алгоритмом «без учителя» «победитель забирает всё».
Кластерами называют группы объектов, объединённые по степени похожести.
Задача кластеризации в нейронных сетях строится следующим образом: для каждого объекта, признаки которого подаются на вход, осуществляется сравнение с вектором весов, в результате определяется нейрон, веса которого максимально похожи на данный вход. Такой нейрон объявляется победителем, его веса корректируются, а в результате разные нейроны настраиваются на разные группы входных векторов. В результате входные данные распределяются между нейронами в соответствии с мерой похожести.
Рассмотрим однослойную нейронную сеть. Пусть необходимо выделить m кластеров. Решая задачу кластеризации, используют нормализованные вектора, т.е.
Wi = Wi / ||W||.
Затем расстояния между векторами ||X - Wi|| сравниваются и ищется минимальное. Найденный минимальный выход объявляется победителем. Обозначим его Wr. В дальнейшем модифицируются только веса нейрона-победителя:
Wr
= Wr
+
||
X-Wr||,
Wr = Wr / || Wr||, а веса остальных нейронов остаются постоянными:
Wi
= Wi,
oi
= 0, i
0.
Таким образом, входные данные сортируются по классам с помощью меры похожести, в качестве которой выступает расстояние между векторами:
Wr = Wr + || X-Wr ||.
Финалом работы алгоритма «победитель забирает все» является набор векторов, каждый из которых указывает на центр гравитации кластера.
Дельта-правило в машинном обучении
Дельта-правило – метод обучения перцептрона по принципу градиентного спуска по поверхности ошибки.
Алгоритм обучения нейронных сетей по дельта-правилам является итерационным, т.е. результат достигается за несколько прогонов, итераций алгоритма. Каждый прогон называют эпохой.
Условие окончания алгоритма – либо достижение качества решения, либо выполнение заданного количества эпох.
Дельтой в алгоритме называют коэффициент приращения весов, который для однослойной сети представляет собой разницу между желаемым значением выхода и вычисленным.
Рассмотрим алгоритм обучения НС. Структура обучающей выборки:
X = (X1, X2, …, Xn), O = (O1, O2, … , Om)
Пусть для обучения нам представлена выборка
XK,
YK, K
= 1, …, K, O
{1,
0}
Введём k = 1; k – номер образца.
Случайным образом инициализируем матрицу весов Wij; E = 0, где E – ошибка.
Начнём обучение (на модели), для чего посчитаем все выходы (для любого Oi)
Рассчитаем разницу между текущим и желаемым значениями выходов, т.е. вычислим δ (Yi – Oi), для каждого i. Yi – желаемый выход, Oi – полученный выход.
Изменим веса по правилу
для каждого Wi, Yi., где
– некоторый уровень обучения, шаг изменения.
Вычислим накопленную по всем эпохам ошибку
, выберем следующий образец из обучающей выборки k = k + 1.
Проанализируем текущий результат. Если k ≥ K, то следует учесть ошибку. Если значение ошибки E меньше заданного уровня ξ, то достигнуто окончание обучения. Если накопленная ошибка больше ξ, то установим k = 1, E = 0 и вернёмся к шагу 3, т.е. продолжим обучение.