
- •Интеллектуальные системы. Основные классы систем и задач. Понятие иис
- •Критерии интеллектуальности ис
- •История развития иис
- •Классификация задач, решаемых иис
- •Классы иис
- •Символьная обработка и вычислительный интеллект в задачах искусственного интеллекта. Символьная обработка в задачах искусственного интеллекта
- •Вычислительный интеллект в задачах искусственного интеллекта
- •Экспертные системы. Архитектура систем. Экспертные системы
- •Архитектура экспертной системы
- •Архитектура нечеткой экспертной системы.
- •Архитектура нейронной экспертной системы.
- •Архитектура мягкой экспертной системы.
- •Экспертная деятельность
- •Вычисление нечеткой импликации:
- •Архитектура нечёткой экспертной системы
- •Искусственная нейронная сеть. Математическая модель нейрона.
- •Функция активации. Виды нейронных сетей. Функция активации.
- •Виды нейронных сетей.
- •Нс без обратных связей
- •Полносвязные сети
- •Обучение нс. Решение задачи классификации. Обучение нс
- •Решение задачи классификации
- •Обучение нс. Решение задачи кластеризации.
- •Обучение нс. Решение задачи аппроксимации.
- •Нейронная сеть как универсальный аппроксиматор.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Линейно-сепарабельные задачи.
- •Нейронная сеть как универсальный аппроксиматор.
- •Сети Кохонена. Алгоритм обучения «победитель забирает все» Сети Кохонена
- •Алгоритм обучения «победитель забирает все»
- •Дельта-правило в машинном обучении
- •Алгоритм обратного распространения ошибки.
- •Архитектура нейронной экспертной системы
- •Эволюционные вычисления. Классы эволюционных вычислений.
- •История эволюционных вычислений
- •Классы эволюционных вычислений.
- •Обобщение идей эволюционных вычислений
- •Понятие генетического алгоритма.
- •3 Основные положения в теории эволюции (Теория «Происхождения Видов» 1859г. Дарвина):
- •Кодировка хромосом. Оператор отбора.
- •Операторы рекомбинации и мутации. Оператор скрещивания (оператор кроссовера)
- •Оператор мутации
- •Сходимость га.
- •Теорема схем.
- •Гибридные интеллектуальные системы.
- •Методы гибридизации.
- •Способ 1
- •Способ 2 (метод -срезов)
- •Понятия t-нормы и s–конормы.
- •Общие свойства t – норм и s — конорм
- •Пары норм и конорм
- •Определения и-или-нейронов и нечеткой нейронной сети.
- •Нечеткая нейронная сеть архитектуры anfis
- •Пример функционирования нечеткого нейронного контроллера
- •Определить входные переменные.
- •Пример. Нечёткий регулятор для стиральной машины (архитектура anfis)
- •Алгоритмы обучения для неч-ой нейр-ой сети контроллера
- •Нечёткий контроллер на основе нейронной сети (nnflc).
- •Архитектура anfis (адаптивная нейронная сеть, основанная на системе нечёткого вывода).
- •Нейронная сеть для нечётких (nndfr)
- •Нечёткие нейронные сети с генетической настройкой.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Моделирование линейного нейрона
- •Моделирование многослойного перцептрона
- •Моделирование сети Кохонена
- •Пример генетической оптимизации при решении задач
Решение задачи классификации
Настройка
НС может рассматриваться как поиск
решения задачи классификации объектов,
описанных входными признаками, т.е. если
(< WT,
X >)
0, то объект относится к классу С1;
если (< WT,
X >) < 0, то к классу
С2. Тогда получаем НС
– классификатор, которая распознает
класс объектов С1, когда
на выходе 1, и класс С2,
когда на выходе 0.
Проблема классификации – это задача отнесения предъявленного объекта к одному из известных классов из определенного множества. На практике классификация объектов очень важна для распознавания образов, например, для распознавания рукописного текста, речи или изображений. Обучение часто сводится к формированию способности распознавать объекты проблемной области или классифицировать их.
Нейронные сети используют для решения задачи классификации, которые заключаются в следующем:
Каждый объект представлен множеством своих атрибутов.
Заранее задано множество классов, каждому классу заданы дополнительные значения атрибутов.
Для объекта-представителя необходимо определить классы.
Особенность решения задач классификации заключается в том, что она решается за счёт обучения.
Обучением в данном случае называют процесс изменения весов, в результате которого задача классификаций правильно решается на тестовой выборке. Качество решения задач классификации определяется полнотой обучающей выборки.
Задача классификации решается алгоритмом «с учителем».
Обучение нс. Решение задачи кластеризации.
Задача кластеризации подразумевает решение следующих подзадач:
Множество объектов задаётся своими атрибутами.
Объекты разбиваются на группы или кластеры по принципу подобия.
Система кластеров образует систему классов или понятий.
Формирование системы классов является задачей кластеризации и успешно решается НС особого вида – ассоциативными картами Т. Кохонена.
Задача классификации решается алгоритмом «с учителем», а задача кластеризации алгоритмом «без учителя».
Алгоритм победителя предназначен для обучения без учителя, т.е. решается задача кластеризации.
Кластерами называют группы объектов, объединённые по степени похожести.
Рисунок 4 Решение задачи кластеризации
Каждый объект в задаче кластеризации представлен своим набором признаков, следовательно, все объекты образуют множество точек признакового пространства. Точки с одинаковыми координатами расположены близко друг к другу, но данные точки имеют и похожие признаки, следовательно, компактное расположение точек в пространстве признаков позволяют судить о степени похожести объектов.
В пространстве можно построить меру расстояния, например, традиционную меру евклида, тогда похожие точки находятся на малом расстоянии, а непохожие – удалены друг от друга. Функция расстояния играет роль функции ошибки в алгоритмах обучения с учителем.
Задача кластеризации в нейронных сетях строится следующим образом: для каждого объекта, признаки которого подаются на вход, осуществляется сравнение с вектором весов, в результате определяется нейрон, веса которого максимально похожи на данный вход. Такой нейрон объявляется победителем, его веса корректируются, а в результате разные нейроны настраиваются на разные группы входных векторов. В результате входные данные распределяются между нейронами в соответствии с мерой похожести.