
- •Искусственный интеллект. Основные направления и этапы развития.
- •Структура мозга. Уровни моделирования. Основные элементы моделей.
- •Виды функций активации
- •Классификация нейронных сетей
- •Применение нейронных сетей
- •Методика решения формализуемых задач в нейросетевом базисе
- •Настройка нейронной сети на решение прикладных задач
- •Обучение нс Основные понятия
- •Основные алгоритмы обучения нс без обратных связей
- •Персептронные алгоритмы обучения Алгоритм обучения по правилу Хебба
- •Алгоритм обучения Розенблатта
- •Процедура Уидроу-Хоффа
- •Обучение многослойной нейронной сети без обратных связей Математическая постановка задачи обучения
- •Алгоритм обратного распространения ошибки
- •Генетические алгоритмы оптимизации
- •Суть генетического алгоритма
- •Методы формирования популяции
- •Иллюстрация работы генетического алгоритма
- •Особенности реализации генетических алгоритмов
- •Модификация основных параметров га
- •Мобильные га
- •Динамическое изменение параметров в процессе выполнения га
- •Разновидности га
- •Применение генетического алгоритма к обучению многослойного персептрона
- •Рекуррентные и рециркуляционные сети
- •Сеть Хопфилда
- •Применение сети Хопфилда к решению задач комбинаторной оптимизации
- •Сеть Хемминга
- •Самоорганизующиеся нейронные сети Самоорганизация в нс
- •Конкурентное обучение
- •Сеть Кохонена
- •Алгоритмы кластеризации
- •Пороговый алгоритм
- •Алгоритм максимального расстояния
- •Алгоритм внутригруппового среднего (метод k-средних, k-means clustering, c-means clustering)
- •Алгоритм нечётких k-средних (fuzzy c-means clustering)
- •Алгоритм состязания процедур соединения и разделения.
- •Сети адаптивного резонанса
- •Основы адаптивного резонанса
- •Архитектура art
- •Комбинированные нс
- •Иерархический классификатор
- •Нейронные сети с функциональными связями
- •Решающие деревья
- •Методы проектирования нейросетевых архитектур для решения прикладных задач
- •Выбор топологии нс для решения задач нейроуправления
- •Практическое применение нс Управление движением робота по заданной траектории
- •Обучение и формирование обучающей выборки для управления мобильным роботом
- •Тестирование робота
- •Автономное управление мобильным роботом
Алгоритм состязания процедур соединения и разделения.
Алгоритм основан на использовании двух процедур: разделяющей и собирающей.
Для работы алгоритма необходимо определить:
множество векторов X1, X2, … , Xn
число кластеров q
пропорцию: собирающая процедура : разделяющая процедура
способ вычисления расстояния между векторами
Алгоритм сводится к следующей последовательности действий:
Образование кластерных центров по одному на каждый вектор.
Реализация разделяющей процедуры, то есть нахождение двух наиболее удалённых друг от друга элементов. Найденные элементы разделяются таким образом, чтобы к ним нельзя было применить собирающую процедуру.
Реализация собирающей процедуры, то есть нахождение двух наиболее близких (ранее не разделённых) друг к другу элементов. Найденные элементы объединяются в один кластер.
Применение собирающей и разделяющей процедур осуществляется в соответствии с определённой стратегией. Например, задаётся два интервала (0; 30) и (31; 100). Один из них соответствует собирающей процедуре, другой – разделяющей. На каждом шаге берётся произвольное число из интервала (0; 100), определяется, какому из двух интервалов оно принадлежит, и в соответствии с этим определяется применяемая процедура.
Останов, если все входное множество разделено или достигнуто заданное число кластеров q.
Для определения начальных кластерных центров в алгоритмах кластеризации используется метод пикового группирования (the mountain clustering method).
Данный метод предложили Ягер, Филев.
Алгоритм сводится к следующей последовательности действий:
Формирование сетки пространства данных. В узлах сетки – кандидаты в центры кластеров (V). В зависимости от количества узлов определяется детальность исследования сетки.
Конструируется пиковая функция, определяющая меру плотности размещения векторов во входном пространстве.
(1)
где
–
входной вектор;
–
среднее квадратичное отклонение
(задаётся).
Каждой точке соответствует своя высота данной функции. Пиковая функция может быть рассмотрена как мера плотности данных, которые группируются около некоторого узла.
Выбираются кластерные центры:
находится точка-кандидат, для которой значение функции
наибольшее, найденная точка соответствует первому кластерному центру
;
выбирается следующий кластерный центр: из множества V исключаются узел , а также узлы, находящиеся в непосредственной от него близости. Для этого вычисляется:
где
–
эмпирический коэффициент;
–
центр исключенного кластера.
Вновь выбирается кластерный центр, для которого значение функции наибольшее.
Останов, если найдено заданное число кластерных центров.
Сети адаптивного резонанса
Одна из основных проблем человеческого восприятия – это проблема стабильности-пластичности. При поступлении некоторой новой информации перед человеком возникает дилемма: относится ли эта информация к новому образу либо она представляет вариант старой, уже знакомой ситуации, её не требуется запоминать. Таким образом, память должна оставаться пластичной, способной к восприятию новых образов и в то же время сохранять стабильность, гарантирующую неразрушение старых образов.
Сети Кохонена не в состояние отделить новые образы от искаженных или зашумленных версий старых образов. Невозможно выделить новый класс среди существующих.