
- •Искусственный интеллект. Основные направления и этапы развития.
- •Структура мозга. Уровни моделирования. Основные элементы моделей.
- •Виды функций активации
- •Классификация нейронных сетей
- •Применение нейронных сетей
- •Методика решения формализуемых задач в нейросетевом базисе
- •Настройка нейронной сети на решение прикладных задач
- •Обучение нс Основные понятия
- •Основные алгоритмы обучения нс без обратных связей
- •Персептронные алгоритмы обучения Алгоритм обучения по правилу Хебба
- •Алгоритм обучения Розенблатта
- •Процедура Уидроу-Хоффа
- •Обучение многослойной нейронной сети без обратных связей Математическая постановка задачи обучения
- •Алгоритм обратного распространения ошибки
- •Генетические алгоритмы оптимизации
- •Суть генетического алгоритма
- •Методы формирования популяции
- •Иллюстрация работы генетического алгоритма
- •Особенности реализации генетических алгоритмов
- •Модификация основных параметров га
- •Мобильные га
- •Динамическое изменение параметров в процессе выполнения га
- •Разновидности га
- •Применение генетического алгоритма к обучению многослойного персептрона
- •Рекуррентные и рециркуляционные сети
- •Сеть Хопфилда
- •Применение сети Хопфилда к решению задач комбинаторной оптимизации
- •Сеть Хемминга
- •Самоорганизующиеся нейронные сети Самоорганизация в нс
- •Конкурентное обучение
- •Сеть Кохонена
- •Алгоритмы кластеризации
- •Пороговый алгоритм
- •Алгоритм максимального расстояния
- •Алгоритм внутригруппового среднего (метод k-средних, k-means clustering, c-means clustering)
- •Алгоритм нечётких k-средних (fuzzy c-means clustering)
- •Алгоритм состязания процедур соединения и разделения.
- •Сети адаптивного резонанса
- •Основы адаптивного резонанса
- •Архитектура art
- •Комбинированные нс
- •Иерархический классификатор
- •Нейронные сети с функциональными связями
- •Решающие деревья
- •Методы проектирования нейросетевых архитектур для решения прикладных задач
- •Выбор топологии нс для решения задач нейроуправления
- •Практическое применение нс Управление движением робота по заданной траектории
- •Обучение и формирование обучающей выборки для управления мобильным роботом
- •Тестирование робота
- •Автономное управление мобильным роботом
Алгоритмы кластеризации
В настоящее время существует довольно большое число алгоритмов кластеризации, которые можно использовать для нахождения кластерных центров.
Основная идея кластерных алгоритмов – разделение входного пространства на группы. При этом сходство векторов внутри группы должно быть больше сходства с векторами других групп. Для реализации этой идеи вводятся метрики схожести. Большинство из них чувствительны к интервалу изменения входных переменных, поэтому входные переменные нормализуются и приводятся к единичному интервалу.
Пороговый алгоритм
Дано:
множество точек во входном пространстве X
;
пороговая величина Т, определяет критерий принадлежности точки какому-
либо классу (кластеру).
Данный алгоритм сводится к следующей последовательности действий:
Выбираем случайным образом точку, соответствующую центру первого кластера. (z1)
Из множества точек входного пространства X выбираем произвольную точку xi и вычисляем расстояние от данной точки до центра первого кластера z1. (
)
Если выполняется неравенство
, то точка xi принадлежит кластеру с центром z1. В противном случае, создаётся новый кластер с центром z2= xi.
Пункты 2 и 3 циклически повторяются для всех точек множества X.
Если точки множества X расположены на значительном расстоянии друг от друга, то в результате работы данного алгоритма для каждой точки будет создан свой кластер.
Недостаток алгоритма: Эффективность алгоритма во многом определяется величиной
пороговой величины Т и зависит от порядка просмотра точек множества X.
Алгоритм максимального расстояния
Характерная особенность алгоритма – выбор наиболее удалённых кластеров.
Дано:
множество точек во входном пространстве X
Данный алгоритм сводится к следующей последовательности действий:
Выбираем случайным образом точку, соответствующую центру первого кластера. (z1)
Из множества точек X выбираем такую точку, которая наиболее удалена от точки, соответствующей центру z1, и определяем эту точку как центр второго кластера.
Для каждой из точек
вычисляются расстояния от данной точки до всех центров кластеров
, созданных на данный момент времени.
То есть для каждой точки xj множества X определяется кластер («свой» кластер), расстояние до которого будет минимальным. Далее выбирается точка x*, наиболее удалённая от данного («своего») кластера.
На каждом шаге алгоритма t=1,2,3,…вычисляется
величина:
Если значение d
составляет существенную часть (не
менее половины) от величины
,
то тогда x*
объявляется центром нового кластера.
В противном случае (значение d
менее половины от величины
)
процесс завершается, а все оставшиеся
точки множества X
разносятся по ближайшим кластерам.
Недостатки алгоритма:
случайный выбор начального кластера
увеличение уровня сложности на каждом шаге работы алгоритма