
- •Искусственный интеллект. Основные направления и этапы развития.
- •Структура мозга. Уровни моделирования. Основные элементы моделей.
- •Виды функций активации
- •Классификация нейронных сетей
- •Применение нейронных сетей
- •Методика решения формализуемых задач в нейросетевом базисе
- •Настройка нейронной сети на решение прикладных задач
- •Обучение нс Основные понятия
- •Основные алгоритмы обучения нс без обратных связей
- •Персептронные алгоритмы обучения Алгоритм обучения по правилу Хебба
- •Алгоритм обучения Розенблатта
- •Процедура Уидроу-Хоффа
- •Обучение многослойной нейронной сети без обратных связей Математическая постановка задачи обучения
- •Алгоритм обратного распространения ошибки
- •Генетические алгоритмы оптимизации
- •Суть генетического алгоритма
- •Методы формирования популяции
- •Иллюстрация работы генетического алгоритма
- •Особенности реализации генетических алгоритмов
- •Модификация основных параметров га
- •Мобильные га
- •Динамическое изменение параметров в процессе выполнения га
- •Разновидности га
- •Применение генетического алгоритма к обучению многослойного персептрона
- •Рекуррентные и рециркуляционные сети
- •Сеть Хопфилда
- •Применение сети Хопфилда к решению задач комбинаторной оптимизации
- •Сеть Хемминга
- •Самоорганизующиеся нейронные сети Самоорганизация в нс
- •Конкурентное обучение
- •Сеть Кохонена
- •Алгоритмы кластеризации
- •Пороговый алгоритм
- •Алгоритм максимального расстояния
- •Алгоритм внутригруппового среднего (метод k-средних, k-means clustering, c-means clustering)
- •Алгоритм нечётких k-средних (fuzzy c-means clustering)
- •Алгоритм состязания процедур соединения и разделения.
- •Сети адаптивного резонанса
- •Основы адаптивного резонанса
- •Архитектура art
- •Комбинированные нс
- •Иерархический классификатор
- •Нейронные сети с функциональными связями
- •Решающие деревья
- •Методы проектирования нейросетевых архитектур для решения прикладных задач
- •Выбор топологии нс для решения задач нейроуправления
- •Практическое применение нс Управление движением робота по заданной траектории
- •Обучение и формирование обучающей выборки для управления мобильным роботом
- •Тестирование робота
- •Автономное управление мобильным роботом
Алгоритм внутригруппового среднего (метод k-средних, k-means clustering, c-means clustering)
Данный алгоритм минимизирует сумму квадратов расстояний между точками кластеров в процессе разбиения исходного пространства на q кластеров.
Дано:
множество точек во входном пространстве X
Алгоритм сводится к следующей последовательности действий:
Произвольно выбираются q центров кластеров (в качестве центров кластеров берутся точки из входного множества).
Все образы (точки из входного множества), не являющиеся центрами кластеров, «разносятся» по кластерам в соответствии с принципом минимального расстояния до центра кластера.
Образ х принадлежит кластеру Kj, если расстояние от точки х до центра zj(r) данного кластера меньше расстояния от х до центра любого другого кластера (q-1). Kj определяет множество, состоящее из точек, включённых в него до r-ого шага.
,
если
Определяются новые центры кластеров zj(r+1), j=1… q таким образом, чтобы минимизировать показатель качества J.
В данном случае используется евклидово расстояние.
Новый центр кластера вычисляется по следующей формуле:
,
где
– количество точек, включенных в
пространство Kj
к r-ому шагу итерации.
Алгоритм заканчивает свою работу, если выполняется равенство:
, то есть не изменяются центры кластеров. В противном случае, переход к пункту 2.
Пример реализации алгоритма К-средних
Дано:
Х={x1, x2,…,x10}
q=3
Положим, что Z1 = X1; Z2 = X3; Z3 = X4
В технике оптимизации используется приём "мультстарт": алгоритм оптимизации реализуется несколько раз из различных начальных точек, а затем из полученных решений выбирается наилучшее.
Шаг 1. Определяем минимальное расстояние от каждой точки до каждого кластера.
|
X1 |
X2 |
X3 |
X4 |
X5 |
X6 |
X7 |
X8 |
X9 |
X10 |
коорд. |
(2;2) |
(2;4) |
(3;4) |
(3;8) |
(4;7) |
(5;9) |
(6;1) |
(6;8) |
(7;1) |
(8;1) |
Z1 |
0 |
2 |
- |
- |
5,4 |
7,6 |
4,1 |
7,2 |
5,1 |
6,05 |
Z2 |
- |
1 |
0 |
- |
3,2 |
5,4 |
4,2 |
5 |
5 |
5,8 |
Z3 |
- |
4,1 |
- |
0 |
1,4 |
2,3 |
7,6 |
3 |
8,05 |
8,6 |
Шаг 2. По критерию минимального расстояния определяем, какие точки относятся к какому кластеру.
-
кластер
точки
1
X1, X7
2
X2, X3, X9, X10
3
X4, X5, X6, X8
Шаг 3. Пересчёт всех кластерных центров Zi
Z1 = (4; 1,5)
Z2 = (5; 2,5)
Z3 = (4,5; 8)
Шаг 4.
|
X1 |
X2 |
X3 |
X4 |
X5 |
X6 |
X7 |
X8 |
X9 |
X10 |
Z11 |
2 |
3,2 |
2,7 |
6,6 |
5,5 |
7,6 |
2 |
6,8 |
3 |
4 |
Z21 |
3 |
3,35 |
2,5 |
5,85 |
4,6 |
6,5 |
1,8 |
5,6 |
2,5 |
3,4 |
Z31 |
3,5 |
4,7 |
4,3 |
1,5 |
1,1 |
1,1 |
7,2 |
1,5 |
7,4 |
7,8 |
Шаг 5.
-
кластер
точки
1
X1, X2
2
X3, X7, X9, X10
3
X4, X5, X6, X8
Шаг 6.
Z12 = (2; 3)
Z22 = (6; 1,75)
Z32 = (4.5; 8)
Шаг 7.
|
X1 |
X2 |
X3 |
X4 |
X5 |
X6 |
X7 |
X8 |
X9 |
X10 |
Z12 |
1 |
1 |
1,4 |
5,1 |
4,47 |
6,7 |
4,47 |
6,4 |
5,4 |
6,3 |
Z22 |
4 |
4,6 |
3,75 |
6,9 |
5,6 |
7,1 |
0,75 |
6,25 |
1,25 |
2,1 |
Z32 |
6,5 |
4,7 |
4,3 |
1,5 |
1,1 |
1,1 |
7,2 |
1,5 |
7,4 |
7,8 |
Шаг 8.
-
кластер
точки
1
X1, X2, X3
2
X7, X9, X10
3
X4, X5, X6, X8
Если проводить дальнейшее разбиение, центры кластеров изменяться не будут.