
- •Искусственный интеллект. Основные направления и этапы развития.
- •Структура мозга. Уровни моделирования. Основные элементы моделей.
- •Виды функций активации
- •Классификация нейронных сетей
- •Применение нейронных сетей
- •Методика решения формализуемых задач в нейросетевом базисе
- •Настройка нейронной сети на решение прикладных задач
- •Обучение нс Основные понятия
- •Основные алгоритмы обучения нс без обратных связей
- •Персептронные алгоритмы обучения Алгоритм обучения по правилу Хебба
- •Алгоритм обучения Розенблатта
- •Процедура Уидроу-Хоффа
- •Обучение многослойной нейронной сети без обратных связей Математическая постановка задачи обучения
- •Алгоритм обратного распространения ошибки
- •Генетические алгоритмы оптимизации
- •Суть генетического алгоритма
- •Методы формирования популяции
- •Иллюстрация работы генетического алгоритма
- •Особенности реализации генетических алгоритмов
- •Модификация основных параметров га
- •Мобильные га
- •Динамическое изменение параметров в процессе выполнения га
- •Разновидности га
- •Применение генетического алгоритма к обучению многослойного персептрона
- •Рекуррентные и рециркуляционные сети
- •Сеть Хопфилда
- •Применение сети Хопфилда к решению задач комбинаторной оптимизации
- •Сеть Хемминга
- •Самоорганизующиеся нейронные сети Самоорганизация в нс
- •Конкурентное обучение
- •Сеть Кохонена
- •Алгоритмы кластеризации
- •Пороговый алгоритм
- •Алгоритм максимального расстояния
- •Алгоритм внутригруппового среднего (метод k-средних, k-means clustering, c-means clustering)
- •Алгоритм нечётких k-средних (fuzzy c-means clustering)
- •Алгоритм состязания процедур соединения и разделения.
- •Сети адаптивного резонанса
- •Основы адаптивного резонанса
- •Архитектура art
- •Комбинированные нс
- •Иерархический классификатор
- •Нейронные сети с функциональными связями
- •Решающие деревья
- •Методы проектирования нейросетевых архитектур для решения прикладных задач
- •Выбор топологии нс для решения задач нейроуправления
- •Практическое применение нс Управление движением робота по заданной траектории
- •Обучение и формирование обучающей выборки для управления мобильным роботом
- •Тестирование робота
- •Автономное управление мобильным роботом
Конкурентное обучение
Конкурентное обучение (competitive learning) НС – наиболее популярная схема реализации процедуры кластеризации без учителя. Данный метод основан на том, что нейроны конкурируют за право «стать победителем».
На рисунке представлен пример НС,
имеющей три входа и четыре выхода. Все
входы НС
соединяются со всеми её выходами
посредством связей с весовыми
коэффициентами
.
Число входов НС соответствует размерности входных векторов, а число выходов задаёт количество кластеров, на которое должно быть разделено входное пространство. Расположение центра каждого кластера определяется весовым вектором, соединённым с соответствующим выходом.
Трёхмерное входное пространство разделяется на четыре кластера. Кластерные центры, описываемые векторами, изменяются во время процедуры кластеризации на основе правил конкурентного обучения.
Входной вектор X и весовой вектор Wj, соответствующий выходу, должны быть нормализованными. Нормализация осуществляется следующим образом:
;
.
Основная проблема при организации процедуры кластеризации – выбор метрики для определения меры схожести (меры различия) между векторами.
В качестве меры схожести выберем скалярное произведение .
Тогда величина нейронной активности
выхода
будет определяется по формуле:
.
Весовой вектор Wij старается повернуться на угол α, чтобы его направление совпало с направлением Xi (α0).
Таким образом, между выходами НС
осуществляется конкуренция:
.
Нейрон – победитель определяется по
наибольшему значению нейронной
активности.
Предположим, что наибольшая нейронная
активность соответствует выходу
.
Тогда весовые коэффициенты связей
выхода
с входами НС будут изменяться в
соответствии с правилом конкуренции
(или правилом "победитель забирает
всё", winner take
all) по следующей формуле:
,
где
- скорость обучения.
В данной формуле используются нормализованные вектора, и при предъявлении очередного входного вектора обновляются только веса нейрона – победителя, а остальные веса не изменяются. Таким образом, в качестве нейрона – победителя выбирается такой нейрон, весовой вектор которого наиболее близок к входному вектору, именно поэтому весовые векторы выходных нейронов на каждом шаге обучения будут перемещаться в направлении кластеров входных образов.
В качестве меры схожести выберем евклидово расстояние, тогда активность выходных нейронов определяется по формуле:
.
Определяется нейрон – победитель с номером , который будет соответствовать минимальному евклидову расстоянию между входным образом и весовым вектором этого нейрона.
Среднеквадратическая ошибка для -го нейрона – победителя равна:
,
где
- нейрон – победитель;
- входной вектор;
- центр кластера, которому принадлежит
.
Для сжатия данных используется векторный квантователь (learning vector quantization), который обеспечивает преобразование векторов к некоторому эталонному вектору. Эталонный вектор (кодовый вектор) является центром кластера. Совокупность кодовых векторов – векторная книга.
При подаче входного вектора определяется кодовый вектор, который наилучшим способом аппроксимирует входной. В качестве метрики используется евклидово расстояние.