
- •Искусственный интеллект. Основные направления и этапы развития.
- •Структура мозга. Уровни моделирования. Основные элементы моделей.
- •Виды функций активации
- •Классификация нейронных сетей
- •Применение нейронных сетей
- •Методика решения формализуемых задач в нейросетевом базисе
- •Настройка нейронной сети на решение прикладных задач
- •Обучение нс Основные понятия
- •Основные алгоритмы обучения нс без обратных связей
- •Персептронные алгоритмы обучения Алгоритм обучения по правилу Хебба
- •Алгоритм обучения Розенблатта
- •Процедура Уидроу-Хоффа
- •Обучение многослойной нейронной сети без обратных связей Математическая постановка задачи обучения
- •Алгоритм обратного распространения ошибки
- •Генетические алгоритмы оптимизации
- •Суть генетического алгоритма
- •Методы формирования популяции
- •Иллюстрация работы генетического алгоритма
- •Особенности реализации генетических алгоритмов
- •Модификация основных параметров га
- •Мобильные га
- •Динамическое изменение параметров в процессе выполнения га
- •Разновидности га
- •Применение генетического алгоритма к обучению многослойного персептрона
- •Рекуррентные и рециркуляционные сети
- •Сеть Хопфилда
- •Применение сети Хопфилда к решению задач комбинаторной оптимизации
- •Сеть Хемминга
- •Самоорганизующиеся нейронные сети Самоорганизация в нс
- •Конкурентное обучение
- •Сеть Кохонена
- •Алгоритмы кластеризации
- •Пороговый алгоритм
- •Алгоритм максимального расстояния
- •Алгоритм внутригруппового среднего (метод k-средних, k-means clustering, c-means clustering)
- •Алгоритм нечётких k-средних (fuzzy c-means clustering)
- •Алгоритм состязания процедур соединения и разделения.
- •Сети адаптивного резонанса
- •Основы адаптивного резонанса
- •Архитектура art
- •Комбинированные нс
- •Иерархический классификатор
- •Нейронные сети с функциональными связями
- •Решающие деревья
- •Методы проектирования нейросетевых архитектур для решения прикладных задач
- •Выбор топологии нс для решения задач нейроуправления
- •Практическое применение нс Управление движением робота по заданной траектории
- •Обучение и формирование обучающей выборки для управления мобильным роботом
- •Тестирование робота
- •Автономное управление мобильным роботом
Основы адаптивного резонанса
Идея ART заключается в том, чтобы при подаче входного образа определить, существует ли выходной нейрон, который связан с некоторым образом, наиболее схожим с входным. Если таких выходных нейронов нет, то создается новый нейрон. Явление совпадения входного и хранящегося в памяти сети образов называется адаптивным резонансом.
При обучении в сети ART используется два типа памяти:
Кратковременная (Short-term memory)
Долговременная (Long-term memory)
Во время процедуры обучения происходит сопоставление содержимого кратковременной и долговременной памятей и постепенное выделение шаблона критических черт, соответствующих входному образу.
Особенности реализации ART:
Адаптация входного образа к образам, хранящимся в сети, осуществляется на основе резонанса.
Резонанс в сети происходит тогда, когда образ максимально совпадает с образом, хранящимся в сети.
В процессе адаптации входного вектора к образам, хранящимся в сети, происходит контрастное население входного образа. Оно характеризуется тем, что только отличительные черты образа отображаются на весовые коэффициенты. Это явление аналогично биологической эволюции, когда одни признаки организма при его функционировании в данной среде усиливаются, а другие ослабляются.
Хранение информации осуществляется в кратковременной и долговременной памяти, что свойственно человеку. ART имеет биологические предпосылки.
Сходимость сети ART доказана С. Гроссбергом на основе дифференциальных уравнений и функции Ляпунова.
Разновидности сетей ART:
ART-1 – ориентированна на обработку образов, содержащих двоичную информацию
ART-2, ART-3 – могут работать с непрерывной информацией
ART MAP
Для функционирования нейронных сетей имеет значение вид оценки сходства входных векторов с векторами, хранящимися в сети. Используются параметр ρ, характеризующий уровень сходства.
ρ выбирается на основе требования решения задач:
При высоких значениях ρ сформируется большое число классов, к каждому из которых относятся только очень похожие вектора.
При низком уровне ρ сеть формирует большое число классов с высокой степенью обобщения («грубая» классификация).
Для повышения гибкости работы ART необходима реализация стратегии динамического изменения критерия сходства ρ во время процедуры обучения, обеспечивающая грубую классификацию в начале обучения (при низких ρ) и увеличивающая ρ для выработки точной классификации в конце обучения.
Архитектура art
Слой В – слой сравнения (воспринимающий), слой Т – слой, хранящий образы сети (распознающий).
При обучении используется правило
"победитель забирает всё" –
конкурентное обучение. Определяется
выигравший нейрон, устанавливается в
"1". С каждым из классов (выходных
нейронов) связаны веса
,
.
G1 и G2 – специализированные нейроны, которые управляют процессом обучения.
При подаче входного вектора вычисляется:
,
,
.
Выход k-ого нейрона равен "1", все остальные выходы равны "1".
Каждый входной нейрон имеет три входа:
компоненты входного вектора;
;
от нейрона управления.
Входная активность i-ого нейрона равна единице, если хотя бы два из трёх входов являются активными.
В слое В модуль G1 выполняет следующую функцию:
, где
–
выходное значение "победителя" в
слое T.
Каждый нейрон слоя B содержит два выхода:
компонента вектора X, который через
поступает на входной слой;
– сигнал, который является результатом сравнения обратного и входного сигналов и определяется следующим образом:
.
Схема G2 формирует сигнал сброса, который при определённых условиях нейтрализует активный нейронный элемент слоя Т.
Вычисляется степень отличия х от активного нейрона:
.
Вычисляется степень отличия входного образа от образа победившего нейрона.
На входе G2 формируется сброс, если входной образ не соответствует кластеру, связанному с нейроном – победителем.
Сигнал сброса устраняет "победителя", так как он не соответствует критическим чертам входного образа:
.
Применительно к сети ART-1:
Если условие не выполняется, то происходит модификация весовых коэффициентов победившего нейрона. Иначе, переходим к следующему нейрону. Если при всех нейронов условие не выполняется, то создаётся новый нейрон.
Алгоритм:
Инициализация весовых коэффициентов:
.
Задание значения параметра ρ:
.
WHILE (имеются входные вектора) DO
подача на вход сети нового входного вектора ;
вычисление значений выходов сети:
;
определение номера нейрона-победителя
с наибольшей величиной выхода
;
определение сходства входного вектора X (образа) с прототипом
, который соответствует нейрону-победителю
:
IF (число "1" в выражении
)
THEN GOTO (е)
ELSE
выход сбрасывается и возврат к (б);
входной вектор X ассоциируется с прототипом , поэтому производится изменение весовых коэффициентов прототипа:
веса также изменяются:
.
4. Конец.
Все алгоритмы, рассмотренные ранее, реализовались в режиме off–line. В режиме on–line сеть одновременно обучается и работает в режиме распознавания.
Сеть ART может работать как в режиме off–line, так и в режиме on–line. Чаще сеть ART используют для работы в режиме реального времени (on–line), так как она позволяет на стадии обучения создавать новые классы.
Для режима on–line выше приведённый алгоритм претерпит следующие изменения:
пункт 3, подпункт в:
,
где c – переменная, которая определяет,
какое количество нейронов рассмотрено
к данному моменту времени, m
– число входных нейронов.
пункт 3, подпункт д:
количество просмотренных нейронов
уменьшается на единицу и возврат к
пункту c; если
,
то создаётся новый нейрон; для нового
нейрона
пункт 3, подпункт е, ж:
обновляются весовые коэффициенты b
и t в том случае, если
взвешенная сумма
,
иначе переходим к подпункту д.
Пример.
Выводы:
Преимущество сети ART заключается в возможности её расширения, что особенно важно в динамических системах, работающих в режиме реального времени. Данное свойство сети создаёт предпосылки для создания эволюционных сетей, которые могут самоорганизовываться во времени (адаптироваться к среде).