Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
НЛиНСебашил гай.docx
Скачиваний:
8
Добавлен:
03.09.2019
Размер:
193.54 Кб
Скачать

Отличительные особенности самоорганизующиеся нс на основе конкуренции.

Введенные Кохониным самоорганизующиеся карта признаков(СОК) является НС без обратных связей котрая принципиально отличается от всех типов сетей, сети кохонина рассчитаны на не упарвлянимое обучение. Они рассчитаны на самостоятеное обучения, во время обучения сообщать им правильные ответы не обязательно. НС обучаемые без учителя служат средством для кластеризации организации и визуального представления большиз объемов данных. СОК имеет два слоя:

1. Входной

2. Выходной(составленный обычно из радиальных элеметнов), так же слой топологической карты.

НС обучаемая без учитетеля. Число нейронов в выходном слое сколько кластеров НС может распознать. СОК в отличии от других НС не содержит скрытого слоя. Каждый нейрон соеденен со всеми компонентами n-мерного входного вектора. Как ив любой НС каждой связи свои синоптический вес, в большинстве каждый выходной нейрон соедениятся и со своими соседями, эти внутри слойные связи важны в процессе обучения. Поскольку корректировка весов происходит только в окрестности того нейрона который наилучшем образов откликается на очередной вход. Когда образ предъявляется на образ НС каждый нейрон стремится достигнуть наибольшего соответствия с входным образом. Выходной нейрон ближайших к входному образу признается победителем. Синоптические веса нейрона победителя затем корректируются т.е. сдвигаются в направлении входного образа, это осуществляется с помощью множителя который определяется темпом или нормой обучения. В этом и состоит сущность СОНС на основе конкуренции. СОК обладает способностью к обобщению – это означает что подобные НС могут узнавать или характеризовать входные данные с которыми они прежде не имеют данные. Новый вектор входных данных соотносится с тем элементом карты на которой он отображается. Кроме того для поиска или прогнозирования знание пропущенных данных при применении раннее обученной карты, они могут использовать даже входные векторами с пропущенными данными.

Алгоритмы обучения сок

Алгоритмы СОК основоваются на соревновательном обучении без учителя, при этом обучспечиваются сохранаяющие топлогии отоброжения из пространства большой размерности в элелементы карты. Обучается сеть Кохонина методом последовательных приближений, сначала нормализуются входные векторы Х, нормализация вектором может производится следующими образами:

1. Переопределение компоненьов вектора по (фор1)

2.Спососб увелечинене размерности пространства на одну координату с выбором значения н + 1 вектора,удовлетворяющего условию нормировки. Фор.2 Для выполнения условия нормировки 2 предварительно нужно провести маштабирование компонента вектора икс.

Нормализация входных векторов необходимо прим большой размерности пространства напр н =2,или н = 3,это подтверждено экспериментальным исследованиями.

При больших обьёмах нейро сети (н больше 2)нормалтзация перестаёт оказывать влияние на процесс самоорганизации.

Алгоритм ответственной за построение СОК.Начинается с инициализации синоптичеческих весов нейро сети.Обычно синоптическим весам присваиваются небольшие значения сформированные генератором случайных чисел. Когда процесс начингается с рангонизированных случайных щначений синоптических весов выходные нейроны медленно выравниваются поскольку при введении входного образа на него реагирует не только отдельный нейрон но также и его открестность.

В этой ситуации важен выбор метрики для измерения расстояния.

В качестве меры расстояния используются следующие метрики. 1.Эвклидова мера (Формула 1)

2.Мера использующая скалярное произведение.

3.Мера относительно Л1 Расстояние ……

Сначало одновременно корректируются веса многих нейронов в окрнстности нейрона победтителя.

В процессе обучения на входные сигналы реагируют всё меньшеие число нейронов.

В конце обучения уточняются олько веса связи нейрона победителя.

Они сдвигаются в направлении входного вектора с помошью множителя определяемого темпами обучения.

В процессе обучения уменьшается и темп обучения.

В некоторых приложения темп обучения снижается по мере уменьшения расстояние от нейрона победителя.

Таким образом в результате этеративной процедуры.Обучени сеть организуется так что элементы ссответствующе центром Расположенном близко друг от друга пространстве входов будут распологаться и близко друг от друга на топологической карте.

Алгоритмы обучения нейросети с самоорганизацией в котрых на каждой итерации может обучаться только 1 нейрон называется WTA(победитель забирает всё)

(Рисунок неебической силы)

Архитектура нейронной сети кохонена

Кроме алгоритмов ВТА широко применяются алгоритмы типо ВТМ победитель получает больше В посл алгоритмах кроме нейрона победителя уточняют значение своих весов и нейроны из его близжайшего окружения.В этом случае чем дальше нейрон находится от нейрона победителя.

Тем меньше изменяются его синоптические веса………………………….=)

Процесс корректировки весов Дабалью Джи для всех нейронов Джи которые расположены в окрестности нейрона победителя И определяется обобщенной зависимостью)););););););););););)**********!!!!!!!!!!!!Нахуй так жить??????

Формула непонятная про вектор дабалью

Имеется много вариантов алгоритма ВТМ которые отличаются прежде всего функцией соседства.яДЖи

Алгоритм Кохонена

Аогоритм Кохонена является одним из вариантов аогоритма ВТМ и наиболее старым алгоритмом обучения нейросетей с самоорганизацией на основе конкуренции……

В классическом Алгоритме Кохонена нейросеть инициалоизируется путём приписывания нейроном определённого позиции в пространстве

При этом они связываются с соседями на постоянной основе

Функция соседства задаётся в виде:Формула блеать

В формуле 9 чило 1 играет роль уровня соседства в процессе обучения оно уменьшается до нуля такое соседство называется прямоугольным.

В качестве меры расстояния Д от Джи И может быть эвклидово расстояние вычисляемые по формуле 3.Здесь каждый нейрон который находится в окрестности нейрона победителя адаптируется в равной степени

Прямоуголная область является невыпуклой.----Кэп

Когда алгоритм СОК использует невыпуклую функцию соседства это приводит к возникновению метостабильных состояний.Эти состояния представляют собой топологические дефекты в конфигурации карты признаков.

Поэтому другой тип соседства который применятется в картах кохонена это соседство гауссово типа.

В этом случае функция соседства имеет вид --- Ж от Ж от икс там чето там

Уровень до которого нейроны из топологической окрестности нейрона победителя учавствуют в процессе обучения.Параметр Сигма называется эффективной шириной топологической окрестности.

В отличии от прямоугольного соседства типа уровень адаптации при соседстве гауссова типа зависит от значения функции гауссова Функция Гаусова является выпуклой.

Рисунок с с осью

В случае одномерной решётки состояние д житое явл целым числом равным модулю Джи минус И

Для двумерной решётки это расстояние определяется соотношением там 

Чем не выпуклая,так как она не содержит метостабильных состояний.

Поэтому Гаусово соседство даёт лучшие результаты обучения.Одним из уникальных свойств алгоритма Сок явл уменьшение со временем размера топологической окрестности за счёт постепенного убываения велечины Сигма в формуле 10.Популярный Вариант Зависимости Сигма от дискретного времени к это экспонининциальное убываеи которое описывается формулой

Следовательно прим увеличении кол-ва итераций к функция соседства убывает вместе с экспонинциальным убыванием эфективной ширины топологической окрестности Сигма от К!

Шаг 1)Инициализация

Единственное требование это различие векторов для разных згначений ж равных 1 2 и т д М большое где м больше обозначаер общее кол-во нейронов в решётке.

При этом амплитуда значения рекомендуется сохранять малое

Шаг 2 )Подбыворка

Выбирается вектор ИКС из входногно пространства с определённой вероятностью

Он представляет собой возбуждение которое применяется к Решётке нейронов

Размерность вектора икс равна н-маленькая

Шаг 3)Поиск максимального подобия

Нейрон И применяет критерий минимума евклидова расстояния

Шаг 4 )Коррекция

По формуле 8 Корректируются векторы всех нейронов синоптических весов

Оба эти параметра динамически изменяются в процессе обучения с целью обучения…..

Вычисления продолжаются с тех пор пока на карте признаков не перестанут происходить тзамптные изменгения.