Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ответы на ГОСы1.doc
Скачиваний:
37
Добавлен:
06.05.2019
Размер:
4.5 Mб
Скачать

46__Классификация искусственных нейронных сетей. Самоорганизующиеся карты Кохонена.

ИНС может рассматриваться как направленный граф с взвешенными связями, в котором искусственные нейроны являются узлами. По архитектуре связей ИНС могут быть сгруппированы в два класса сети прямого распространения, в которых графы не имеют петель, и рекуррентные сети, или сети с обратными связями (см. рис 2.4).

В наиболее распространенном семействе сетей первого класса, называемых многослойным перцептроном, нейроны расположены слоями и имеют однонаправленные связи между слоями. Сети прямого распространения являются статическими в том смысле, что на заданный вход они вырабатывают одну совокупность выходных значений, не зависящих от предыдущего состояния сети. Рекуррентные сети являются динамическими, так как в силу обратных связей в них модифицируются входы нейронов, что приводит к изменению состояния сети.

Многослойные нейронные сети прямого распространения. Базовая архитектура.

Многослойная нейронная сеть прямого распространения (МНСПР) (multilayer feedforward network) или многослойный перцептрон (multilayer perceptron - MLP) состоит из набора нейронов. Этот набор логически организован в два или более слоев. Первый слой называется входным, последний слой называется выходным, каждый из этих слоев содержит по крайней мере один нейрон.

Словосочетание «прямое распространение» обозначают то, что информация в сети распространяется в прямом направлении, последовательно от входного слоя к выходному. Количество нейронов в слоях может быть различно. Обобщенная архитектура такой сети представлена на рисунке

Данный рисунок изображает МНСПР с двумя скрытыми слоями. Каждый нейрон изображен в виде круга, связи в виде стрелок. Каждая из связей имеет свой весовой коэффициент. Нейроны входного слоя, также как и выходного не производят никаких операций над входными значениями и являются чисто гипотетическими.

Характеристики полученной нейронной сети зависят от весовых коэффициентов связей и активационных функций нейронов f.

Карты Кохонена. Архитектура

Архитектура этой сети была создана финским исследователем Тео Кохоненым [11]. На рис. 2.7. представлена обобщенная архитектура самоорганизующейся карты Кохонена (self-organizing map - SOM) – это двухслойная сеть, хотя иногда ее называют трехслойной, из-за того, что входы подвергаются нормализации.

Рисунок 2.7. Обобщенная архитектура самоорганизующейся карты Кохонена.

Выходной слой может быть одномерным или двумерным. На рис. 2.8. представлена самоорганизующаяся карта Кохонена размером 2х2.

Выходной слой 2х2

Нормализованные входы

Процедура нормализации входов

Реальные входы =[1,-1]

Рисунок 2.8. Самоорганизующаяся карта Кохонена размером 2х2.

Выходной слой карты состоит из так называемых нейронов Кохонена. Каждый из этих нейронов работает по следующей схеме:

, (2.13)

где - i-ый нормализованный вход выходного нейрона,

- вес i-го входа,

- синтетический вход,

- вес синтетического входа.

Алгоритмы обучения

Обучение сетей этого типа проводится по так называемому алгоритму «победитель забирает все» (разновидность алгоритма обучения «без учителя»). В отличие от других алгоритмов, в которых изменяются веса всех нейронов, в этом, нейроны «соревнуются» за то, чтобы вес был изменен именно у него. В некоторых вариантах алгоритма обучения веса изменяются не только у победившего нейрона, но и у соседних с ним нейронов. Обычно для нормализации входных векторов применятся два следующих алгоритма:

Первый способ, «обычный»:

, , .

Недостаток: входные вектора типа (-2, 1, 3) и (-10, 5 , 15) не будут различаться между собой.

Второй способ, “нормализация по оси Z”:

,

Существует несколько вариантов алгоритмов обучения сетей Кохонена. Далее приводятся два наиболее часто применяемых из них:

Первый алгоритм обучения (аддитивный), предложенный Кохоненом:

где -вектор весов победившего нейрона в момент времени t,

-вектор весов в момент времени t+1,

- входной вектор,

- коэффициент скорости обучения; =[0,1].

Второй алгоритм обучения (субтрактивный), или алгоритм Видроу-Хофа: