Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Нейрокомпьютернатехника.doc
Скачиваний:
184
Добавлен:
10.12.2013
Размер:
1.99 Mб
Скачать
        1. Метод сигнального обучения Хэбба

Как мы видели, выход NETпростого искусственного нейрона является взвешенной суммой его входов. Это может быть выражено следующим образом:

где NETj– выход NETнейронаj; OUTi – выход нейрона i;wij– вес связи нейронаiс нейрономj.

Можно показать, что в этом случае линейная многослойная сеть не является более мощной, чем однослойная сеть; рассматриваемые возможности сети могут быть улучшены только введением нелинейности в передаточную функцию нейрона. Говорят, что сеть, использующая сигмоидальную функцию активации и метод обучения Хэбба, обучается по сигнальному методу Хэбба. В этом случае уравнение Хэбба модифицируется следующим образом:

wij(t+1) =wij(t) + OUTiOUTj

где wij(t) – сила синапса от нейронаiк нейронуjв момент времени t; OUTi– выходной уровень пресинаптического нейрона равный F(NETi); OUTj –выходной уровень постсинаптического нейрона равный F(NET).

        1. Метод дифференциального обучения Хэбба

Метод сигнального обучения Хэбба предполагает вычисление свертки предыдущих изменений выходов для определения изменения весов. Настоящий метод, называемый методом дифференциального обучения Хэбба, использует следующее равенство:

wij(t+1) =wij(t) + [OUTi(t) – OUTi(t–1)][ OUTj(t) – OUTj(t–1)],

где wij(t) – сила синапса от нейронаiк нейронуjв момент времени t; OUTi(t) – выходной уровень пресинаптического нейрона в момент времени t; OUTj(t)–выходной уровень постсинаптического нейрона в момент времени t.

Рис. Б.1. Сеть «Инстар» Гроссберга

      1. Входные и выходные звезды

Много общих идей, используемых в искусственных нейронных сетях, прослеживаются в работах Гроссберга; в качестве примера можно указать конфигурации входных и выходных звезд [I], используемые во многих сетевых парадигмах. Входная звезда, как показано на рис. Б.1, состоит из нейрона, на который подается группа входов через синапсические веса. Выходная звезда, показанная на рис. Б.2, является нейроном, управляющим группой весов. Входные и выходные звезды могут быть взаимно соединены в сети любой сложности; Гроссберг рассматривает их как модель определенных биологических функций. Вид звезды определяет ее название, однако звезды обычно изображаются в сети иначе.

Рис. Б.2. Сеть «Аутстар» Гроссберга

        1. Обучение входной звезды

Входная звезда выполняет распознавание образов, т. е. она обучается реагировать на определенный входной вектор Хи ни на какой другой. Это обучение реализуется путем настройки весов таким образом, чтобы они соответствовали входному вектору. Выход входной звезды определяется как взвешенная сумма ее входов, как это описано в предыдущих разделах. С другой точки зрения, выход можно рассматривать как свертку входного вектора с весовым вектором, меру сходства нормализованных векторов. Следовательно, нейрон должен реагировать наиболее сильно на входной образ, которому был обучен.

Процесс обучения выражается следующим образом:

wi(t+1) =wi(t) +[xiwi(t)],

где wi– вес входахi;хii–й вход;– нормирующий коэффициент обучения, который имеет начальное значение 0,1 и постепенно уменьшается в процессе обучения.

После завершения обучения предъявление входного вектора Хбудет активизировать обученный входной нейрон. Это можно рассматривать как единый обучающий цикл, еслиустановлен в 1, однако в этом случае исключается способность входной звезды к обобщению. Хорошо обученная входная звезда будет реагировать не только на определенный единичный вектор, но также и на незначительные изменения этого вектора. Это достигается постепенной настройкой нейронных весов при предъявлении в процессе обучения векторов, представляющих нормальные вариации входного вектора. Веса настраиваются таким образом, чтобы усреднить величины обучающих векторов, и нейроны получают способность реагировать на любой вектор этого класса.