Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТПР. Всё в 1 файле / Нейрокомпьютеры.pdf
Скачиваний:
201
Добавлен:
15.09.2014
Размер:
2.15 Mб
Скачать

E(yi(t)) = -yi(t)dSi = -yi(t)*Si(t)+F-1(yi(t))dyi

(113)

E(yi(t+1)) = E(yi(t+1))-E(yi(t));

(114)

Для асинхронного режима:

 

 

E(yi(t+1)) = -yi(t+1)*Si(t+1)+F-1(yi(t+1))dyi+yi(t)*Si(t)-F-1(yi(t))dyi

(115)

E(yi(t+1)) = -yi(t+1)*Si(t)+F-1(yi(t+1))dyi+yi(t)*Si(t)-F-1(yi(t))dyi

(116)

E(yi(t+1)) = (yi(t)-yi(t+1))*Si(t)+F-1(yi(t+1))dyi -F-1(yi(t))dyi

(117)

По теореме о среднем:

 

 

E(yi(t+1)) = (yi(t)-yi(t+1))*(Si(t)-F-1(ε))

(118)

Если yi(t)>yi(t+1), то Si(t)=F-1(yi(t)), и в силу монотонности функции

активации: yi(t+1) ≤ ε ≤ yi(t): F-1(ε) F-1(yi(t)).

 

Если yi(t)<yi(t+1), то Si(t)=F-1(yi(t)), и в силу монотонности функции

активации: yi(t+1) ≥ ε ≥ yi(t): F-1(ε) F-1(yi(t)).

 

Для дискретного:

 

E(yi(t)) = -yi(t)*Si(t)

(119)

Для синхронного:

 

E(yi(t)) = -yi(t-1)*Si(t)

(120)

Сеть Хэмминга. Назначение, обучение и функционирование.

Сеть Хемминга – это трехслойная рекуррентная структура, которую можно считать развитием сети Хопфилда. Она позиционируется как специализированное гетероассоциативное запоминающее устройство. Основная идея функционирования этой сети состоит в минимизации расстояния Хемминга между тестовым вектором, подаваемым на вход сети, и векторами обучающих выборок, закодированными в структуре сети.

На рис. 18 представлена обобщенная схема сети Хемминга. Первый ее слой имеет однонаправленное распространение сигналов от входа к выходу и фиксированные значения весов. Второй слой, MAXNET, состоит из нейронов связанных обратными связями по принципу "каждый с каждым", при этом в отличие от структуры Хопфилда существует ненулевая связь входа нейрона со своим собственным выходом. Веса нейронов в слое MAXNET также постоянны. Разные нейроны связаны отрицательной (подавляющей) обратной связью с весом - ε, при этом обычно величина ε обратно пропорциональна количеству образов. С собственным выходом нейрон связан положительной (возбуждающей) обратной связью с весом, равным +1. Веса поляризации нейронов принимают значения, соответствующие нулю. Нейроны этого слоя функционируют в режиме WTA (Winner Takes All), при котором в каждой фиксированной ситуации активизируется только один нейрон, а остальные пребывают в состоянии покоя. Выходной однонаправленный слой формирует выходной вектор, соответствующий входному вектору. Веса нейронов этого слоя подбираются в зависимости от входных обучающих выборок.

В процессе функционирования сети можно выделить три фазы. В первой из них на ее вход подается N-элементный вектор x. После предъявления этого вектора на выходах нейронов первого слоя генерируются сигналы, задающие начальные состояния нейронов второго слоя, т.е. MAXNET'a.

Рис. 18. Структура сети Хэмминга

Во второй фазе инициировавшие MAXNET сигналы удаляются, и из сформированного ими начального состояния запускается итерационный процесс внутри этого слоя. Итерационный процесс завершается в момент, когда все нейроны, кроме одного (победителя с выходным сигналом, равным 1), перейдут в нулевое состояние. Нейрон-победитель с ненулевым выходным сигналом становится представителем класса данных, к которому принадлежит входной вектор.

В третьей фазе этот же нейрон посредством весов, связывающих его с нейронами выходного слоя, формирует на выходе сети отклик в виде вектора у, соответствующий возбуждающему вектору х.

Сеть Хемминга считается гетероассоциативным запоминающим устройством с парой связанных между собой векторов (у, x), где x и y - это соответственно входной и выходной биполярные векторы сети со значениями элементов ±1. Входные узлы сети 1, 2, ..., N принимают значения, задаваемые аналогичными компонентами вектора x. Нейроны первого слоя рассчитывают расстояние Хемминга между фактически предъявленным входным вектором x и каждым из p закодированных векторов-образцов x(i), образующих веса нейронов первого слоя. Нейроны в слое MAXNET выбирают вектор с наименьшим расстоянием Хемминга, определяя таким образом класс, к которому принадлежит предъявленный входной вектор x. Веса нейронов выходного слоя формируют вектор, соответствующий предъявленному входному вектору. При p нейронах первого слоя емкость запоминающего устройства Хемминга также равна p, поскольку каждый нейрон представляет единственный класс.

Подбор весов сети Хемминга оказывается чрезвычайно простым. Becы первого слоя соответствуют очередным векторам образов х(i), поэтому

w(1)

= x(i)

(121)

ij

j

 

для i = 1, 2, ..., р. Аналогично веса выходного слоя соответствуют очередным

векторам образов у(i) связанным с x(i):

 

w(2)ji = y(ji) .

(122)

В случае нейронов слоя MAXNET, функционирующих в режиме WTA, веса сети должны усиливать собственный сигнал нейрона и ослаблять остальные. Для

достижения этого эффекта принимается

 

w(m) =1,

 

 

(123)

 

ii

 

 

 

 

а также

 

 

 

1

 

< wij(m)

< 0

(124)

 

( p 1)

 

 

 

 

 

 

 

для i ≠ j. Для обеспечения абсолютной сходимости

алгоритма веса wij(m)

должны отличаться друг от друга. Р. Липпманн в своей работе принял

wij(m) = −

 

1

+ξ ,

(125)

( p 1)

 

 

 

 

 

где ξ - случайная величина с достаточно малой амплитудой.

Нейроны различных слоев сети Хемминга функционируют по-разному. Нейроны первого слоя рассчитывают расстояния Хемминга между поданными на вход сети вектором x и векторами весов w(i) = x(i) отдельных нейронов этого слоя (i = 1, 2, ..., p). Значения выходных сигналов этих нейронов определяются по формуле [10]

$yi

=1

dH (x(i) , x)

,

(126)

N

 

 

 

 

где dH(x(i), x) обозначает расстояние Хемминга между входными векторами x и x(i), т.е. количество битов, на которое различаются эти два вектора. Значение yˆi =1, если x = x(i) и yˆi = 0, если x=-x(i). В остальных случаях значения yˆi

располагаются в интервале [0, 1].

Сигналы yˆi нейронов первого слоя становятся начальными состояниями

нейронов слоя MAXNET на второй фазе функционирования сети. Задача нейронов этого слоя состоит в определении победителя, т.е. нейрона, уровень возбуждения которого наиболее близок к 1. Такой нейрон указывает на вектор образа с минимальным расстоянием Хемминга до входного вектора x. Процесс определения победителя – это рекуррентный процесс, выполняемый согласно формуле

yi (k) = f

wij(m) yj (k 1)

= f yi (k 1) +wij(m) yj (k 1) ,

 

j

 

 

ji

 

при начальном значении yj(0)= yˆi . Функция активации

MAXNET задается выражением

y для y 0 f ( y) = .

0 для y < 0

(127)

f(y) нейронов слоя

(128)

Итерационный процесс (127) завершается в момент, когда состояние нейронов стабилизируется и активность продолжает проявлять только один нейрон, тогда как остальные пребывают в нулевом состоянии. Активный нейрон

становится победителем и через веса wij(2) линейных нейронов выходного слоя

представляет вектор y(i), который соответствует вектору x(i), признанному слоем MAXNET в качестве ближайшего к входному вектору x.

Важным достоинством сети Хемминга считается небольшое количество взвешенных связей между нейронами. Например, 100-входовая сеть Хопфилда, кодирующая 10 различных векторных классов, должна содержать 10000 взвешенных связей с подбираемыми значениями весов. При построении аналогичной сети Хемминга количество взвешенных связей уменьшается до 1100, из которых 1000 весов находятся в первом слое и 100 – в слое MAXNET. Выходной слой в этом случае не учитывается, поскольку сеть Хемминга, аналогичная сети Хопфилда, является ассоциативной.

В результате многочисленных экспериментов доказано, что рекуррентная сеть Хемминга дает лучшие результаты, чем сеть Хопфилда, особенно в ситуациях, когда взаимосвязанные векторы x и y являются случайными. В частности, реализованная в программе Mathlab сеть Хемминга, протестированная на 10 цифрах позволила почти безошибочно распознать все представленные зашумленные образы. Достигнутая эффективность распознавания зашумленных образов составила 100%. На рис. 19 и 20 изображены искаженные образы цифр 0- 9, поданные на вход натренированной сети Хемминга, и соответствующие им образы, распознанные этой сетью. Для цифр с рис. 19 только искаженным образам цифр 0, 3 и 6 были ошибочно приписаны другие оригиналы. Однако такое решение не может считаться результатом неправильного функционирования сети, поскольку распознанные образы соответствовали эталонам с наименьшим расстоянием Хемминга до искаженных образов (после повреждения эталонов шумом они стали подобны остальным обучающим выборкам).

Рис. 19. Тестовые (сверху) и распознанные сетью Хэмминга (снизу) образцы цифр при обработке первой группы искажёшшых входных данных