Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ИИС / поштучно / 8_Set_poiska_maximuma_s_pryamymi_svyazyami

.docx
Скачиваний:
25
Добавлен:
02.03.2016
Размер:
36.64 Кб
Скачать

8 вопрос

Алгоритм обучения персептрона:

Шаг 1. Инициализация синаптических весов и смещения b некоторыми случайными малыми числами.

Шаг 2. Предъявление персептрону нового входного вектора x = (x1, …, xN) и требуемого выходного сигнала d.

Шаг 3. Вычисление выходного сигнала персептрона:

,

(21)

где b – постоянное смещение.

Шаг 4. Настройка значений весов персептрона:

,

(22)

где η (0< η<1) – коэффициент скорости обучения,

d – требуемый выход.

Если решение правильное, веса не модифицируются.

Шаг 5. Переход к шагу 2.

Персептрон применялся для задач автоматической классификации и был способен делить пространство признаков только линейными функциями, т.к. представлял собой однослойную нейронную сеть. Распознавание при помощи персептрона становилось невозможным при работе в пространстве признаков, обладающем свойством линейной неразделимости. Решением этой проблемы стало использование многослойного персептрона.

Персептрон стал первой действующей нейросетевой моделью, показавшей основные недостатки имеющихся решений задач ИИ и определившей основные направления дальнейших разработок в этой области.

Сеть поиска максимума с прямыми связями (Feed-Forward MAXNET, сеть поиска максимума, основанная на двоичном дереве и нейросетевых компараторах)

Рисунок 6. Сеть поиска максимума с прямыми связями

Предложена в качестве дополнения к сети Хэмминга (см. п. 1.6.2) [4].

Входные сигналы сравниваются попарно, и на каждый следующий слой сети передается наибольший сигнал. С выхода сети снимается сигнал, являющийся максимальным из входных.

Передаточные функции нейронов, формирующих сигналы y1, y2 – жесткие пороговые, передаточные функции остальных нейронов – линейные с насыщением.

Если вспомнить вид линейной функции с насыщением (рисунок 3, б), очевидно, что каждый из помеченных светлым нейронов первого уровня, обрабатывающих входные сигналы по формулам x1-x2 и x2-x1, формирует на выходе разность входных сигналов или 0. Т.е. если x1>x2, то на выходе первого нейрона будет сигнал, пропорциональный величине x1-x2, а на выходе второго 0. Сигнал z в этом случае будет равен:

0,5·(x1-x2) + 0,5·x1 + 0,5·x2 = x1

На рисунке 5 обозначены:

z – значение максимального сигнала

y1, y2 – индикаторы максимума.

Используется совместно с сетью Хэмминга в составе систем распознавания образов.

Недостаток – зависимость числа слоев сети от размерности входного сигнала