Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебники 6069.doc
Скачиваний:
7
Добавлен:
01.05.2022
Размер:
506.88 Кб
Скачать

4.3. Обучение персептронных сетей

Для обучения персептронных сетей используется используется метод наблюдаемого обучения (метод обучения с учителем).

40

При обучении создается набор эталонных образцов (на­боры входной информации). Для каждого входного набора

вы­бирается выходное состояние нейронов решающего слоя. При обучении выполняется коррекция весов связей в сети до тех пор, пока выходное состояние сети не будет совпадать с выбран­ным с некоторой погрешностью. Обучение выполняется по следующему алгоритму:

  1. Выбирается образец X={xi}, характеризующийся набором значений входов xi;

  2. Весам связей присваиваются некоторые случайные значения (инициализация сети);

  3. Вычисляется выходное состояние сети Y={yj};

  4. Определяется разность между выходным состоянием сети и образцом =Y-D, где D – образ состояния, соответствующий образцу;

  5. Выполняется коррекция весов отдельных входов по выражению: Wij=jxi, где  - коэффициент скорости обучения;

  6. Вычисляются новые значения весов;

  7. Определяется новое состояние Y;

  8. Определяется погрешность состояния . Если она не превы­шает некоторой установленной границы, то обучение за­канчи­вается, если же превышает, то повторяется цикл коррекции весов.

4.4. Сети встречного распространения

Эти сети состоят из двух слоев: первый слой называется слоем Кохонена (К), а второй – слоем Гроссберга (Г) (рис.18).

Первый слой осуществляет суммирование входных сиг­налов сети и выделяет совокупность признаков определенного типа на выходе одного нейрона (принцип “Победитель полу­ча­ет все”). Для другого набора признаков слой устанавливает единичное состояние другого нейрона и т. д.

Второй слой устанавливает на своих выходах значения, которые соответствуют взвешенному состоянию единичного нейрона первого слоя, т. е. значение выхода отдельного нейро-

41

на второго слоя равен весу связи этого нейрона с нейроном

первого слоя, находящегося в единичном состоянии.

y=W11

W11

W12 y= W12

W13

y= W13

W14

y =W14

К Г

Рис. 18. Фрагмент сети встречного распространения

Обучение для данной сети выполняется послойно, для каждого слоя по своему алгоритму. Первый слой обучается без учите­ля (ненаблюдаемое обучение). При таком способе обучения вы­пол­няется инициализация слоя, т. е. задается случайный набор значений весов входов. Далее выполняется корректировка ве­сов по следующей формуле: WH=WC+(x-WC),

где WC – значение веса на некоторой итерации;

WH – значение веса на следующей итерации.

Слой обучается до тех пор, пока его выходы не застабилизируются.

Второй слой обучается с учителем, т. е. для каждого ней­рона первого слоя, находящегося в единичном состоянии, выбира­ется набор значений выходов. Коррекция весов связей между первым и вторым сло­ем осуществляется на величину, пропорциональную раз­но­сти действующего значения и образцового.

Для реализации обучения входные значения норми­руют­ся. Нормирование выполняется по отношению к сумме квад­ра­т­ов значений всех входов: Xin=

Сеть Кохонена - Гросберга выделяет образец при установке входных сигналов на входах слоя Кохонена. Если сигна-

42

лы установить на выходах сети, сеть установит на входах соответствующий набор, отображающий предъявленный образец. Поэтому такие сети называются сетями встречного распространения.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]