Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
нейронные сети.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
316.13 Кб
Скачать

Глава 2. Обучение нейронных сетей

По организации обучения разделяют обучение нейронных сетей с учителем (supervised neural networks) и без учителя (nonsupervised). При обучении с учителем предполагается, что есть внешняя среда, которая предоставляет обучающие примеры (значения входов и соответствующие им значения выходов) на этапе обучения или оценивает правильность функционирования нейронной сети и в соответствии со своими критериями меняет состояние нейронной сети или поощряет (наказывает) нейронную сеть, запуская тем самым механизм изменения ее состояния. Под состоянием нейронной сети, которое может изменяться, обычно понимается:

веса синапсов нейронов (карта весов - map) (коннекционистский подход);

веса синапсов и пороги нейронов (обычно в этом случае порог является более легко изменяемым параметром, чем веса синапсов);

установление новых связей между нейронами (свойство биологических нейронов устанавливать новые связи и ликвидировать старые называется пластичностью).

По способу обучения разделяют обучение по входам и по выходам. При обучении по входам обучающий пример представляет собой только вектор входных сигналов, а при обучении по выходам в него входит и вектор выходных сигналов, соответствующий входному вектору.

По способу предъявления примеров различают предъявление одиночных примеров и "страницы" примеров. В первом случае изменение состояния нейронной сети (обучение) происходит после предъявления каждого примера. Во втором - после предъявления "страницы" (множества) примеров на основе анализа сразу их всех.

По особенностям модели нейрона различают нейроны с разными нелинейными функциями:

-пороговой;

-экспоненциальной сигмоидой;

-рациональной сигмоидой;

-гиперболическим тангенсом.

Перечисленные функции относятся к однопараметрическим. Также используются многопараметрические передаточные функции.

Глав 3. Модели нейронных сетей

  1. Персептроны

  2. Многослойная сеть с обратным распространением ошибки

  3. Модель Хопфилда

  4. Машина Больцмана

  5. Сеть Кохонена (карты Кохонена)

  6. Модель Хэмминга

  7. Модель ART (Сеть Гросберга)

  8. Двунаправленная ассоциативная память (ДАП)

  9. Когнитрон и неокогнитрон.

1.Персептрон

Первое систематическое изучение искусственных нейронных сетей было предпринято Маккалокком и Питтсом в 1943 г. Простая нейронная модель, показанная на рисунке 2.1, использовалась в большей части их работы.

2.Многослойная сеть с обратным распространением ошибки

Метод обратного распространения ошибки (англ. backpropagation)— метод обучения многослойного перцептрона. Впервые метод был описан в 1974 г. А.И. Галушкиным[1], а также независимо и одновременно Полом Дж. Вербосом[2]. Далее существенно развит в 1986 г. Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом[3] и независимо и одновременно С.И. Барцевым и В.А. Охониным (Красноярская группа)[4].. Это итеративный градиентный алгоритм, который используется с целью минимизации ошибки работы многослойного перцептрона и получения желаемого выхода.

Основная идея этого метода состоит в распространении сигналов ошибки от выходов сети к её входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы. Барцев и Охонин предложили сразу общий метод («принцип двойственности»), приложимый к более широкому классу систем, включая системы с запаздыванием,распределённые системы, и т. п.