
- •Глава 1. Нейронные сети
- •Глава 2.Обучение нейронных сетей
- •Глава 1. Нейронные сети
- •1.1Биологический нейрон
- •1.2 Искусственные нейронные сети
- •1.3Применение нейронных сетей
- •Глава 2. Обучение нейронных сетей
- •1.Персептрон
- •3.Модель Хопфилда
- •Машина Больцмана
- •5. Сеть Кохонена (карты Кохонена)
- •6. Модель Хэмминга
- •7. Модель art (Сеть Гросберга)
- •9. Когнитрон и неокогнитрон
Глава 2. Обучение нейронных сетей
По организации обучения разделяют обучение нейронных сетей с учителем (supervised neural networks) и без учителя (nonsupervised). При обучении с учителем предполагается, что есть внешняя среда, которая предоставляет обучающие примеры (значения входов и соответствующие им значения выходов) на этапе обучения или оценивает правильность функционирования нейронной сети и в соответствии со своими критериями меняет состояние нейронной сети или поощряет (наказывает) нейронную сеть, запуская тем самым механизм изменения ее состояния. Под состоянием нейронной сети, которое может изменяться, обычно понимается:
веса синапсов нейронов (карта весов - map) (коннекционистский подход);
веса синапсов и пороги нейронов (обычно в этом случае порог является более легко изменяемым параметром, чем веса синапсов);
установление новых связей между нейронами (свойство биологических нейронов устанавливать новые связи и ликвидировать старые называется пластичностью).
По способу обучения разделяют обучение по входам и по выходам. При обучении по входам обучающий пример представляет собой только вектор входных сигналов, а при обучении по выходам в него входит и вектор выходных сигналов, соответствующий входному вектору.
По способу предъявления примеров различают предъявление одиночных примеров и "страницы" примеров. В первом случае изменение состояния нейронной сети (обучение) происходит после предъявления каждого примера. Во втором - после предъявления "страницы" (множества) примеров на основе анализа сразу их всех.
По особенностям модели нейрона различают нейроны с разными нелинейными функциями:
-пороговой;
-экспоненциальной сигмоидой;
-рациональной сигмоидой;
-гиперболическим тангенсом.
Перечисленные функции относятся к однопараметрическим. Также используются многопараметрические передаточные функции.
Глав 3. Модели нейронных сетей
Персептроны
Многослойная сеть с обратным распространением ошибки
Модель Хопфилда
Машина Больцмана
Сеть Кохонена (карты Кохонена)
Модель Хэмминга
Модель ART (Сеть Гросберга)
Двунаправленная ассоциативная память (ДАП)
Когнитрон и неокогнитрон.
1.Персептрон
Первое систематическое изучение искусственных нейронных сетей было предпринято Маккалокком и Питтсом в 1943 г. Простая нейронная модель, показанная на рисунке 2.1, использовалась в большей части их работы.
2.Многослойная сеть с обратным распространением ошибки
Метод обратного распространения ошибки (англ. backpropagation)— метод обучения многослойного перцептрона. Впервые метод был описан в 1974 г. А.И. Галушкиным[1], а также независимо и одновременно Полом Дж. Вербосом[2]. Далее существенно развит в 1986 г. Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом[3] и независимо и одновременно С.И. Барцевым и В.А. Охониным (Красноярская группа)[4].. Это итеративный градиентный алгоритм, который используется с целью минимизации ошибки работы многослойного перцептрона и получения желаемого выхода.
Основная идея этого метода состоит в распространении сигналов ошибки от выходов сети к её входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы. Барцев и Охонин предложили сразу общий метод («принцип двойственности»), приложимый к более широкому классу систем, включая системы с запаздыванием,распределённые системы, и т. п.