- •Устройство биологического нейрона и его математическая модель.
- •Детерминированная и стохастическая модели искусственного нейрона
- •Нейрон с сигмоидальной функцией активации
- •Стохастическая модель нейрона
- •Представление знаний.
- •Классы задач, решаемые нс. Примеры.
- •Классификация нс по архитектуре.
- •Однослойные сети прямого распространения
- •Многослойные сети прямого распространения
- •7.3.3.Рекуррентные сети
- •Классификация нс по парадигме обучения.
- •Обучение с учителем
- •Обучение без учителя
- •7.Понятие обучающей выборки (вектора)
- •8.Применимость различных активационных функций нейрона
- •1.1.1.1Активационные функции
- •9.Однослойные сети прямого распространения
- •10.Многослойные сети прямого распространения
- •11.Рекуррентные сети
- •12.Парадигмы обучения нс. Обучение с учителем. Применимость, примеры.
- •Обучение с учителем
- •13.Парадигмы обучения нс. Обучение без учителя. Применимость, примеры.
- •14.Парадигмы обучения нс. Смешанное обучение. Применимость, примеры.
- •15.Парадигмы обучения нс. Обучение Хебба. Математическая модель
- •16. Парадигмы обучения нс. Гипотеза ковариации. Математическая модель
- •17.Парадигмы обучения нс. Конкурентное обучение. Математическая модель
- •18.Парадигмы обучения нс. Обучение методом обратного распространения ошибки. Математическая модель
- •19. Парадигмы обучения нс. Обучение Больцмана. Математическая модель
- •20. Персептрон Розенблатта. Алгоритм обучения однослойного персептрона
- •21. Персептрон Розенблатта. Теорема о сходимости и «зацикливании» персептрона.
- •22. Персептрон Розенблатта. Дельта -правило
- •23. Многослойный персептрон. Теорема о двуслойности персептрона
- •24. Самоорганизующиеся карты Кохонена. Алгоритм обучения нс
- •Самоорганизующиеся карты Кохонена. Квантование обучающего вектора.
- •1.2Квантование обучающего вектора (Learning VectorQuantization)
- •Самоорганизующиеся карты Кохонена. Кластеризация
- •Сеть Хопфилда. Архитектура, обучение
- •1.2.1Алгоритм функционирования сети
- •1.2.2Архитектура сети
- •1.2.3Обучение сети
- •28. Сеть Хемминга. Архитектура, обучение
- •1.2.4Алгоритм функционирования сети Хемминга
- •Rbf сети. Архитектура. Применимость.
- •Rbf сети. Алгоритм обучения. Расчет опорных точек, параметра рассеяния и выходной весовой матрицы
- •Rbf сети. Аппроксимация
- •Ассоциативная сеть. Сжатие информации
- •Структура дап
14.Парадигмы обучения нс. Смешанное обучение. Применимость, примеры.
Смешанное обучение можно рассмотреть правилом обучения основанном на коррекции ошибок. Для того чтобы проиллюстрировать первое правило обучения, рассмотрим простейший случай нейрона k единственноrо вычислительноro узла выходноrо слоя нейронной сети прямоro распространения
Обучение, основанное на коррекции ошибок, является классическим примером обучения с учителем.
Рассмотрим один нейрон, который генерирует некоторый выходной сигнал под управлением вектора входного сигнала . Сравнивая полученный выходной сигнал с ожидаемым сигналом , получаем сигнал ошибки:
. (7.15)
На основании полученного сигнала ошибки осуществляется изменение синаптических весов нейрона с целью уменьшения функции стоимости , которая определяется как:
. (7.16)
Пошаговая корректировка синаптических весов нейрона продолжается до тех пор, пока нейрон не достигнет устойчивого состояния, то есть такого, при котором веса практически не меняются. Минимизация функции стоимости осуществляется по так называемому дельта правилу или правилу Видроу-Хоффа.
Обозначим значение синаптического веса на шаге . Тогда, в соответствии с дельта правилом, изменение веса будет задаваться выражением:
, (7.17)
где - константа скорости обучения (обычно выполняется неравенство ), а - компонент входного вектора , соответствующий синаптическому весу . Таким образом, значение синаптического веса после применения дельта правила будет определяться выражением:
. (7.18)
Дельта правило может быть сформулировано следующим образом: корректировка, применяемая к синаптическому весу нейрона, пропорциональна произведению сигнала ошибки на входной сигнал, его вызвавший.
Сформулированное дельта правило предполагает возможность прямого измерения сигнала ошибки, то есть наличие эталонного сигнала .
Следует отметить, что константа скорости обучения определяет эффективность и точность процесса обучения. Для обеспечения сходимости процесса обучения необходим тщательный подбор этого параметра.
Процесс, описанный выше, называется обучением, основанном на коррекции ошибок (errorcorrection leaming).
Гpаф прохождения сиrнала в процессе обучения, oснованного на коррекции ошибок, для выделенноro нейрона k. Входной сиrнал xk и индуцированное локальное поле Vk нейрона k представлены в виде предсинаптического (presynaptic) и постсинаптического (postsynaptic) сиrналов j-ro синапса нейрона k. На рисунке видно, что обучение на основе коррекции ошибок это пример замкнутой системы с обратной связью (closedloop feedback). Из теории управления известно, что устойчивость такой системы определяется параметрами обратной связи. В данном случае существует Bcero одна обратная связь, и единственным интересующим нас параметром является коэффициент скорости обучения t. Для обеспечения устойчивости или сходимости итеративноrо процесса обучения требуется тщательный подбор этоrо параметра. Выбор параметра скорости обучения влияет также на точность и друrие характеристики процесса обучения. Друrими словами, параметр скорости обучения t иrpает ключевую роль в обеспечении производительности процесса обучения на практике.