- •Искусственные нейронные сети, их классификация и основные классы решаемых задач
- •Сети радиальных базисных функций (rbf-сети): структура и назначение
- •Формальные нейроны, входная функция и функции активации или выхода нейрона и их виды
- •Интерполяция и аппроксимация функций с помощью rbf-сетей
- •Динамические нейронные сети. Сети с внешней и внутренней динамикой
- •Backpropagation-алгоритм обучения многослойных персептронов и его недостатки. Основные требования к функции активации нейрона в Backpropagation-сетях
- •Бинарные сети Хопфилда (Hopfield): структура, свойства, назначение и области применения. Непрерывные сети Хопфилда
- •9. Применение Backpropagation-нейросетей для преобразования ascii-текста в речевой сигнал (проект neTtalk) и для анализа видеоизображений
- •Правило останова переходного процесса в сети Хопфилда. Теорема Коэна (Сohen) и Гроссберга ( Grossberg)
- •11. Функция ошибки нейросети и градиентный способ определения ее минимума
- •12. Применение многослойных персептронов для прогнозирования способности к возврату кредита
- •14. Двухслойные и многослойные нейросети и их аппроксимационные
- •15.Сети Хопфилда: назначение, типы, структура, принцип действия
- •1) Режим фильтрации;
- •2) Синхронный режим;
- •Обучение нейросетей с поощрением и без поощрения (Supervised and unsupervised learning). Примеры.
- •Алгоритм Кохонена и его сходимость (одномерный и двумерный случай)
- •18)Основные недостатки алгоритма обучения с обратным распространением ошибки (Backpropagation) и способы их смягчения
- •19)Сети Кохонена, их структура и алгоритм обучения
- •20. Моделирование основных логических схем нейросетями
- •21. Частично рекуррентные сети Жордана и Элмана и их применение для прогнозирования временных рядов
- •5.3.2. Нейросети Жордана(Jordan) и Элмана(Elman)
- •22. Сети Кохонена. Основные стадии работы и области применения. Алгоритм обучения
- •23.Нейросети прямого распространения информации 1го и 2го порядка (fFсети 1го и 2го порядка)
- •24.Применение rbf-сетей для аппроксимации психометрической функции преподавателя
- •Гауссова (колокольная) фа(функция активации)
- •25. Моделирование схемы исключающего или (xor-схемы) двухслойным персептроном
- •26. Сети радиальных базисных функций (rbf-сети): структура и назначение
18)Основные недостатки алгоритма обучения с обратным распространением ошибки (Backpropagation) и способы их смягчения
Алгоритм обучения МСП(многослойного персептрона) с обратным распространением ошибки (Back Propagation (BP)-алгоритм)
Эффективность обученного МСП обычно оценивается величиной средней ошибки. Обозначим через действительное значение на выходе i-того выходного нейрона при распознавании p-ого образа обучающей последовательности, - требуемое значение на выходе i-того выходного нейрона при распознавании p-ого образа обучающей последовательности.
Ошибка при распознавании p-го образа обучающей последовательности:
При распознавании всех N образов ОП результирующая ошибка:
Если число весов связи равно 2 – то зависимость средней ошибки МСП от этих двух весов связи – то эту ошибку можно представить в виде поверхности.
Зависимость ошибки E от имеет ряд локальных минимумов и один глобальный минимум. В общем случае задача обучения МСП состоит в определении таких численных значений всех весов связи, при которых результирующая ошибка E достигает абсолютного минимума. Однако чаще всего в процессе обучения МСП отыскивается один из локальных минимумов. Он определяется следующим образом:
-
Производится инициализации всех весов связи небольшими численными значениями (обычно в интервале [-0,1;0,1]). Существует много программ генерации псевдослучайных чисел
-
Выбирается точка, в этой точке производится коррекция веса, в результате получается следующая приближение веса.
Почему алгоритм называется алгоритмом обучения с обратным распространением ошибки? Значения признаков образов обучающей последовательности обрабатывается в прямом направлении от входа к выходу МСП. На выходе МСП определяется классификация предъявленного образа. Если классификация персептрона не совпадает с классификацией этого образа учителем, то эта ошибка классификации используется для коррекции всех весов связи. Выявленная на выходе ошибка в классификации используется сначала для модификации весов связи между последним скрытым слоем и выходным слоем. После выполнения этой коррекции становятся известными ошибки на выходах нейронов последнего скрытого слоя и по этим ошибкам осуществляется коррекция весов связей между предпоследним и последним скрытым слоем, и т.д. осуществляется коррекция всех весов.
Основная трудность в разработке BP-алгоритма состоял в расчете величины ошибки скрытых нейронов. Из рассмотрения BP-алгоритма следует, что величина ошибки при обучении персептрона или при модификации всех его весов связи осуществляется в направлении от выхода ко входу, т.е. в направлении, обратном прямому.
BP-алгоритм обладает рядом недостатков:
-
В общем случае на основе BP-алгоритма отыскивается один из локальных минимумов ошибки, а не абсолютный минимум
-
Средняя ошибка может иметь плато, в котором эта ошибка примерно одинакова. На участке плато производная от ФА нейрона равна нулю. Модификация весов связи осуществляется с учетом этой производной от ФА. Т.е. при нулевой производной от ФА модификация весов связи невозможна.
Один из способов обхода ошибки – использование модифицированного алгоритма – BackProp Momentum. Если производная на участке равна 0, то учитывается производная на предыдущем участке