
- •Глава 5. Нейросетевые методы распознавания и аппроксимации
- •5.1 Принципы организации и классификация нейронных сетей
- •5.2 Формальный нейрон. Однослойный персептрон
- •5.3 Многослойный персептрон
- •5.3.1 Модель сети
- •5.3.2 Обучение многослойного персептрона
- •Да: перейти на шаг 11. Нет: Перейти на шаг 13.
- •Да: Окончание поиска: нет продвижения к решению. Перейти на шаг 13.
- •Алгоритмы сопряженных градиентов представляют собой подкласс квадратично сходящихся методов. Для алгоритмов сопряженных градиентов шаг 6 обобщенного градиентного алгоритма имеет вид:
- •5.3.3 Следящий алгоритм обучения мнс
- •5.4 Радиально-базисные нейронные сети
- •5.5 Нейронные сети Хопфилда
- •5.5.1 Модель сети Хопфилда
- •5.5.2 Обучение сети Хопфилда распознаванию образов
- •5.5.3 Эффект разнасыщения
- •5.6 Нейронная сеть Хэмминга
- •5.7 Машина Больцмана
- •5.8 Двунаправленная ассоциативная память
- •5.9 Нейросетевой селектор максимума
- •5.10 Карта признаков самоорганизации Кохонена
- •5.10.2 Интерпретация результатов классификации нс Кохонена
- •Блок кпск-азу может быть рекомендован для использования в системах классификации в случае, когда:
- •5.10.3 Выбор метрики и учет информативности признаков
- •Шаг 3. Произвести обучение блока кпск-азу на всей выборке X
- •5.11 Квантование обучающих векторов
- •5.11.1 Модель сети
- •5.11.2 Алгоритм обучения lvq1
- •5.11.3 Алгоритм обучения lvq2
- •5.11.4 Алгоритм обучения lvq3
- •5.11.5 Алгоритм обучения olvq1
- •5.12 Контрастирование нейронных сетей
- •Алгоритм построения и оптимизации модели объекта.
- •Алгоритм контрастирования многослойной нейронной сети.
Да: перейти на шаг 11. Нет: Перейти на шаг 13.
Шаг 11. Выполняется ли неравенство
?
Да: Окончание поиска: нет продвижения к решению. Перейти на шаг 13.
Нет: перейти на шаг 12.
Шаг 12. Положить k=k+1. Перейти на шаг 3.
Шаг 13. Останов.
Следует заметить, что в процессе одномерного поиска следует по возможности избегать точных вычислений, так как эксперименты показывают, что на выполнение операций поиска вдоль прямой тратится весьма значительная часть общего времени вычислений.
В вышеописанном обобщенном градиентном алгоритме можно использовать различные градиентные методы путем определения соответствующих направлений поиска на шаге 6. Определяя соответствующим образом s(wk),можно трансформировать рассмотренный обобщенный градиентный алгоритм практически в любой градиентный алгоритм обучения МНС, что позволяет существенно упростить разработку нейросетевых систем без жесткой привязки к определенному градиентному алгоритму.
Рассмотрим некоторые частные случаи обобщенного градиентного алгоритма.
Метод Коши (метод наискорейшего спуска, в обучении нейронных сетей известный, как алгоритм обратного распространения ошибки первого порядка илиBackpropagation)заключается реализации правила (шаг 6 обобщенного градиентного алгоритма):
.
Обозначив текущий градиент
,получим:
s(wk) = - γkgk,
где γk–скорость обучения.
Величина γ либо полагается постоянной, и тогда обычно последовательность wkсходится в окрестность оптимального значения w, либо она является убывающей функцией времени так, как это делается в стохастических алгоритмах оптимизации и адаптации.
Данная процедура может выполняться до тех пор, пока значения управляемых переменных не стабилизируются или пока ошибка не уменьшится до приемлемого значения. Следует отметить, что данную процедуру характеризует медленная скорость сходимости и возможность попадания в локальные минимумы функционала.
Для метода Ньютона или алгоритма обратного распространения ошибки второго порядка шаг 6 обобщенного градиентного алгоритма имеет вид:
.
Алгоритмы сопряженных градиентов представляют собой подкласс квадратично сходящихся методов. Для алгоритмов сопряженных градиентов шаг 6 обобщенного градиентного алгоритма имеет вид:
s(wk)=-gk + k s(wk-1).
В большинстве алгоритмов сопряженных градиентов размер шага корректируется при каждой итерации, в отличие от других алгоритмов, где обучающаяся скорость используется для определения размера шага. Различные версии алгоритмов сопряженных градиентов отличаются способом, по которому вычисляется константа β.
Для алгоритма сопряженных градиентов Флетчера-Ривса правило вычисление константы β имеет вид:
,
где β - отношение квадрата нормы текущего градиента к квадрату нормы предыдущего градиента.
В обобщенном градиентном алгоритме отсутствует процедура возврата к начальной итерации для метода Флетчера-Ривса, но вместе с тем тесты, включенные в алгоритм, обеспечивают обнаружение любых трудностей, ассоциированных с необходимостью возврата при расчетах по методу сопряженных градиентов.
Для алгоритма сопряженных градиентов Полака-Рибьераправило вычисление константы β имеет вид:
,
где β - внутреннее произведение предыдущего изменения в градиенте и текущего градиента, деленное на квадрат нормы предыдущего градиента.
Алгоритм Левенберга-Марквардта требует наличия информации о значениях производных целевой функции. В алгоритме Левенберга-Марквардта используется метод обратного распространения ошибки первого порядка, чтобы вычислить якобиан J целевой функции относительно весов и порогов сети.
Для алгоритма Левенберга-Марквардта шаг 6 обобщенного градиентного алгоритма имеет вид:
s(wk) = – [Hk + ηI]-1gk,
где H = JTJ, J - якобиан, gk=JTe – текущий градиент, e - вектор ошибок, η - скаляр, I – единичная матрица.
Адаптивное значение ηувеличивается в η+ раз до тех пор, пока значение целевой функции не уменьшится. После чего изменения вносятся в сеть и η уменьшается в η – раз.