
- •1Нейросети. Основные подходы к созданию нейросетей?
- •2Связь нейроструктуры с искусственным интеллектом. Искусственный интеллект
- •3 Основные компоненты нейроструктуры. Что такое элемент, его связи и функции активности? Основные компоненты искусственной нейронной сети
- •4Обучение сети.
- •5 Представление связи в сети в матричной форме.
- •Сеть Хопфилда
- •7Области применения нейроструктуры в средствах измерений.
4Обучение сети.
Типичной формой обучения является управляемое обучение, когда для каждого набора данных, подающегося в процессе обучения на вход сети, соответствующий выходной набор известен.
Обычно в начале обучения весовые коэффициенты устанавливаются равными случайным малым значениям, чтобы сеть произвела верный вывод.
Расхождение между тем, что даст сеть, и тем, что для данного учебного набора должно быть получено на самом деле, составляет ошибку, которая может использоваться для корректировки весов.
Примером правила коррекции ошибок является дельта-правило, называемое также правилом Видроу—Хоффа (Widrow-Hoffrule). На рис. 2.16 выходной элемент имеет активность (т.е. вывод) y, а истинный вывод должен быть равным t. Ошибка δ задается следующей формулой:
δ = t - y.
Рис. 2.16. Взвешенная связь двух элементов
Сигнал, приходящий к выходному элементу, обозначен через х. В соответствии с дельтаправилом, необходимо внести коррекцию Δw, вычисляемую по формуле
Δw=η⋅δ⋅χ,
где η обозначает действительное число, называемое нормой обучения. Новый весовой коэффициент устанавливается равным сумме значений старого веса и коррекции:
w=w+Δw.
В начале обучения весовые коэффициенты устанавливаются равными малым случайным значениям; например, из диапазона [-0.3, +0.3]. В процессе обучения на вход сети подаются образец за образцом, и в результате их обработки весовые коэффициенты корректируются до тех пор, пока для всех вводимых образцов ошибки не станут меньше некоторого приемлемого достаточно малого значения. В завершение процесса сеть тестируется на данных, не представленных в фазе обучения: в результате можно оценить, насколько хорошо сеть работает с данными, которые в процессе обучения были ей неизвестны.
Обучение с учителем
НС представляет собой адаптивную систему, жизненный цикл которой состоит из двух независимых фаз – обучения и работы сети.
Обучение считается законченным, когда сеть правильно выполняет преобразование на тестовых примерах и дальнейшее обучение не вызывает значительного изменения настраиваемых весовых коэффициентов.
Далее сеть выполняет преобразование ранее неизвестных ей данных на основе сформированной ею в процессе обучения нелинейной модели процесса.
Сеть успешно работает до тех пор, пока существенно не изменится реальная модель отображаемого явления (например, в случае возникновения ситуации, информация о которой никогда ни предъявлялась сети при обучении).
После этого сеть может быть до обучена с учетом новой информации, причем при дообучении предыдущая информация не теряется, а обобщается с вновь поступившей. При «повреждении» части весовых коэффициентов НС ее свойства могут быть полностью восстановлены в процессе дообучения.
От того, насколько качественно будет выполнен этап обучения НС, зависит способность сети решать поставленные перед ней проблемы во время эксплуатации.
Теория обучения рассматривает три фундаментальных свойства, связанных с обучением по примерам: емкость, сложность образцов и вычислительная сложность.
Под емкостью понимается, сколько образцов может запомнить сеть и какие функции и границы принятия решений могут быть на ней сформированы.
Сложность образцов определяет число обучающих примеров, необходимых для достижения способности сети к обобщению.
Важной характеристикой является время затрачиваемое на обучение. Как правило, время обучения и качество обучения связаны обратной зависимостью и выбирать эти параметры приходится на основе компромисса.
Существуют три парадигмы обучения: «с учителем», «без учителя» (самообучение) и смешанная.
В свою очередь множество различных алгоритмов обучения делятся на два больших класса: детерминистских и стохастических алгоритмов.
В первом из них подстройка весов представляет собой жесткую последовательность действий,
во втором – она производится на основе действий, подчиняющихся некоторому случайному процессу.
Обучение с учителем предполагает, что для каждого входного вектора существует целевой вектор, представляющий собой требуемый выход. Вместе они называются обучающей парой. Обычно сеть обучается на некотором числе таких обучающих пар.
Когда в сети только один слой, алгоритм ее обучения с учителем довольно очевиден, так как правильные выходные состояния нейронов единственного слоя заведомо известны, и подстройка синаптических связей идет в направлении, минимизирующем ошибку на выходе сети.
В многослойных же сетях оптимальные выходные значения нейронов всех слоев, кроме последнего, как правило, не известны, и двух или более слойную НС уже невозможно обучить, руководствуясь только величинами ошибок на выходах этой сети.
Один из вариантов решения этой проблемы – разработка наборов выход-ных сигналов, соответствующих входным, для каждого слоя НС, что, конечно, явля-ется очень трудоемкой операцией и не всегда осуществимо.
Второй вариант – дина-мическая подстройка весовых коэффициентов синапсов, в ходе которой выбирают-ся, как правило, наиболее слабые связи, которые изменяются на малую величину в ту или иную сторону.
Качество работы нейронной сети сильно зависит от предъявляемого ей в процессе обучения набора учебных данных. Учебные данные должны быть типичными для задачи, решению которой обучается сеть. Обучение часто оказывается уникальным процессом, когда приемлемые решения многих проблем могут быть получены только в процессе многочисленных экспериментов. Разработчикам решения на основе нейронной сети требуется следующее:
• Выбрать соответствующую модель сети.
• Определить топологию сети (т.е. число элементов и их связи).
• Указать параметры обучения.
Часто разработчику необходимо выполнить и предварительную подготовку данных. Такая предварительная подготовка может быть совсем простой, - например, перевод с помощью масштабирования значений всех признаков (т.е. переменных) в диапазон от 0 до 1, - а может включать использование и более сложных статистических процедур.