- •Введение
- •1. Аналитические технологии
- •1.1. Определение аналитических технологий.
- •1.2. Традиционные технологии
- •1.3.Новые технологии
- •2. Искусственные нейронные сети
- •2.1. Принципы работы мозга
- •2.2. Искусственная нейронная сеть
- •2.3 Принципы обучения искусственной нейронной сети
- •2.4. Сбор данных для нейронной сети
- •2.5. Переобучение и обобщение
- •3. Модели нейронов и методы их обучения
- •3.1. Персептрон
- •3.2. Сигмоидальный нейрон
- •3.3. Нейрон типа «адалайн»
- •3.4. Инстар и оутстар Гроссберга
- •3.5. Нейроны типа wta
- •3.6. Модель нейрона Хебба
- •3.7. Стохастическая модель нейрона
- •4.Алгоритмы обучения искусственных нейронных сетей
- •Многослойный персептрон
- •Алгоритм обратного распространения ошибки
- •Стохастические алгоритмы обучения искусственных нейронных сетей
- •Настройка числа нейронов в скрытых слоях многослойных сетей в процессе обучения
- •Виды искусственных нейронных сетей
- •5.1. Линейные сети
- •5.2. Радиальные нейронные сети
- •5.3. Сети с самоорганизацией на основе конкуренции
- •5.4. Модели ассоциативной памяти
- •5.5. Когнитивные карты
- •Способы внедрения новых аналитических технологий
- •Заключение
- •Список литературы
3.7. Стохастическая модель нейрона
В отличие от ранее рассмотренных детерминированных моделей в стохастической модели [13] выходное состояние нейрона зависит не только от взвешенной суммы входных сигналов, но и от некоторой случайной переменной, значение которой выбирается при каждой реализации из интервала (0, 1).
В
стохастической модели нейрона выходной
сигнал
принимают значения
с вероятностью:
(24)
где обозначена взвешенная сумма входных сигналов i–го нейрона, а - это положительная константа, чаще всего равная 1. Алгоритм обучения стохастической модели нейрона состоит из следующих этапов:
Расчет взвешенной суммы для каждого нейрона сети:
. (25)
Расчет вероятности того, что принимает значение в соответствии с формулой (24);
Генерация значения следующей переменной
и формирование выходного сигнала
:Если
,
то
Если
,
то
;
Определенный таким образом процесс осуществляется на случайно выбранной группе нейронов вследствие чего их состояние модифицируется в соответствии с предложенным правилом;
После фиксации состояния нейрона их коэффициенты модифицируются по применяемому правилу уточнения весов, например, при обучении с учителем по правилу Видроу-Хоффа:
.
(26)
Доказано, что такой способ подбора весов приводит в результате к минимизации целевой функции:
(27)
рассчитываемая по всем n нейронам и p обучающим выборкам.
4.Алгоритмы обучения искусственных нейронных сетей
Объединенные между собой нейроны образуют систему, которая в дальнейшем будет называться искусственной нейронной сетью (ИНС). В зависимости от способа объединения нейронов они могут быть сетями однонаправленными либо рекуррентными (с обратной связью).
Среди различных известных видов ИНС наибольший интерес вызывает однонаправленная многослойная сеть, состоящая из нейронов сигмоидального типа, называемого многослойным персептроном [10,19]. Передача сигналов в таких сетях происходит только в одном направлении от входа к выходу. Обучение многослойного персептрона проводится с учителем путем подбора кортежей , в которых x – входной вектор, d – соответствующий ему ожидаемый выходной вектор сети. Если векторы x и d не равны между собой, сеть называется гетероассоциативной. В случае, когда x = d, сеть называется автоассоциативной.
В данном разделе рассмотрим базовые математические зависимости, определяющие многослойные сигмоидальные сети, обсудим основные методы обучения подобных сетей.
Многослойный персептрон
Многослойная сеть состоит из нейронов, расположенных на разных уровнях, причем, помимо входного и выходного слоев, имеется еще, как минимум, один внутренний, т.е. скрытый слой.
Рисунок 20 – Обобщенная структура многослойного персептрона
На
рисунке 20 представлена сеть с одним
скрытым слоем. Веса
нейронов скрытого слоя обозначим
,
а выходного слоя
.
Выходные сигналы нейронов скрытого
слоя пометим
,
выходного слоя -
.
Примем, что функция активации нейронов
задана в сигмоидальной униполярной или
биполярной форме.
Цель
обучения состоит в подборе таких значений
весов
и
для всех слоев сети, чтобы при заданном
входном векторе x
получить на выходе значения сигналов
,
которые будут совпадать с ожидаемыми
значениями
.
При таком подходе выходной сигнал j-го
нейрона скрытого слоя удается описать
функцией
(28)
В выходном слое k-й нейрон вырабатывает выходной сигнал, определяемый как
Из приведенной формулы следует, что на значение выходного сигнала влияют веса обоих слоев, тогда как сигналы, вырабатываемые в скрытом слое, не зависят от весов выходного слоя.
