- •Введение
- •1. Аналитические технологии
- •1.1. Определение аналитических технологий.
- •1.2. Традиционные технологии
- •1.3.Новые технологии
- •2. Искусственные нейронные сети
- •2.1. Принципы работы мозга
- •2.2. Искусственная нейронная сеть
- •2.3 Принципы обучения искусственной нейронной сети
- •2.4. Сбор данных для нейронной сети
- •2.5. Переобучение и обобщение
- •3. Модели нейронов и методы их обучения
- •3.1. Персептрон
- •3.2. Сигмоидальный нейрон
- •3.3. Нейрон типа «адалайн»
- •3.4. Инстар и оутстар Гроссберга
- •3.5. Нейроны типа wta
- •3.6. Модель нейрона Хебба
- •3.7. Стохастическая модель нейрона
- •4.Алгоритмы обучения искусственных нейронных сетей
- •Многослойный персептрон
- •Алгоритм обратного распространения ошибки
- •Стохастические алгоритмы обучения искусственных нейронных сетей
- •Настройка числа нейронов в скрытых слоях многослойных сетей в процессе обучения
- •Виды искусственных нейронных сетей
- •5.1. Линейные сети
- •5.2. Радиальные нейронные сети
- •5.3. Сети с самоорганизацией на основе конкуренции
- •5.4. Модели ассоциативной памяти
- •5.5. Когнитивные карты
- •Способы внедрения новых аналитических технологий
- •Заключение
- •Список литературы
3. Модели нейронов и методы их обучения
В соответствии с принципами функционирования биологических нейронов созданы различные математические модели, которыми в большей или меньшей степени реализуются свойства природной нервной клетки.
3.1. Персептрон
Простой персептрон – обычная модель МакКаллока-Питса с соответствующей стратегией обучения [16, 19]. Структурная схема и обозначения элементов i-го персептрона представлены на рисунке 9.
Рисунок 9 – Структурная схема персептрона
Нелинейная
функция активации персептрона представляет
собой дискретную функцию ступенчатого
типа, где выходной сигнал принимает
значения 0 либо 1,
- пороговое
значение для функции активации
персептрона.
,
(1)
(2)
Обучение
персептрона требует наличие учителя и
состоит в таком подборе весов, чтобы
выходной сигнал
был наиболее близок к целевому значению
.
Обучение персептрона осуществляется по следующему алгоритму:
При первоначальных (случайных) наборах значений весов
на вход подаётся обучающий вектор x
и рассчитывается значение выходного
сигнала
;По результатам сравнения фактически полученного значения с заданным значением уточняются значения весов;
Если значение совпадает с ожидаемым значением , то весовые коэффициенты не изменяются;
Если =0, а
,
,
где tобозначает
номер предыдущего цикла, а (t+1)
– номер текущего цикла;Если
,
а
,
то
,где
tобозначает
номер предыдущего цикла, а (t+1)
– номер текущего цикла.
По завершении уточнения весовых коэффициентов представляются очередной обучающий вектор x и связанное с ним ожидаемое значение , и значения весов уточняются заново. Этот процесс многократно повторяется на всех обучающих выборках, пока не будут минимизированы различия между всеми значениями и соответствующими им ожидаемыми значениями .
Правило персептрона представляет собой частный случай предложенного позже правила Видроу-Хоффа [23]. В соответствии с этим правилом подбор весовых коэффициентов нейрона проводится по формулам:
,
(3)
.
(4)
Отсюда, если сигналы и принимают только двоичные значения 0 и 1, то правило Видроу-Хоффа превращается в правило персептрона.
Характерная особенность как правила персептрона, так и обобщенного правила Видроу-Хоффа состоит в использовании для обучения информации только о текущем и ожидаемом значениях выходного сигнала. В связи с разрывностью нелинейной функции активации персептрона невозможно учитывать информацию об изменении значения . Минимизация различий между фактическими реакциями нейрона и ожидаемыми значениями может быть представлена как минимизация конкретной функции погрешности (целевой функции) Е, чаще всего определяемой как
,
(5)
где р означает количество предъявляемых обучающих выборок. Минимизация при использовании правила персептрона проводится по методу безградиентной оптимизации.
Персептрон с одним слоем нейронов способен представлять ограниченный класс линейно разделимых образов [6]. Рассмотрим пример применения персептрона для решения задач дихотомии. Тогда на выходе нейрона получим
,
(6)
где
– выход нейрона, –ступенчатая функция
активации,
- значение порога.
Предположим,
что входные сигналы
принимают
двоичные значения (0 или 1). В этом случае
пространство входных признаков состоит
из 4-х возможных комбинаций:
|
|
0 |
0 |
0 |
1 |
1 |
0 |
1 |
1 |
и может быть представлено на плоскости на рисунке10.
Рисунок 10 – Линейная разделяющая функция
В
зависимости от конкретных значений
весов
и
,
а так же от значения порога
уравнение
будет
определять прямую на плоскости,
разбивающую плоскость признаков на две
части, соответствующие двум классам
выходных образов. Отсюда следует, что
возможности персептрона ограничены
классом линейно разделимых образов.
Так, персептрон не может реализовать
функцию исключающего «ИЛИ», т.к. в этом
случае точки (0,0) и (1,1) должны находиться
по одну сторону прямой, (1,0) и (0,1) – по
другую, что невозможно. Данные рассуждения
останутся справедливыми и в случае
наличия произвольного числа признаков
и выходных классов. Только в этом случае
разделяющая функция будет представлять
собой гиперплоскость в n-мерном
пространстве признаков.
