- •Введение
- •Формальный нейрон. Типология нейронов. Задача, решаемая нейроном, геометрическая интерпретация.
- •Формальный нейрон.
- •Типология нейронов.
- •Геометрическая интерпретация задачи нейрона.
- •Нейронная сеть. Слой, типология слоёв. Типология нейронных сетей. Основные классы задач, решаемых нейронными сетями.
- •задачи
- •Задача обучения нейронной сети, отличие от задачи обучения нейрона. Проблемы. Примеры алгоритмов и методов обучения.
- •Градиентные методы.
- •Математическое обоснование метода обратного распространения ошибки. Алгоритм обратного распространения ошибки.
- •Вывод формулы для расчёта адаптивного коэффициента обучения в алгоритме обратного распространения ошибки.
- •Вывод формулы для расчёта адаптивного шага обучения для нерекуррентной линейной нейронной сети.
- •Алгоритм послойного обучения. Назначение и отличие от алгоритма обратного распространения ошибки.
- •Алгоритм многократного распространения ошибки. Назначение и отличие от алгоритма обратного распространения ошибки.
- •Задача предсказания числовых последовательностей с помощью нейронных сетей. Особенности устройства нейронных сетей для предсказания числовых последовательностей.
- •Реккурентные нейронные сети. Контекстный нейрон. Обучение. Сеть Элмана. Сеть Джордана.
- •Рециркуляционные нейронные сети. Линейная рециркуляционная сеть. Задача, решаемая линейной рециркуляционной сетью (метод главных компонент).
- •Алгоритмы обучения и функционирования линейной рециркуляционной сети.
- •Релаксационные нейронные сети. Синхронная сеть Хопфилда. Непрерывное и дискретное состояние. Структура, обучение, энергия, функционирование.
- •Сеть Хэмминга. Назначение, обучение и функционирование.
- •Линейная ассоциативная память и ассоциативная память на основе сети Хопфилда. Функционирование, отличие.
- •Двунаправленная ассоциативная память. Назначение, структура, обучение и функционирование.
- •Двунаправленная ассоциативная память. Метод обучения двунаправленной ассоциативной памяти с модифицированной структурой.
- •Сеть адаптивного резонанса. Назначение, структура, обучение и функционирование.
- •СТРУКТУРА APT
- •Функционирование сети APT в процессе классификации
- •ФУНКЦИОНИРОВАНИЕ APT
- •ПРИМЕР ОБУЧЕНИЯ СЕТИ APT
- •ЗАКЛЮЧЕНИЕ
- •Устройство и структура нейронных сетей для решения задач классификации и кластеризации. Правила обучения: WTA и CWTA.
- •Структура когнитрона, неокогнитрона и свёрточных нейронных сетей, отличия. Назначение когнитрона, неокогнитрона и свёрточных нейронных сетей.
- •Обучение
- •НЕОКОГНИТРОН
- •Обобщение
- •Вычисления
- •Обучение
- •Псевдооптическая нейронная сеть. Интерферирующий нейрон, устройство. Назначение, структура и функционирование сети.
- •Машина Больцмана, назначение. Устройство и функционирование.
- •Предетекторы и детекторы. Поле (карта) детекторов. Детекторы новизны и тождества. Схема активного анализа на основе нейроподобных элементов.
- •Аппаратная реализация нейронных сетей. Процедура проектирования систолических массивов (процессоров), на основе структуры сети.
- •Систолические процессоры для двухслойной нейронной сети (первый слой – рецепторы). Эффективность. Предпочтение по эффективности.
- •Систолический массив с разнонаправленными связями. Сравнение по эффективности с процессорами с однонаправленными связями.
- •Матричный систолический процессор. Сравнение по эффективности.
- •Систолические массивы для многослойных нейронных сетей. Структура систолического массива, объединяющего различные систолические процессоры. Эффективность.
- •Систолические массивы для многослойных нейронных сетей. Структура систолического массива, объединяющего идентичные систолические процессоры. Эффективность.
- •Систолические процессоры для реализации релаксационных нейронных сетей (сети Хопфилда).
- •Методы обеспечения отказоустойчивости. Скользящее резервирование.
- •Методы обеспечения отказоустойчивости. Секционированное резервирование. Схема для неоднородного потока входных данных.
- •Нечёткие нейронные сети. Структура, функционирование, обучение.
- •Литература.
У этой основной функциональной схемы много усложнений и исключений, тем не менее большинство искусственных нейронных сетей моделируют лишь эти простые свойства.
Формальный нейрон. Типология нейронов. Задача, решаемая нейроном, геометрическая интерпретация.
Формальный нейрон.
Формальный нейрон имитирует в первом приближении свойства биологического нейрона. На вход формального нейрона поступает некоторое множество сигналов, обозначенных x1, x2,…, xn, каждый из которых является выходом другого нейрона. Эти входные сигналы, в совокупности обозначаемые вектором X, соответствуют сигналам, приходящим в синапсы биологического нейрона. Т.к. синапсы отличаются друг от друга, над входными сигналами осуществляется преобразование L. Его результат подаётся на вход активационной функции F, которая формирует на аксоне нейрона выходной сигнал Y.
Таким образом, с математической точки зрения нейрон представляет собой композицию функций, задающих зависимость выходного сигнала нейрона Y от
вектора входных сигналов X: |
|
Y = F (L(X )) |
(1) |
где |
|
|
|
|
|
|
X = (x1, x2, x3, x4, …xn) – вектор входных сигналов, |
|
|
||||
L(X) – это функция преобразования вектора входных сигналов на синапсах |
||||||
нейрона, |
|
|
|
|
|
|
F( ) – функция активации нейрона. |
|
|
|
|||
Структурно |
нейрон |
можно |
изобразить |
|
L |
|
следующим образом: входные сигналы – |
|
|
||||
компоненты вектора X – движутся по |
X |
F |
Y |
|||
дендритам и поступают на синапсы, которые |
||||||
изображены в виде (трёх) кружочков, там над |
|
|
|
|||
сигналами осуществляется преобразование L, после чего функция F дает |
||||||
выходной сигнал Y. |
|
|
Рис. 2. Структура нейрона |
|||
|
|
|
|
|||
Типология нейронов.
Тип нейрона определяется типом обрабатываемого сигнала и видом функций
F и L.
Типология входных сигналов xi – компонентов вектора X:
структура сигнала
однопараметрический (скаляр), мощность шкалы измерения сигнала
дискретная шкала (дискретный сигнал),
непрерывная шкала (аналоговый сигнал);
многопараметрический (вектор),
физическая интерпретация характеристик многопараметрического сигнала
амплитуда,
частота (спектр),
фаза,
длительность.
Типология возможных функций активации нейронов: |
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||
функция |
|
|
|
|
Формула |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
график |
|
|
|
|
||||||||||||
линейная |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(вырожденная |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
20 |
|
|
|
|
|
|
|
функция |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
15 |
|
|
|
|
|
|
активации, |
|
F (X )= k * L(X )−T |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
10 |
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
-10 |
-5 |
-5 |
0 |
5 |
|
10 |
15 |
20 |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
5 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
|
|
|
|
|
|
|
используется |
при |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-15 |
|
|
|
|
|
|
||
решении |
задач |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-10 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
L(X) |
|
|
|
|
||
прогнозирования) |
|
|
|
|
|
|
|
, при L(X) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
пороговая |
|
F ( |
X ) |
= |
k1 |
≥T |
|
|
|
|
|
Y |
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
k1 |
, при L(X)<T |
|
|
|
|
|
|
|
|
|
|
|
L ( X |
) |
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 , 5 |
|
|
|
|
|
|
|
|
F |
|
X |
|
= k * sign L |
|
X |
|
|
−T |
) |
|
|
|
|
|
|
1 |
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
- 0 , 5 |
|
|
|
|
|
|
||||||||||||||||||
функция знака |
|
( |
|
) |
|
|
|
|
|
|
( |
|
|
( |
|
|
) |
|
|
|
|
|
|
|
|
|
|
0 , 5 |
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
- 1 |
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
- 1 0 |
- 5 |
|
0 |
5 |
|
1 0 |
1 5 |
2 0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
- 1 , 5 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
L ( X ) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
( |
k2 , при L(X )>T2 |
|
|
|
|
2 |
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
= ( |
k |
|
−k |
|
* |
L |
( |
|
X |
) |
−T |
|
|
|
|
|
1 |
|
|
|
|
|
|
||||||||
ограниченная |
F (X ) |
2 |
|
|
|
≤ L (X )≤T2 |
Y |
|
|
-1 |
|
|
|
|
|
|
|||||||||||||||||||||
|
|
1 ) |
|
|
|
|
|
|
|
|
1 ), при T1 |
|
|
-2 |
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-10 |
-5 |
0 |
|
5 |
10 |
15 |
20 |
|
линейная |
|
|
|
|
|
|
|
|
|
|
(T2 −T1 )+k1 |
|
|
|
|
|
|
|
|
|
-4 |
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
k1, при L(X )<T1 |
|
|
|
|
-3 |
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-5 |
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
L(X) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1,2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
сигмоидная |
|
F (x)= |
|
|
|
|
k*L(X )−T |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0,8 |
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
0,4 |
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
1+e |
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0,6 |
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0,2 |
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-10 |
-5 |
0 |
|
5 |
10 |
|
15 |
20 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
L(X) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1,5 |
|
|
|
|
|
|
гиперболический |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
F (x)= th(k * L(X)−T ) |
|
|
|
|
|
|
|
Y |
-10 |
-5 |
0 0 |
|
5 |
10 |
|
15 |
20 |
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
0,5 |
|
|
|
|
|
|
|||||||||||||||||||
тангенс |
|
|
|
|
|
|
|
|
|
|
|
-0,5 |
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-1,5 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
L(X) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
4 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
F (x)= ln L (X)+ |
|
|
L (X ) |
2 |
+1 |
|
|
|
|
|
-1 |
|
|
|
|
|
|
||||||||||||||||||
логарифмическая |
|
|
|
|
|
|
( |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
) |
|
|
|
|
1 |
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
-2 |
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-10 |
-5 |
0 |
|
5 |
10 |
|
15 |
20 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-4 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
L(X) |
|
|
|
|
радиально- |
|
|
|
L(X ) |
−T 2 |
|
|
|
|
|
|
|
|
|
k |
|
||||
базисная |
F (X )= e |
− |
|
|
|
|
|
2 |
|
|
|||
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y
-10 -5
1,2
1
0,8
0,6
0,4
0,2
0
0 |
5 |
10 |
15 |
20 |
L(X)
Соответственно тип нейрона определяется типом обрабатываемого сигнала и видом функции F и L.
Геометрическая интерпретация задачи нейрона.
Рассмотрим нейрон вида: |
|
L(X) = (X,W) ; |
(2) |
1, при L(X) ≥ T; |
|
F(X) = |
|
0, при L(X) < T; |
(3) |
В нем выходной сигнал принимает двоичные значения: 0 или 1. Значение 1 соответствует превышению порога возбуждения нейрона, а значение 0 – возбуждению ниже порогового уровня.
|
x2 |
|
T |
x1 |
1 |
0 |
W |
|
|
|
Рис. 3. Геометрическая интерпретация задачи, решаемой нейроном
Такой нейрон разбивает пространство входных сигналов на две линейно разделённые области точек этого пространства: для точек из одной области нейрон будет давать на выходе сигнал 1, а для точек из другой области – 0.
Задача обучения нейрона. Виды обучения нейрона. Правило Хебба. Дельтаправило. Геометрическая интерпретация.
Рассмотрим нейрон вида:
N |
uur uur |
(4) |
|
L (X )= ∑Wi * xi =W * X |
|||
i=1 |
1, при L(X) ≥ T; |
|
|
F(X) = |
|
||
0, при L(X) < T; |
(5) |
||
|
|||
Это одна из первых моделей нейрона, называемая моделью МакКаллокаПитса (предложена в 1943 г.), в ней выходной сигнал принимает двоичные значения: 0 или 1. Значение 1 соответствует превышению порога возбуждения нейрона, а значение 0 – возбуждению ниже порогового уровня. Коэффициенты Wi
представляют веса синаптических связей. Положительное значение Wi соответствует возбуждающим синапсам, отрицательное значение Wi - тормозящим синапсам, тогда как Wi = 0 свидетельствует об отсутствии связи между нейронами.
Модель МакКаллока-Питса – это дискретная модель, в которой состояние нейрона в момент (t + 1) рассчитывается по значениям его входных сигналов в предыдущий момент t.
Через несколько лет Д. Хебб предложил теорию обучения нейронов. Процесс обучения рассматриваемого нейрона сводится к изменению его внутренних параметров – компонентов вектора W и порога T. Д. Хебб в процессе исследования нервных клеток заметил, что связь между двумя клетками усиливается, если обе клетки пробуждаются (становятся активными) в один и тот же момент времени. Если клетка с выходным сигналом Y связана с клеткой, имеющей выходной сигнал xi, связью с весом wi, то на силу связи этих клеток влияют значения выходных сигналовxi иY.
Приведённая ниже формула была предложена одной из первых для обучения нейрона и известна как правило Хебба. В соответствии с правилом ним, вес wi нейрона изменяется пропорционально произведению его входного и выходного сигналов:
wi(t+1) = wi(t)+α* xi *Y, i = 1..n
здесь wi(t+1) и wi(t) – компоненты вектора W в момент времени t+1 и t соответственно, α – коэффициент обучения (0 < α ≤ 1).
Чтобы использовать правило Хебба для настройки порога поступают следующим образом: переходят от рассматриваемого нами нейрона (см. рис. 1) к нейрону, изображённому на рис. 2.
x1 |
|
L |
|
|
|
x1 |
L |
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|||||||
x3 |
|
|
|
|
F’ |
|
|
|
Y |
x2 |
|
|
F |
|
|
|
Y |
|
|
|
|
|
|
|
|
|
|
||||||||
x2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
Рис. 4 |
|
|
|
Рис. 5 |
|
|
||||
где |
|
|
|
|
|
|
|
1, при L(X) ≥ 0; |
|
|
|||||||
F’(X) = |
|
|
|
|
|
|
|
0, при L(X) < 0; |
(6) |
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|||||||
x3 = -1, а w3 = T. Таким образом: T(t+1) = T(t)-α*Y
здесь стоит отметить, что эту формулу целесообразно применять в случае, когда функция активации нейрона является биполярно-пороговой: Y {-1; 1}, или осуществляется нормализация вектора W, включая порог.
Согласно правилу Хебба процесс обучения зависит от входных и внутренних значений характеристик нейрона. Такой механизм обучения называется обучением без учителя – на этапе адаптации нейрона мы не можем прогнозировать его выходные сигналы. Обучающий алгоритм подстраивает веса так, чтобы получались согласованные выходы, т. е. чтобы предъявление достаточно близких входных векторов давало одинаковые выходы.
Если же при обучении используется эталонное (ожидаемое) значение выходного сигнала нейрона, то такой механизм обучения называется обучением с учителем – результат обучения предопределен заранее благодаря заданным
обучающим эталонным значениям. Приведём формулу для обучения с учителем известную как дельтаправило:
wi(t+1) = wi(t)+α*xi*(D-Y), i = 1..n
P – эталонное значение выходного сигнала нейрона.
Несмотря на многочисленные прикладные достижения, обучение с учителем критиковалось за свою биологическую неправдоподобность.
Рассмотрим геометрическую интерпретацию правила Хебба и дельта-правила. Пусть есть нейрон с двумя входами и пороговой функцией активации (k1=1; k2=0; T=0), каждый сигнал, поступающий на вход такого нейрона, умножается на вес – компонент вектора W. Рассмотрим процесс изменения согласно правилу Хебба вектора W, обозначив вектора W и Х в момент времени i как W(i) и X(i)
соответственно.
x2 |
|
|
W(0)= (2,-3); X(0)= (2,0) |
x1 |
|
W0 |
W(1)= (4,-3); X(1)= (2,1) |
|
|
|
W(2)= (6,-2); X(2)= (1,1) |
x2 |
W(3)= (7,-1); X(3)= (2,1) |
|
|
x1 |
W(4)= (9,0); X(4)= (1,-2) |
|
|
W5 |
|
|
W(5)= (10,-2) |
Рис. 6. Обучение нейрона по правилу Хебба |
|
Рассмотрим обучение такого же нейрона, но только уже согласно дельта- |
|
правилу. |
|
x2 |
W(0)= (2,-3); X(0)= |
|
(3,3); |
|
Y=0; |
x1 |
S=1 |
W1 |
|
W0 |
W(1)= (3,-2) |
