Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТПР. Всё в 1 файле / Нейрокомпьютеры.pdf
Скачиваний:
223
Добавлен:
15.09.2014
Размер:
2.15 Mб
Скачать

У этой основной функциональной схемы много усложнений и исключений, тем не менее большинство искусственных нейронных сетей моделируют лишь эти простые свойства.

Формальный нейрон. Типология нейронов. Задача, решаемая нейроном, геометрическая интерпретация.

Формальный нейрон.

Формальный нейрон имитирует в первом приближении свойства биологического нейрона. На вход формального нейрона поступает некоторое множество сигналов, обозначенных x1, x2,…, xn, каждый из которых является выходом другого нейрона. Эти входные сигналы, в совокупности обозначаемые вектором X, соответствуют сигналам, приходящим в синапсы биологического нейрона. Т.к. синапсы отличаются друг от друга, над входными сигналами осуществляется преобразование L. Его результат подаётся на вход активационной функции F, которая формирует на аксоне нейрона выходной сигнал Y.

Таким образом, с математической точки зрения нейрон представляет собой композицию функций, задающих зависимость выходного сигнала нейрона Y от

вектора входных сигналов X:

 

Y = F (L(X ))

(1)

где

 

 

 

 

 

 

X = (x1, x2, x3, x4, …xn) – вектор входных сигналов,

 

 

L(X) – это функция преобразования вектора входных сигналов на синапсах

нейрона,

 

 

 

 

 

 

F( ) – функция активации нейрона.

 

 

 

Структурно

нейрон

можно

изобразить

 

L

 

следующим образом: входные сигналы –

 

 

компоненты вектора X – движутся по

X

F

Y

дендритам и поступают на синапсы, которые

изображены в виде (трёх) кружочков, там над

 

 

 

сигналами осуществляется преобразование L, после чего функция F дает

выходной сигнал Y.

 

 

Рис. 2. Структура нейрона

 

 

 

 

Типология нейронов.

Тип нейрона определяется типом обрабатываемого сигнала и видом функций

F и L.

Типология входных сигналов xi – компонентов вектора X:

структура сигнала

однопараметрический (скаляр), мощность шкалы измерения сигнала

дискретная шкала (дискретный сигнал),

непрерывная шкала (аналоговый сигнал);

многопараметрический (вектор),

физическая интерпретация характеристик многопараметрического сигнала

амплитуда,

частота (спектр),

фаза,

длительность.

Типология возможных функций активации нейронов:

 

 

 

 

 

 

 

 

 

 

функция

 

 

 

 

Формула

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

график

 

 

 

 

линейная

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(вырожденная

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

20

 

 

 

 

 

 

функция

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

15

 

 

 

 

 

 

активации,

 

F (X )= k * L(X )T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

10

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-10

-5

-5

0

5

 

10

15

20

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

используется

при

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-15

 

 

 

 

 

 

решении

задач

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-10

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L(X)

 

 

 

 

прогнозирования)

 

 

 

 

 

 

 

, при L(X)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

пороговая

 

F (

X )

=

k1

T

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

k1

, при L(X)<T

 

 

 

 

 

 

 

 

 

 

 

L ( X

)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 , 5

 

 

 

 

 

 

 

 

F

 

X

 

= k * sign L

 

X

 

 

T

)

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

- 0 , 5

 

 

 

 

 

 

функция знака

 

(

 

)

 

 

 

 

 

 

(

 

 

(

 

 

)

 

 

 

 

 

 

 

 

 

 

0 , 5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

- 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

- 1 0

- 5

 

0

5

 

1 0

1 5

2 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

- 1 , 5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L ( X )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(

k2 , при L(X )>T2

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

= (

k

 

k

 

*

L

(

 

X

)

T

 

 

 

 

 

1

 

 

 

 

 

 

ограниченная

F (X )

2

 

 

 

L (X )T2

Y

 

 

-1

 

 

 

 

 

 

 

 

1 )

 

 

 

 

 

 

 

 

1 ), при T1

 

 

-2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-10

-5

0

 

5

10

15

20

линейная

 

 

 

 

 

 

 

 

 

 

(T2 T1 )+k1

 

 

 

 

 

 

 

 

 

-4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k1, при L(X )<T1

 

 

 

 

-3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L(X)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1,2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

сигмоидная

 

F (x)=

 

 

 

 

k*L(X )T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,8

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

0,4

 

 

 

 

 

 

 

 

 

 

 

 

1+e

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-10

-5

0

 

5

10

 

15

20

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L(X)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1,5

 

 

 

 

 

 

гиперболический

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

F (x)= th(k * L(X)T )

 

 

 

 

 

 

 

Y

-10

-5

0 0

 

5

10

 

15

20

 

 

 

 

 

 

 

 

 

 

 

 

0,5

 

 

 

 

 

 

тангенс

 

 

 

 

 

 

 

 

 

 

 

-0,5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-1,5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L(X)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

F (x)= ln L (X)+

 

 

L (X )

2

+1

 

 

 

 

 

-1

 

 

 

 

 

 

логарифмическая

 

 

 

 

 

 

(

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

)

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

-2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-10

-5

0

 

5

10

 

15

20

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L(X)

 

 

 

 

радиально-

 

 

 

L(X )

T 2

 

 

 

 

 

 

 

k

 

базисная

F (X )= e

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

-10 -5

1,2

1

0,8

0,6

0,4

0,2

0

0

5

10

15

20

L(X)

Соответственно тип нейрона определяется типом обрабатываемого сигнала и видом функции F и L.

Геометрическая интерпретация задачи нейрона.

Рассмотрим нейрон вида:

 

L(X) = (X,W) ;

(2)

1, при L(X) ≥ T;

 

F(X) =

 

0, при L(X) < T;

(3)

В нем выходной сигнал принимает двоичные значения: 0 или 1. Значение 1 соответствует превышению порога возбуждения нейрона, а значение 0 – возбуждению ниже порогового уровня.

 

x2

 

T

x1

1

0

W

 

 

Рис. 3. Геометрическая интерпретация задачи, решаемой нейроном

Такой нейрон разбивает пространство входных сигналов на две линейно разделённые области точек этого пространства: для точек из одной области нейрон будет давать на выходе сигнал 1, а для точек из другой области – 0.

Задача обучения нейрона. Виды обучения нейрона. Правило Хебба. Дельтаправило. Геометрическая интерпретация.

Рассмотрим нейрон вида:

N

uur uur

(4)

L (X )= Wi * xi =W * X

i=1

1, при L(X) ≥ T;

 

F(X) =

 

0, при L(X) < T;

(5)

 

Это одна из первых моделей нейрона, называемая моделью МакКаллокаПитса (предложена в 1943 г.), в ней выходной сигнал принимает двоичные значения: 0 или 1. Значение 1 соответствует превышению порога возбуждения нейрона, а значение 0 – возбуждению ниже порогового уровня. Коэффициенты Wi

представляют веса синаптических связей. Положительное значение Wi соответствует возбуждающим синапсам, отрицательное значение Wi - тормозящим синапсам, тогда как Wi = 0 свидетельствует об отсутствии связи между нейронами.

Модель МакКаллока-Питса – это дискретная модель, в которой состояние нейрона в момент (t + 1) рассчитывается по значениям его входных сигналов в предыдущий момент t.

Через несколько лет Д. Хебб предложил теорию обучения нейронов. Процесс обучения рассматриваемого нейрона сводится к изменению его внутренних параметров – компонентов вектора W и порога T. Д. Хебб в процессе исследования нервных клеток заметил, что связь между двумя клетками усиливается, если обе клетки пробуждаются (становятся активными) в один и тот же момент времени. Если клетка с выходным сигналом Y связана с клеткой, имеющей выходной сигнал xi, связью с весом wi, то на силу связи этих клеток влияют значения выходных сигналовxi иY.

Приведённая ниже формула была предложена одной из первых для обучения нейрона и известна как правило Хебба. В соответствии с правилом ним, вес wi нейрона изменяется пропорционально произведению его входного и выходного сигналов:

wi(t+1) = wi(t)+α* xi *Y, i = 1..n

здесь wi(t+1) и wi(t) – компоненты вектора W в момент времени t+1 и t соответственно, α – коэффициент обучения (0 < α ≤ 1).

Чтобы использовать правило Хебба для настройки порога поступают следующим образом: переходят от рассматриваемого нами нейрона (см. рис. 1) к нейрону, изображённому на рис. 2.

x1

 

L

 

 

 

x1

L

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x3

 

 

 

 

F’

 

 

 

Y

x2

 

 

F

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

x2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 4

 

 

 

Рис. 5

 

 

где

 

 

 

 

 

 

 

1, при L(X) ≥ 0;

 

 

F’(X) =

 

 

 

 

 

 

 

0, при L(X) < 0;

(6)

 

 

 

 

 

 

 

 

 

 

 

 

x3 = -1, а w3 = T. Таким образом: T(t+1) = T(t)-α*Y

здесь стоит отметить, что эту формулу целесообразно применять в случае, когда функция активации нейрона является биполярно-пороговой: Y {-1; 1}, или осуществляется нормализация вектора W, включая порог.

Согласно правилу Хебба процесс обучения зависит от входных и внутренних значений характеристик нейрона. Такой механизм обучения называется обучением без учителя – на этапе адаптации нейрона мы не можем прогнозировать его выходные сигналы. Обучающий алгоритм подстраивает веса так, чтобы получались согласованные выходы, т. е. чтобы предъявление достаточно близких входных векторов давало одинаковые выходы.

Если же при обучении используется эталонное (ожидаемое) значение выходного сигнала нейрона, то такой механизм обучения называется обучением с учителем – результат обучения предопределен заранее благодаря заданным

обучающим эталонным значениям. Приведём формулу для обучения с учителем известную как дельтаправило:

wi(t+1) = wi(t)+α*xi*(D-Y), i = 1..n

P – эталонное значение выходного сигнала нейрона.

Несмотря на многочисленные прикладные достижения, обучение с учителем критиковалось за свою биологическую неправдоподобность.

Рассмотрим геометрическую интерпретацию правила Хебба и дельта-правила. Пусть есть нейрон с двумя входами и пороговой функцией активации (k1=1; k2=0; T=0), каждый сигнал, поступающий на вход такого нейрона, умножается на вес – компонент вектора W. Рассмотрим процесс изменения согласно правилу Хебба вектора W, обозначив вектора W и Х в момент времени i как W(i) и X(i)

соответственно.

x2

 

 

W(0)= (2,-3); X(0)= (2,0)

x1

 

W0

W(1)= (4,-3); X(1)= (2,1)

 

 

W(2)= (6,-2); X(2)= (1,1)

x2

W(3)= (7,-1); X(3)= (2,1)

 

x1

W(4)= (9,0); X(4)= (1,-2)

 

W5

 

 

W(5)= (10,-2)

Рис. 6. Обучение нейрона по правилу Хебба

Рассмотрим обучение такого же нейрона, но только уже согласно дельта-

правилу.

 

x2

W(0)= (2,-3); X(0)=

 

(3,3);

 

Y=0;

x1

S=1

W1

 

W0

W(1)= (3,-2)