Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Теория автоматического управления. Волков В.Д., Смольянинов А.В

.pdf
Скачиваний:
7
Добавлен:
15.11.2022
Размер:
25.44 Mб
Скачать

промежуточных и конечного положений робота, в качестве правил – про-

стейшие алгоритмы движения, а модуль управляющих воздействий решает,

когда и какие правила применить. Далее система выполнения действий при-

ступает к выполнению действий определенных системой планирования. В

процессе выполнения плана должен вестись непрерывный контроль окру-

жающей среды и возможности выполнения запланированных перемещений.

Если по каким либо причинам окружающая обстановка претерпела измене-

ния, например, возникло новое препятствие, то на основании изменившейся модели внешней среды корректируется разработанный раннее план действий.

6.4.2. Нейронные сети. Основные понятия

Нейронная сеть – это распределенный параллельный процессор, со-

стоящий из элементарных единиц обработки информации (нейронов), накап-

ливающих экспериментальные знания и предоставляющих их для после-

дующей обработки. /115/

Сходство нейронной сети с человеческим мозгом обусловлено тем, что,

во-первых «знания» поступают в нейронную сеть из окружающей среды и используются в процессе обучения и, во-вторых, – для накопления знаний применяются связи между нейронами, называемые синаптическими весами.

Процедура обучения нейронной сети традиционно заключается в изме-

нении синаптических весов отдельных нейронов. При этом целью обучения является их выстраивание в определенном порядке для обеспечения необхо-

димой структуры взаимосвязей нейронов составляющих сеть. Вместе с тем,

поскольку нейронная сеть представляет собой модель человеческого мозга,

где нейроны и синаптические связи постоянно отмирают, а новые постоянно создаются, наряду с изменением синаптических весов, применяются алго-

ритмы обучения, основанные на изменении топологии нейронной сети.

641

n
k xk ,j k ,j bk j 1
yk k .

6.4.3. Модель искусственного нейрона

Несмотря на значительное разнооб-

разие типов нейронных сетей, они все имеют общие черты, выраженные струк-

турой искусственного нейрона (рис. 6.13),

представляющего собой единицу обра-

ботки информации. Как видно из рис. 6.13

Рис.6.13. Структура искусственный нейрон состоит из набора

искусственного нейрона.

синапсов, каждый из которых характери-

зуется своим весом k , j , ядра нейрона, выполненного на сумматоре и аксона

с функцией активации ( ). Кроме того, в модель нейрона включен порого-

вый элемент bk, увеличивающий или уменьшающий сигнал, поступающий с ядра нейрона на вход аксона.

Из рис. 6.13 нетрудно видеть, что выходной сигнал ядра нейрона k

определяется выражением

, (6.20)

а выходной сигнал аксона

(6.21)

Часто встречается модель нейрона, где вместо порогового элемента bk

добавляется еще один синапс с фиксированным входным сигналом xk ,0 1 и

весом k ,0 bk , что позволяет представить (6.20) в виде

n

 

k xk , j k ,j .

(6.22)

j0

Вкачестве функций активации ( ), ограничивающих выходной сиг-

нал аксона интервалом [0, 1] или [-1, +1], наиболее часто используются сле-

дующие:

642

Функция единичного скачка (функция Хевисайда), описывающаяся сле-

дующим выражением:

 

1

0

(6.23)

( )

 

.

0

0

 

Кусочно-линейная функция, описывающаяся выражением:

 

 

 

1

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

1

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

.

(6.24)

 

 

 

 

 

( )

 

 

 

 

 

2

2

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

Сигмоидальная функция примером, которой может служить логистиче-

ская функция, определяемая выражением: /115/

( )

1

,

(6.25)

 

 

1 e

 

где – параметр наклона сигмоидальной функции.

Все вышеперечисленные функции активизации имеют область значе-

ний [1, 0]. Однако иногда требуется, чтобы область значений функции акти-

визации была представлена отрезком [-1, +1]. К числу таких функций может быть отнесена пороговая функция (сигнум), которая определяется следующим

образом:

1

0

 

 

 

0.

(6.26)

( ) 0

 

1

0

 

 

 

В качестве сигмоидальной функции с областью значений, определяемой от-

резком [-1, +1] может быть использован гиперболический тангенс:

( ) th( )

e

e

,

(6.27)

e

e

 

 

где – параметр наклона сигмоидальной функции.

643

6.4.4. Основные алгоритмы обучения нейронных сетей

Одним из наиболее важных свойств нейронных сетей является их спо-

собность к обучению на основе данных поступающих из окружающей среды.

Под обучением понимается процесс, в котором свободные параметры ней-

ронной сети настраиваются посредством моделирования среды, в которую эта сеть встроена /115/.

Рассмотрим некоторые алгоритмы обучения нейронных сетей /115/

Обучение, основанное на коррекции ошибок. Для иллюстрации это-

го алгоритма обучения рассмотрим модель нейрона, приведенную на рис. 6.13. Пусть на вход нейрона поступает вектор

x(m ) x1 , x2 , , xn , (6.28)

где m – номер шага интерактивного процесса обучения, что в свою очередь

обусловливает формирование на его выходе сигнала

y(m).

Тогда сигнал

ошибки нейрона (m) определяется в соответствии с выражением

(m ) d(m ) y(m ),

 

 

(6.29)

где d(m) – желаемый отклик нейрона на входной сигнал

 

 

 

x( m ).

 

Задачей обучения, в данном случае, является минимизация (6.29), од-

нако, поскольку ошибка может оказаться как положительной, так и отрица-

тельной, то минимизируется так называемая функция стоимости, представ-

ляющая собой половину квадрата ошибки

E(m )

1

2 (m ).

(6.30)

 

2

 

 

Минимизация функции стоимости осуществляется путем изменения синаптических весов в соответствии с дельта–правилом (правилом Видроу– Хоффа):

j ( m 1 ) j ( m ) ( m ) x j ( m ),

(6.31)

где – положительная константа, определяющая скорость обучения.

Обучение на основе памяти. Обучение на основе памяти предусмат644

ривает накопление опыта, заключающееся в хранении правильно классифи-

цированных примеров в виде двоек вход–выход xi ,d N , где xi – вектор

i i 1

входных сигналов, а di – соответствующий ему отклик. В данном случае, ес-

ли необходимо классифицировать некоторый сигнал xt , то из базы данных

выбирается выходной сигнал соответствующий входному сигналу наиболее близкому к xt .

В простейшем случае, в качестве меры близости входных векторов ис-

пользуется Евклидово расстояние

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xi

yi 2 ,

(6.32)

x,

y

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

где n – размерность сравниваемых векторов.

 

 

 

 

 

 

 

Иными словами вектор

 

m считается ближайшим к

 

t если выполняет-

x

x

ся условие

 

 

 

 

 

 

 

 

 

mini

 

,

 

t

 

m ,

 

t

(6.33)

xi

x

x

x

Иногда в системах классификации на основе памяти используется ме-

тод k ближайших соседей. Основным его отличием от рассмотренного явля-

ется то, что находится несколько ближайших к входному векторов, после че-

го классифицируемый вектор относится к тому классу, который чаще других встречается среди ближайших.

Обучение Хебба. Принцип обучения, предложенный Хеббом, заключа-

ется в том, что если два нейрона по обе стороны синапса активизируются синхронно, то его синаптический вес увеличивается, в противном случае – уменьшается.

Для иллюстрации принципа обучения предложенного Хеббом рассмот-

рим фрагмент нейронной сети, приведенный на рис. 6.14.

В соответствии с правилом обучения Хебба величина коррекции

k , j ( m ) весового коэффициента синаптической связи k , j является функ-

645

Рис.6.14. Фрагмент нейронной сети.

цией выхода j-ого и k-ого нейронов x j ( m ) и yk (m ) соответственно

k , j ( m ) F ( x j ( m ), yk ( m )) ,

(6.34)

где m – номер итерации обучения, а F( , ) – функция обучения Хебба.

 

В простейшем случае, функция обучения Хебба может быть записана в

виде

 

F ( x j ( m ), yk ( m )) yk ( m ) x j ( m ).

(6.35)

Анализ (6.35) показыва-

ет, что синаптический вес

рассматриваемой связи может только увеличиваться. Это в конечном итоге приведет к насыщению синаптической связи и потере ее избиратель-

ности. Избежать указанного ограничения можно, если в (6.35) заменить вы-

ходные сигналы j-ого и k-ого нейронов на их отклонения от средних значе-

ний /115/

 

 

 

F(xj(m),yk(m)) (yk(m) yk

) (xj(m) xj) ,

(6.36)

где ˆyk и xˆ j – средние значения выходных сигналов рассматриваемых нейро-

нов.

Как видно из последнего выражения применение в качестве функции обучения выражения (6.36) позволяет, как ослаблять, так и усиливать синап-

тическую связь. Кроме того, в процессе обучения синаптическая связь не на-

сыщается, а сводится к состоянию, когда yk ˆyk и x j j .

Алгоритм обучения Хебба может быть представлен следующим обра-

зом: /114/ 1. Всем синаптическим весам присваиваются небольшие случайные

значения.

646

2.На вход нейронной сети подается сигнальный вектор.

3.Рассчитываются выходные значения нейронов.

4.В соответствии с (6.35) или (6.36) корректируются весовые коэффи-

циенты синаптических связей.

5.Переход к шагу 2.

Процесс обучения может считаться законченным, когда для всех коэф-

фициентов синаптических связей начнет выполняться условие:

 

 

k ,j (m )

 

,

(6.37)

 

 

 

k ,j

 

 

 

где – точность обучения.

Конкурентное обучение. Принцип конкурентного обучения заключа-

ется в «борьбе» выходных нейронов сети за право быть активированным. «Победившим» считается нейрон, у которого выходной сигнал ядра k ока-

зывается максимальным для входного вектора x. После определения «побе-

дившего» нейрона его синаптическим весовым коэффициентам дается при-

ращение

k,j (m) xj (m) k,j (m 1) ,

(6.38)

где m – номер итерации обучения. Остальные («проигравшие») нейроны на m-ой итерации не обучаются.

Алгоритм конкурентного обучения аналогичен алгоритму обучения Хебба, за исключением того, что п.4 предусматривает подстройку синапти-

ческих весовых коэффициентов только «победившего» нейрона в соответст-

вии с (6.38).

6.5. Системы нечеткого регулирования.

Основные понятия теории нечетких множеств

Рассмотрим два множества X={x1, x2, x3, x4, x5, x6} и A = {x2, x5, x6}. Не-

трудно видеть, что множество А является подмножеством X, поскольку для

647

любого элемента множества A выполняется условие x A

x X .

Указанную принадлежность можно выразить через так называемую функцию принадлежности А ( x ) /116/, которая, в случае обычных множеств прини-

мает значение

1, x A

À( x ) 0, x A.

Тогда можно записать

А(x1)=0, А(x2)=1, А(x3)=0, А(x4)=0, А(x5)=1, А(x6)=1,

что позволяет представить множество А через все элементы множества X

 

 

, A( x1 ) ,

x2 , A( x2 ) , x3 , A( x3

) , , x6 , A( x6

 

 

A x1

)

 

 

 

 

 

 

 

 

 

,0

, x2 ,1 ,

x3 ,0 , x4 ,0 , x5 ,1 ,

x6

 

 

 

x1

,1

 

 

 

 

 

 

 

 

 

 

Теперь предположим, что мы не можем с полной уверенностью утвер-

ждать, что элементы x2, x5 и х6 принадлежат множеству A, равно как и эле-

менты x1, x3 и x4 не принадлежат этому множеству. Иными совами мы можем выразить лишь степень принадлежности элементов множеству. Тогда для элемента который более или менее может принадлежать множеству А его функция принадлежности А не слишком близка к 0 и не слишком близка к 1.

Если же элемент скорее всего принадлежит (не принадлежит) множеству А,

то его характеристическая функция близка к 1 (близка к 0). В этом случае множество A является нечетким и может быть представлено в виде

 

 

,0.1 ,

x2 ,0.75 ,

x3 ,0.3 ,

x4 ,0.5 ,

x5 ,1 ,

x6

 

A x1

,0.95 .

 

 

 

 

 

 

 

 

 

Следует отметить, что в теории нечетких множеств, речь идет не о сто-

хастической, а о лингвистической неопределенности. В /117/ для пояснения различия между стохастической и лингвистической неопределенностями рассматриваются выбор между двумя емкости А и В с жидкостью о которых известно, что жидкость в емкости А имеет степень принадлежности к жидко-

648

стям пригодным для питья А = 0,85, а вероятность принадлежности содер-

жимого емкости В к жидкостям пригодным для питья РВ = 0,85.

Анализируя имеющуюся информацию о емкости А можно предполо-

жить, что в ней находится не совсем пригодная для питья жидкость, напри-

мер болотная вода. Однако исходя из того, что жидкость в емкости А отно-

сится к питьевым жидкостям (в противном случае А = 0) можно сделать вы-

вод, что указанную жидкость можно пить без риска отравиться.

При анализе информации о содержимом емкости В естественной явля-

ется частотная интерпретация вероятности. Это означает, что если бы име-

лась возможность многократного выбора, то в 85% случаев в емкости В ока-

залась бы жидкость пригодная для питья, по своим характеристикам близкая к чистой воде. Однако в 15% случаев содержимое емкости В было бы абсо-

лютно не пригодно для питья, например в емкости может оказаться серная кислота.

Таким образом, нечеткое множество представляет собой математиче-

скую структуру позволяющую оперировать элементами в той или иной сте-

пени обладающими общими свойствами. При этом степень обладания ука-

занными свойствами определяется характеристической функцией принад-

лежности элемента к множеству.

Строгое определение нечеткого множества, данное Лотфи Заде, звучит следующим образом: /116/

Пусть X есть множество, счетное или нет, и x – элемент X. Тогда не-

четким подмножеством A множества X называется множество упорядочен-

ных пар

 

 

x,

( x)

x X ,

 

 

A

 

где

 

( x ) – степень принадлежности x в

A.

 

A

 

 

 

 

Иными словами множество

A является нечетким подмножеством мно-

жества (универсума) X если каждый элемент множества A задан парой вида

649

x, ( x ) , где

x X

, а ( x ) – функция принадлежности ставящая в соот-

A

 

A

ветствие каждому элементу x X некоторое действительное число из ин-

тервала [0,1].

В теории нечетких множеств выделяют: /117/

Нечеткое пустое множество – это такое нечеткое множество функ-

ция принадлежности всех элементов которого ( x ) 0 .

Универсум – это такое нечеткое множество X функция принадлежно-

сти всех элементов которого X ( x ) 1.

Носитель нечеткого множества – это четкое множество АS содер-

жащее те и только те элементы универсума X нечеткого множества A, для которых выполняется условие

AS x X | A ( x ) 0

x X .

Из вышеизложенного следует, что нечеткое множество A может счи-

таться заданным, если задан его универсум X, для каждого элемента которо-

го определена функция принадлежности A ( x ). При этом различают два ос-

новных способа задания функции принадлежности. Так в случае дискретного универсума оказывается возможным каждому его элементу поставить в соот-

ветствие число, определяющее степень принадлежности элемента нечеткого множества универсуму. Однако, в случае непрерывного универсума, такая возможность исключена, и в этом случае функция принадлежности задается аналитически.

6.5.1. Функции принадлежности

Формально в качестве функции принадлежности может быть выбрана любая функция, однозначно отображающая множество определения X (уни-

версум) в множество значений Y = [0, 1]

A : X Y .

Однако на практике чаще всего используются типовые функции при650

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]