Теория автоматического управления. Волков В.Д., Смольянинов А.В
.pdfпромежуточных и конечного положений робота, в качестве правил – про-
стейшие алгоритмы движения, а модуль управляющих воздействий решает,
когда и какие правила применить. Далее система выполнения действий при-
ступает к выполнению действий определенных системой планирования. В
процессе выполнения плана должен вестись непрерывный контроль окру-
жающей среды и возможности выполнения запланированных перемещений.
Если по каким либо причинам окружающая обстановка претерпела измене-
ния, например, возникло новое препятствие, то на основании изменившейся модели внешней среды корректируется разработанный раннее план действий.
6.4.2. Нейронные сети. Основные понятия
Нейронная сеть – это распределенный параллельный процессор, со-
стоящий из элементарных единиц обработки информации (нейронов), накап-
ливающих экспериментальные знания и предоставляющих их для после-
дующей обработки. /115/
Сходство нейронной сети с человеческим мозгом обусловлено тем, что,
во-первых «знания» поступают в нейронную сеть из окружающей среды и используются в процессе обучения и, во-вторых, – для накопления знаний применяются связи между нейронами, называемые синаптическими весами.
Процедура обучения нейронной сети традиционно заключается в изме-
нении синаптических весов отдельных нейронов. При этом целью обучения является их выстраивание в определенном порядке для обеспечения необхо-
димой структуры взаимосвязей нейронов составляющих сеть. Вместе с тем,
поскольку нейронная сеть представляет собой модель человеческого мозга,
где нейроны и синаптические связи постоянно отмирают, а новые постоянно создаются, наряду с изменением синаптических весов, применяются алго-
ритмы обучения, основанные на изменении топологии нейронной сети.
641
6.4.3. Модель искусственного нейрона
Несмотря на значительное разнооб-
разие типов нейронных сетей, они все имеют общие черты, выраженные струк-
турой искусственного нейрона (рис. 6.13),
представляющего собой единицу обра-
ботки информации. Как видно из рис. 6.13
Рис.6.13. Структура искусственный нейрон состоит из набора
искусственного нейрона.
синапсов, каждый из которых характери-
зуется своим весом k , j , ядра нейрона, выполненного на сумматоре и аксона
с функцией активации ( ). Кроме того, в модель нейрона включен порого-
вый элемент bk, увеличивающий или уменьшающий сигнал, поступающий с ядра нейрона на вход аксона.
Из рис. 6.13 нетрудно видеть, что выходной сигнал ядра нейрона k
определяется выражением
, (6.20)
а выходной сигнал аксона
(6.21)
Часто встречается модель нейрона, где вместо порогового элемента bk
добавляется еще один синапс с фиксированным входным сигналом xk ,0 1 и
весом k ,0 bk , что позволяет представить (6.20) в виде
n |
|
k xk , j k ,j . |
(6.22) |
j0
Вкачестве функций активации ( ), ограничивающих выходной сиг-
нал аксона интервалом [0, 1] или [-1, +1], наиболее часто используются сле-
дующие:
642
Функция единичного скачка (функция Хевисайда), описывающаяся сле-
дующим выражением:
|
1 |
0 |
(6.23) |
( ) |
|
. |
|
0 |
0 |
|
|
Кусочно-линейная функция, описывающаяся выражением:
|
|
|
1 |
|
|
|
|
|
||||
1 |
|
|
|
|
|
|
|
|||||
|
|
|
|
|
||||||||
|
|
|
2 |
|
|
|
|
|
||||
|
|
1 |
|
|
|
|
|
1 |
|
|
||
|
|
|
|
|
|
|
|
. |
(6.24) |
|||
|
|
|
|
|
||||||||
( ) |
|
|
|
|
|
|||||||
2 |
2 |
|||||||||||
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
1 |
|
|
|
|
|
||||
0 |
|
|
|
|
|
|
||||||
|
|
|
|
|||||||||
|
|
|
2 |
|
|
|
|
|
||||
Сигмоидальная функция примером, которой может служить логистиче-
ская функция, определяемая выражением: /115/
( ) |
1 |
, |
(6.25) |
|
|||
|
1 e |
|
|
где – параметр наклона сигмоидальной функции.
Все вышеперечисленные функции активизации имеют область значе-
ний [1, 0]. Однако иногда требуется, чтобы область значений функции акти-
визации была представлена отрезком [-1, +1]. К числу таких функций может быть отнесена пороговая функция (сигнум), которая определяется следующим
образом:
1 |
0 |
|
|
|
|
0. |
(6.26) |
( ) 0 |
|||
|
1 |
0 |
|
|
|
||
В качестве сигмоидальной функции с областью значений, определяемой от-
резком [-1, +1] может быть использован гиперболический тангенс:
( ) th( ) |
e |
e |
, |
(6.27) |
|
e |
e |
||||
|
|
где – параметр наклона сигмоидальной функции.
643
6.4.4. Основные алгоритмы обучения нейронных сетей
Одним из наиболее важных свойств нейронных сетей является их спо-
собность к обучению на основе данных поступающих из окружающей среды.
Под обучением понимается процесс, в котором свободные параметры ней-
ронной сети настраиваются посредством моделирования среды, в которую эта сеть встроена /115/.
Рассмотрим некоторые алгоритмы обучения нейронных сетей /115/
Обучение, основанное на коррекции ошибок. Для иллюстрации это-
го алгоритма обучения рассмотрим модель нейрона, приведенную на рис. 6.13. Пусть на вход нейрона поступает вектор
x(m ) x1 , x2 , , xn , (6.28)
где m – номер шага интерактивного процесса обучения, что в свою очередь
обусловливает формирование на его выходе сигнала |
y(m). |
Тогда сигнал |
|
ошибки нейрона (m) определяется в соответствии с выражением |
|||
(m ) d(m ) y(m ), |
|
|
(6.29) |
где d(m) – желаемый отклик нейрона на входной сигнал |
|
|
|
x( m ). |
|
||
Задачей обучения, в данном случае, является минимизация (6.29), од-
нако, поскольку ошибка может оказаться как положительной, так и отрица-
тельной, то минимизируется так называемая функция стоимости, представ-
ляющая собой половину квадрата ошибки
E(m ) |
1 |
2 (m ). |
(6.30) |
|
|||
2 |
|
|
|
Минимизация функции стоимости осуществляется путем изменения синаптических весов в соответствии с дельта–правилом (правилом Видроу– Хоффа):
j ( m 1 ) j ( m ) ( m ) x j ( m ), |
(6.31) |
где – положительная константа, определяющая скорость обучения.
Обучение на основе памяти. Обучение на основе памяти предусмат644
ривает накопление опыта, заключающееся в хранении правильно классифи-
цированных примеров в виде двоек вход–выход xi ,d N , где xi – вектор
i i 1
входных сигналов, а di – соответствующий ему отклик. В данном случае, ес-
ли необходимо классифицировать некоторый сигнал xt , то из базы данных
выбирается выходной сигнал соответствующий входному сигналу наиболее близкому к xt .
В простейшем случае, в качестве меры близости входных векторов ис-
пользуется Евклидово расстояние
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
xi |
yi 2 , |
(6.32) |
||||||||
x, |
y |
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
i 1 |
|
|
|
|
|
|
|
где n – размерность сравниваемых векторов. |
|
|
|
|
|
|
|
||||||||||
Иными словами вектор |
|
m считается ближайшим к |
|
t если выполняет- |
|||||||||||||
x |
x |
||||||||||||||||
ся условие |
|
|
|
|
|
|
|
|
|
||||||||
mini |
|
, |
|
t |
|
m , |
|
t |
(6.33) |
||||||||
xi |
x |
x |
x |
||||||||||||||
Иногда в системах классификации на основе памяти используется ме-
тод k ближайших соседей. Основным его отличием от рассмотренного явля-
ется то, что находится несколько ближайших к входному векторов, после че-
го классифицируемый вектор относится к тому классу, который чаще других встречается среди ближайших.
Обучение Хебба. Принцип обучения, предложенный Хеббом, заключа-
ется в том, что если два нейрона по обе стороны синапса активизируются синхронно, то его синаптический вес увеличивается, в противном случае – уменьшается.
Для иллюстрации принципа обучения предложенного Хеббом рассмот-
рим фрагмент нейронной сети, приведенный на рис. 6.14.
В соответствии с правилом обучения Хебба величина коррекции
k , j ( m ) весового коэффициента синаптической связи k , j является функ-
645
цией выхода j-ого и k-ого нейронов x j ( m ) и yk (m ) соответственно
k , j ( m ) F ( x j ( m ), yk ( m )) , |
(6.34) |
где m – номер итерации обучения, а F( , ) – функция обучения Хебба. |
|
В простейшем случае, функция обучения Хебба может быть записана в |
|
виде |
|
F ( x j ( m ), yk ( m )) yk ( m ) x j ( m ). |
(6.35) |
Анализ (6.35) показыва-
ет, что синаптический вес
рассматриваемой связи может только увеличиваться. Это в конечном итоге приведет к насыщению синаптической связи и потере ее избиратель-
ности. Избежать указанного ограничения можно, если в (6.35) заменить вы-
ходные сигналы j-ого и k-ого нейронов на их отклонения от средних значе-
ний /115/
|
|
|
F(xj(m),yk(m)) (yk(m) yk |
) (xj(m) xj) , |
(6.36) |
где ˆyk и xˆ j – средние значения выходных сигналов рассматриваемых нейро-
нов.
Как видно из последнего выражения применение в качестве функции обучения выражения (6.36) позволяет, как ослаблять, так и усиливать синап-
тическую связь. Кроме того, в процессе обучения синаптическая связь не на-
сыщается, а сводится к состоянию, когда yk ˆyk и x j xˆ j .
Алгоритм обучения Хебба может быть представлен следующим обра-
зом: /114/ 1. Всем синаптическим весам присваиваются небольшие случайные
значения.
646
2.На вход нейронной сети подается сигнальный вектор.
3.Рассчитываются выходные значения нейронов.
4.В соответствии с (6.35) или (6.36) корректируются весовые коэффи-
циенты синаптических связей.
5.Переход к шагу 2.
Процесс обучения может считаться законченным, когда для всех коэф-
фициентов синаптических связей начнет выполняться условие: |
|
|||
|
k ,j (m ) |
|
, |
(6.37) |
|
|
|||
|
k ,j |
|
|
|
где – точность обучения.
Конкурентное обучение. Принцип конкурентного обучения заключа-
ется в «борьбе» выходных нейронов сети за право быть активированным. «Победившим» считается нейрон, у которого выходной сигнал ядра k ока-
зывается максимальным для входного вектора x. После определения «побе-
дившего» нейрона его синаптическим весовым коэффициентам дается при-
ращение
k,j (m) xj (m) k,j (m 1) , |
(6.38) |
где m – номер итерации обучения. Остальные («проигравшие») нейроны на m-ой итерации не обучаются.
Алгоритм конкурентного обучения аналогичен алгоритму обучения Хебба, за исключением того, что п.4 предусматривает подстройку синапти-
ческих весовых коэффициентов только «победившего» нейрона в соответст-
вии с (6.38).
6.5. Системы нечеткого регулирования.
Основные понятия теории нечетких множеств
Рассмотрим два множества X={x1, x2, x3, x4, x5, x6} и A = {x2, x5, x6}. Не-
трудно видеть, что множество А является подмножеством X, поскольку для
647
любого элемента множества A выполняется условие x A |
x X . |
Указанную принадлежность можно выразить через так называемую функцию принадлежности А ( x ) /116/, которая, в случае обычных множеств прини-
мает значение
1, x A
À( x ) 0, x A.
Тогда можно записать
А(x1)=0, А(x2)=1, А(x3)=0, А(x4)=0, А(x5)=1, А(x6)=1,
что позволяет представить множество А через все элементы множества X
|
|
, A( x1 ) , |
x2 , A( x2 ) , x3 , A( x3 |
) , , x6 , A( x6 |
|
|
|
A x1 |
) |
||||||
|
|
|
|
|
|
|
|
|
,0 |
, x2 ,1 , |
x3 ,0 , x4 ,0 , x5 ,1 , |
x6 |
|
|
|
x1 |
,1 |
|
|
||||
|
|
|
|
|
|
|
|
Теперь предположим, что мы не можем с полной уверенностью утвер-
ждать, что элементы x2, x5 и х6 принадлежат множеству A, равно как и эле-
менты x1, x3 и x4 не принадлежат этому множеству. Иными совами мы можем выразить лишь степень принадлежности элементов множеству. Тогда для элемента который более или менее может принадлежать множеству А его функция принадлежности А не слишком близка к 0 и не слишком близка к 1.
Если же элемент скорее всего принадлежит (не принадлежит) множеству А,
то его характеристическая функция близка к 1 (близка к 0). В этом случае множество A является нечетким и может быть представлено в виде
|
|
,0.1 , |
x2 ,0.75 , |
x3 ,0.3 , |
x4 ,0.5 , |
x5 ,1 , |
x6 |
|
A x1 |
,0.95 . |
|||||||
|
|
|
|
|
|
|
|
|
Следует отметить, что в теории нечетких множеств, речь идет не о сто-
хастической, а о лингвистической неопределенности. В /117/ для пояснения различия между стохастической и лингвистической неопределенностями рассматриваются выбор между двумя емкости А и В с жидкостью о которых известно, что жидкость в емкости А имеет степень принадлежности к жидко-
648
стям пригодным для питья А = 0,85, а вероятность принадлежности содер-
жимого емкости В к жидкостям пригодным для питья РВ = 0,85.
Анализируя имеющуюся информацию о емкости А можно предполо-
жить, что в ней находится не совсем пригодная для питья жидкость, напри-
мер болотная вода. Однако исходя из того, что жидкость в емкости А отно-
сится к питьевым жидкостям (в противном случае А = 0) можно сделать вы-
вод, что указанную жидкость можно пить без риска отравиться.
При анализе информации о содержимом емкости В естественной явля-
ется частотная интерпретация вероятности. Это означает, что если бы име-
лась возможность многократного выбора, то в 85% случаев в емкости В ока-
залась бы жидкость пригодная для питья, по своим характеристикам близкая к чистой воде. Однако в 15% случаев содержимое емкости В было бы абсо-
лютно не пригодно для питья, например в емкости может оказаться серная кислота.
Таким образом, нечеткое множество представляет собой математиче-
скую структуру позволяющую оперировать элементами в той или иной сте-
пени обладающими общими свойствами. При этом степень обладания ука-
занными свойствами определяется характеристической функцией принад-
лежности элемента к множеству.
Строгое определение нечеткого множества, данное Лотфи Заде, звучит следующим образом: /116/
Пусть X есть множество, счетное или нет, и x – элемент X. Тогда не-
четким подмножеством A множества X называется множество упорядочен-
ных пар
|
|
x, |
( x) |
x X , |
|
|
A |
|
|
где |
|
( x ) – степень принадлежности x в |
A. |
|
|
A |
|
|
|
|
Иными словами множество |
A является нечетким подмножеством мно- |
||
жества (универсума) X если каждый элемент множества A задан парой вида
649
x, ( x ) , где |
x X |
, а ( x ) – функция принадлежности ставящая в соот- |
A |
|
A |
ветствие каждому элементу x X некоторое действительное число из ин-
тервала [0,1].
В теории нечетких множеств выделяют: /117/
Нечеткое пустое множество – это такое нечеткое множество функ-
ция принадлежности всех элементов которого ( x ) 0 .
Универсум – это такое нечеткое множество X функция принадлежно-
сти всех элементов которого X ( x ) 1.
Носитель нечеткого множества – это четкое множество АS содер-
жащее те и только те элементы универсума X нечеткого множества A, для которых выполняется условие
AS x X | A ( x ) 0 |
x X . |
Из вышеизложенного следует, что нечеткое множество A может счи-
таться заданным, если задан его универсум X, для каждого элемента которо-
го определена функция принадлежности A ( x ). При этом различают два ос-
новных способа задания функции принадлежности. Так в случае дискретного универсума оказывается возможным каждому его элементу поставить в соот-
ветствие число, определяющее степень принадлежности элемента нечеткого множества универсуму. Однако, в случае непрерывного универсума, такая возможность исключена, и в этом случае функция принадлежности задается аналитически.
6.5.1. Функции принадлежности
Формально в качестве функции принадлежности может быть выбрана любая функция, однозначно отображающая множество определения X (уни-
версум) в множество значений Y = [0, 1]
A : X Y .
Однако на практике чаще всего используются типовые функции при650
