- •77. Нечеткие множества и лингвистические переменные. Операции над нечеткими множествами.
- •78. Нечеткие алгоритмы. Общие принципы построения нечетких алгоритмов управления динамическими объектами.
- •79. Процедура синтеза нечетких регуляторов. Синтез адаптивной сау с эталонной моделью на основе нечеткой логики. Нечеткий регулятор Такаги-Сугено.
- •80. Моделирование нейронов мозга. Многослойные персептроны. Алгоритмы обучения. Задача аппроксимации функции.
- •81. Архитектуры нейронных сетей: радиально-базисные сети; нейронные сети Хопфилда; нейронные сети Кохонена; рекуррентные нейронные сети.
- •82. Общие принципы построения нейросетевых систем управления динамическими объектами. Применение нейронных сетей в задачах идентификации динамических объектов.
- •83. Стандартный генетический алгоритм. Пример оптимизации с помощью генетического алгоритма. Модификации генетических алгоритмов и особенности их применения.
- •84. Генетическое программирование. Особенности реализации генетического программирования. Практические примеры построения систем управления с использованием генетических алгоритмов.
80. Моделирование нейронов мозга. Многослойные персептроны. Алгоритмы обучения. Задача аппроксимации функции.
Способностью нейрона является прием, обработка и передача электрических сигналов по нервным путям, которые создают коммуникационную систему мозга.
Рисунок 1. Биологический нейрон
Формальный нейрон (первая модель предложена в 1943 г. У. Мак-Каллоком и В. Питтсом) – это элемент обладающий, следующими свойствами:
он может находиться в одном из двух устойчивых состояний («возбужден» - «невозбужден»), соответственно на выходе – 1 или 0;
для возбуждения нейрона необходимо подать на его входы некоторое количество сигналов, число которых превышает порог возбуждения;
порог возбуждения предполагается неизменным;
имеются 2 вида входов: возбуждающие и тормозящие;
возбуждение любого тормозящего синапса предотвращает возбуждение нейрона, независимо от числа возбуждающих сигналов;
имеет место временная задержка прохождения сигналов в синапсах.
В 1952г. Мак-Каллок усовершенствовал эту модель. В новой модели тормозящие входы эквивалентны возбуждающим. Допускается флуктуация порога возбуждения. Ещё одно важное отличие – введение запрещающего входа, осуществляющего взаимодействие между входами нейрона.
Схема формального нейрона Мак-Каллока-Питтса для случая бинарных сигналов (без тормозящих входов и учета задержки) (f(s) – функция активации):
Условие возбуждения нейрона: , - порог возбуждения нейрона, s – суммарное возбуждение нейрона, хi – значение i-го входа, .
Каноническая форма схемы нейрона:
- дополнительный вход – смещение (bias);
- веса входов ; ; порог возбуждения принят = 0 ( ).
Т. о. условие возбуждения формального нейрона:
или .
Теорема. Для любого логического выражения, удовлетворяющего некоторым условиям, можно найти нейронную сеть составленную из формальных нейронов, поведение которой описывается данным логическим выражением.
Обобщенная модель искусственного нейрона:
На нейрон поступает набор входных сигналов . Каждый входной сигнал xi умножается на соответствующий ему вес wi и поступает на суммирующий блок ( ). Там вычисляется уровень активности s нейрона: . Реакция на выходе нейрона определяется путем пропускания сигнала S через нелинейную функцию f. Функция f(S) называется функцией активации нейрона и удовлетворяет условиям: а) - ограниченность функции; б) - монотонная (обычно неубывающая) функция аргумента s.
В качестве функций активации на практике используют нелинейные функции вида:
а ) пороговая (логическая) функция: .
б ) сигмоидная (логистическая) функция: .
в) функция гиперболического тангенса: .
Многослойные персептроны – сети прямого распространения (т.е. без обратных связей).
П усть набор входных сигналов нейронов -го слоя; - матрица весов синаптических связей, соединяющих нейроны -го слоя с нейронами -го слоя, . Тогда работа персептрона описывается следующими уравнениями:
для входного слоя ( =1): , где - входной вектор.
для 1-ого скрытого слоя ( =2): ;
для 2-ого скрытого слоя ( =3): ;
... … … … … … … … …
для входного слоя ( =N): .
- число нейронов -го слоя ( ); N – число слоев НС; - функция активации нейрона.
Выбрав соответствующим образом веса синаптических связей можно обеспечит желаемые характеристики «вход-выход» персептрона в целом.
Процедура нахождения весов синаптических связей называется обучением нейронной сети. Процедура обучения сети:
инициализируются случайным образом веса синаптических связей НС.
на входы НС поочередно подаются «образы» (входные векторы) из обучающей выборки , - желаемая реакция (вектор «эталонов») НС.
вычисляется реакция НС.
вычисляется вектор ошибки сети
вычисляется суммарная квадратичная ошибка
проверка выполнения условия , где - заданное малое (допустимое) значение ошибки. Если условие выполняется, то обучение НС законченно, иначе переходим к следующему шагу
производится изменение весов НС в направлении уменьшения ошибки обучения ( ), после чего – переход к шагу 2.
Наиболее простой способ настройки весов НС – использование градиентного алгоритма минимизации ошибки Е: .
Алгоритмы обучения НС
Алгоритм обратного распространения: Суть алгоритма – подстройка весов синаптических связей послойно, начиная с последнего (выходного) и заканчивая 1-м слоем.
Пусть обучающая выборка состоит из одной пары (X,D), т.е. R=1, тогда:
для выходного слоя: ;
для последнего скрытого слоя: ; и т.д.
Пусть функция активного нейрона - сигмоидная функция. Тогда и получаем:
для выходного слоя: ;
для последнего скрытого слоя: … … … … … … … … … … … … … … … … … … … … … … … … … … … …
для первого скрытого слоя:
Т. о., приращение силы связи пропорционально произведению сигнала ошибки и выходного сигнала -го слоя. Вычисляя и слой за слоем по направлению ко входу, можно скорректировать все веса НС.
Задача аппроксимации функции
Теорема (А.Н. Колмогоров): Любая непрерывная функция n переменных может быть представлена в виде суммы конечного числа одномерных функций : , где и - непрерывные и одномерные функции; - постоянные коэффициенты.
Теорема: Любую непрерывную функцию нескольких переменных можно с любой степени точности реализовать с помощью трехслойного (считая входной слой) персептрона, имеющего достаточное количество нейронов в скрытом слое.