
- •Содержание.
- •Введение.
- •Глава 1. Нейронечеткие методы вычислений
- •1.1. Основные положения метода нечеткого управления.
- •1.2. Нейронные сети в системах контроля и управления.
- •Глава 2. Алгоритм реализации нечёткого контроллера на основе сетей обратного распространения.
- •2.1. Нейронные сети с обратным распространением ошибки.
- •2.2. Алгоритм обучения с обратным распространением ошибки.
- •2.3. Алгоритм работы нечёткого контроллера.
- •2.4. Обучающий алгоритм для нечёткого контроллера.
- •Глава 3. Методы управления в компьютерно-интегрированном производстве.
- •3.1. Компьютерно-интегрированное производство.
- •3.2. Типовой технологический маршрут изготовления кмоп ис
- •Глава 4. Реализация программного обеспечения и результаты имитационного моделирования алгоритма нечёткого контроллера.
- •4.1. Реализация алгоритма нечёткого контроллера высокотемпературных операций.
- •Результаты имитационного моделирования.
- •4.3. Вывод.
- •Глава 5. Сегментация рынка контроллеров на основе нейронных сетей.
- •5.1. Общие положения.
- •5.2. Методика расчёта сегментации рынка.
- •5.3. Поиск сегментов рынка нечётких контроллеров.
- •5.4. Вывод.
- •Глава 6. Электробезопасность в помещениях вычислительных центров.
- •6.1. .Анализ вредных воздействий на организм человека при работе на эвм.
- •6.2. Электроопасность при работе с эвм.
- •6.3. Факторы влияющие на степень поражения электрическим током.
- •6.4. Медицинская помощь при поражении электрическим током.
- •6.5. Организационные и Технические мероприятия по безопасности эксплуатации.
- •6.6. Вывод.
- •Заключение.
- •Литература.
- •Глава 1-6.
- •Глава 7.
- •Глава 6.
- •Приложение.
2.4. Обучающий алгоритм для нечёткого контроллера.
При обучении данной сети выделяются две фазы. В первой фазе происходит локальная инициализация членов функции и представленных правил. Во многих задачах эту фазу может выполнить эксперт, имеющий знания по правилам работы поставленной задачи. Он также может задать начальные приблизительные значения функций принадлежности [5]. Во второй фазе применяется супервизорная обучающая схема для оптимального выравнивания членов функций для желаемых выходов.
Организующая фаза.
Задача для организующей обучающей фазы
1 может быть сформулирована так: подаются
обучающие данные xi(t),
i=1, ... , n. Требуемый
выходной уровень yi(t),
i=1, ... , m. Нечеткие
области
и
.
Нам необходимы локальные члены функций
и нечеткие логические правила. В этой
фазе сеть работает двухсторонним
способом, узлы и связи в режимеup
- down. Таким образом,
обучающие входные и выходные данные
подаются в сеть с двух сторон.
Сначала центры и ширины функций принадлежности определяются самоорганизующимися обучающимися правилами аналогично статистической организации. Это служит для эффективного распределения ресурсов сети благодаря размещению доменов членов функций только вокруг тех регионов пространства входов и выходов, где присутствуют данные. Здесь алгоритм Кохонена адаптирован для нахождения центра mi функции принадлежности:
для
где a(t)
- монотонно убывающая
скалярная скорость обучения и
Эти адаптивные формулы выполняются
независимо для каждой входной и выходной
лингвистической переменной. Определение
какой изmi
является mclosed
может быть выполнено
через определенное время по схеме
“Победитель получает все”.
Найдем центры функций, их ширины могут быть определены с помощью эвристического метода N -ближайших связей минимизацией следующей функции, которая относится к ширине si как:
где r - параметр перекрытия. Наша вторая обучающая фаза теперь сможет оптимально приспосабливать центры и ширины функций принадлежности. Ширина на этой стадии может быть, определена по эвристическому методу “первой ближайшей связи” так:
Используя различные законы соревновательного обучения происходит оптимизация связей между слоями. После такого обучения производится оценка весов различных узлов. Если вес очень мал, то связь с этим весом удаляется. Если у узла удалены все связи, то он также удаляется.
Обучающая фаза.
После того, как найдены все нечеткие
логические правила сеть стабилизируется
и переходит во вторую обучающую фазу
для оптимальной подгонки параметров
членов функций. Цель второй фазы может
быть, описана так: подается входная
обучающая последовательность: xi(t),
i=1, ... , n. желаемый
выходной уровень yi(t),
i=1,...,m, нечеткие области
и
,
и нечеткие логические правила, необходимо
оптимально подобрать параметры функций
принадлежности. Нечеткие логические
правила были определены на первой фазе
или в некоторых задачах были даны
экспертами, обладающими необходимыми
знаниями. Пример последнего - эксперту
нужно дать правила типа, если температура
слишком высокая, то быстро ее снизить.
Во второй фазе задача минимизировать функцию ошибок
- желаемый выход
- текущий выход.
Для
каждой обучающей последовательности
данных, начинающейся на входных узлах,
проход вперед используется для вычисления
уровня активности всех узлов в сети.
Затем начинающийся на выходных узлах
проход назад используется для вычисления
для всех невидимых узлов (внутренних
узлов).
Результирующим w - желаемый параметр узла. Главное используемое обучающее правило это:
где h - скорость обучения и
(5)
Произведем
вычисление
слой за слоем, начиная с выходных узлов
(используем колоколобразную функцию
принадлежности и желаемые параметры
этих вычисленийmi
и si)
Слой 5: Используя (4) и (5) адаптивные правила, центр mi ищется так:
Параметр центра обновляется как:
точно так же применим правила (4) и (5) для ширины si:
и параметр обновляется так:
Ошибка распространения в следующий уровень это:
Слой 4: Для этого уровня у нас нет желаемых параметров mi и si . Мы можем вычислить и передать только сигнал ошибки (di4):
и из (2)
Сигнал ошибки:
Слой 3: Как и в слое четыре надо вычислить только сигнал ошибки. Согласно (3) этот сигнал может быть, вычислен так:
Таким образом, сигнал ошибки
di3=di4
. Если у нас много
выходов, то сигнал ошибки будет
,
где суммирование производится по
последовательности узлов правил.
Слой 2: Используя (5) и (1) адаптивные правила mij вычисляется как:
где из предыдущего получили
и из (2)
Где
суммирование выполняется по узлам
правил, влияющих на ai
и
Итак, адаптивное правило mij:
Точно также, используя (5) и (1) для sij получим:
Адаптивное правило sij:
Скорость работы данного алгоритма намного выше, чем работа алгоритма обычной сети обратного распространения благодаря оптимизированной схеме сети и уменьшенному количеству вычислений.