- •Технологии искусственного интеллекта
- •Нечеткое множество. Пустое нечеткое множество. Универсум.
- •Носитель нечеткого множества. Конечное и бесконечное нечеткие множества.
- •Множество α-уровня. Высота нечеткого множества. Ядро, границы и точки перехода нечеткого множества.
- •Нормальное и субнормальное нечеткие множества. Унимодальное нечеткое множество.
- •Основные типы функций принадлежности.
- •Операции над нечеткими множествами.
- •Нечеткие операторы.
- •Лингвистическая переменная.
- •Правила нечетких продукций. Продукционная нечеткая система.
- •Методы нечеткой композиции (вывода). Прямой и обратный методы вывода заключений в системах нечетких продукций.
- •Основные этапы нечеткого вывода.
- •Основные алгоритмы нечеткого вывода.
- •Генетический алгоритм.
- •Нейронные сети. Персептрон.
- •Нейронные сети в искусственном интеллекте – это упрощенные модели биологических нейронных сетей.
- •Персептрон
- •Многослойные нейронные сети
- •Многослойный персептрон
- •Алгоритм обратного распространения ошибки.
- •Недостатки алгоритма обратного распространения ошибки
- •1. Паралич сети
- •2. Локальные минимумы
- •3. Размер шага
- •4. Временная неустойчивость
- •Улучшение работы алгоритма обратного распространения ошибки
- •1. Режим обучения
- •2. Максимизация информативности
- •3. Функция активации
- •4. Целевые значения
- •5. Нормализация входов
- •6. Инициализация
- •7. Обучение по подсказке
- •8. Скорость обучения
4. Временная неустойчивость
Если сеть учится распознавать буквы, то нет смысла учить «Б», если при этом забывается «А». Процесс обучения должен быть таким, чтобы сеть обучалась на всем обучающем множестве без пропусков того, что уже выучено. В доказательстве сходимости это условие выполнено, но требуется также, чтобы сети предъявлялись все векторы обучающего множества прежде, чем выполняется коррекция весов. Необходимые изменения весов должны вычисляться на всем множестве, а это требует дополнительной памяти; после ряда таких обучающих циклов веса сойдутся к минимальной ошибке. Этот метод может оказаться бесполезным, если сеть находится в постоянно меняющейся внешней среде, так что второй раз один и тот же вектор может уже не повториться. В этом случае процесс обучения может никогда не сойтись, бесцельно блуждая или сильно осциллируя. В этом смысле алгоритм обратного распространения ошибки не похож на биологические системы.
Улучшение работы алгоритма обратного распространения ошибки
Часто утверждают, что проектирование нейронных сетей, использующих алгоритм обратного распространения ошибки, является скорее искусством, чем наукой. При этом имеют в виду тот факт, что многочисленные параметры этого процесса определяются только на основе личного практического опыта разработчика. В этом утверждении есть доля правды. Тем не менее, приведем некоторые общие методы, улучшающие производительность алгоритма обратного распространения ошибки.
1. Режим обучения
Существует два режима обучения: последовательный и пакетный. В процессе обучения многослойного персептрона с применением алгоритма обратного распространения ошибки ему многократно предъявляется предопределенное множество обучающих примеров. Один полный цикл предъявления полного набора примеров обучения называют эпохой. В последовательном режиме корректировка весов проводится после подачи каждого примера. Это наиболее часто используемый режим. В пакетном режиме обучения корректировка весов проводится после подачи в сеть всех обучающих примеров одной эпохи. Последовательный режим обучения в вычислительном смысле оказывается значительно быстрее. Это особенно сказывается тогда, когда обучающее множество является большим и в высокой степени избыточным.
2. Максимизация информативности
Как правило, каждый обучающий пример, предоставляемый алгоритму обратного распространения ошибки, нужно выбирать из соображений наибольшей информационной насыщенности в области решаемой задачи. Для этого существуют два общих метода:
использование примеров, вызывающих наибольшие ошибки обучения;
использование примеров, которые радикально отличаются от ранее использованных.
Эти два эвристических правила мотивированы желанием максимально расширить область поиска в пространстве весов.
В задачах классификации, основанных на последовательном обучении нейронной сети алгоритмом обратного распространения ошибки, обычно применяется метод случайного изменения порядка следования примеров, подаваемых на вход многослойного персептрона, от одной эпохи к другой. В идеале такая рандомизация приводит к тому, что успешно обрабатываемые примеры будут принадлежать к различным классам.
Более утонченным приемом является схема акцентирования, согласно которой более сложные примеры подаются в систему чаще, чем более легкие. Простота или сложность отдельных примеров выявляется с помощью анализа динамики ошибок (в разрезе итераций), генерируемых системой при обработке обучающих примеров. Однако использование схемы акцентирования приводит к двум проблемам, которые следует учесть:
распределение примеров в эпохе, представляемой сети, искажается;
наличие исключений или немаркированных примеров может привести к катастрофическим последствиям с точки зрения эффективности алгоритма. Обучение на таких исключениях подвергает риску способность сети к обобщению в наиболее правдоподобных областях пространства входных сигналов.
