- •Технологии искусственного интеллекта
- •Нечеткое множество. Пустое нечеткое множество. Универсум.
- •Носитель нечеткого множества. Конечное и бесконечное нечеткие множества.
- •Множество α-уровня. Высота нечеткого множества. Ядро, границы и точки перехода нечеткого множества.
- •Нормальное и субнормальное нечеткие множества. Унимодальное нечеткое множество.
- •Основные типы функций принадлежности.
- •Операции над нечеткими множествами.
- •Нечеткие операторы.
- •Лингвистическая переменная.
- •Правила нечетких продукций. Продукционная нечеткая система.
- •Методы нечеткой композиции (вывода). Прямой и обратный методы вывода заключений в системах нечетких продукций.
- •Основные этапы нечеткого вывода.
- •Основные алгоритмы нечеткого вывода.
- •Генетический алгоритм.
- •Нейронные сети. Персептрон.
- •Нейронные сети в искусственном интеллекте – это упрощенные модели биологических нейронных сетей.
- •Персептрон
- •Многослойные нейронные сети
- •Многослойный персептрон
- •Алгоритм обратного распространения ошибки.
- •Недостатки алгоритма обратного распространения ошибки
- •1. Паралич сети
- •2. Локальные минимумы
- •3. Размер шага
- •4. Временная неустойчивость
- •Улучшение работы алгоритма обратного распространения ошибки
- •1. Режим обучения
- •2. Максимизация информативности
- •3. Функция активации
- •4. Целевые значения
- •5. Нормализация входов
- •6. Инициализация
- •7. Обучение по подсказке
- •8. Скорость обучения
Персептрон
Первое систематическое изучение
искусственных нейронных сетей было
предпринято Маккалокком и Питтсом в
1943г. Простая нейронная модель, показанная
на рисунке ниже, использовалась в большей
части их работы. На вход поступает только
двоичный сигнал, т.е. либо
либо
.
Элемент
умножает
каждый вход
на
вес
и
суммирует взвешенные входы. Если эта
сумма больше заданного порогового
значения, выход равен единице, в противном
случае – нулю.
Именно такие системы и множество им
подобных называются – персептронами.
Персептроны состоят из одного слоя
(т.е. количество слоев нейронов между
входом
и
выходом
равно
одному) искусственных нейронов,
соединенных с помощью весовых коэффициентов
с множеством входов (см. рис. ниже).
Вершины-круги в левой части рисунка служат лишь для распределения входных сигналов. Они не выполняют каких- либо вычислений, и поэтому не считаются слоем. По этой причине они обозначены в виде круга, чтобы отличать их от вычисляющих нейронов (сумматоров), обозначенных квадратами.
В 60-е годы персептроны вызвали большой интерес и оптимизм. Розенблатт доказал замечательную теорему об обучении персептронов. Уидроу дал ряд убедительных демонстраций систем персептронного типа, и исследователи во всем мире стремились изучить возможности этих систем. Первоначальная эйфория сменилась разочарованием, когда оказалось, что персептроны не способны обучиться решению ряда простых задач. Минский строго проанализировал эту проблему и показал, что имеются жесткие ограничения на то, что могут выполнять однослойные персептроны, и, следовательно, на то, чему они могут обучаться. Так как в то время методы обучения многослойных сетей не были известны, исследователи перешли в более многообещающие области, и исследования однослойных персептронов пришли в упадок. Недавнее открытие методов обучения многослойных сетей в большей степени, чем какой-либо иной фактор, повлияло на возрождение интереса и исследовательских усилий.
Работа Минского, возможно, и охладила пыл энтузиастов персептрона, но обеспечила время для необходимой консолидации и развития лежащей в основе теории. Важно отметить, что анализ Минского не был опровергнут. Он остается важным исследованием и должен изучаться, чтобы ошибки 60-х годов не повторились.
Теория персептронов является основой для многих других типов искусственных нейронных сетей, а сами персептроны являются логической исходной точкой для изучения искусственных нейронных сетей.
Многослойные нейронные сети
Вероятно, архитектура многослойных нейронных сетей используется сейчас наиболее часто. Она была предложена в работе в 1986 году и подробно обсуждается почти во всех учебниках по нейронным сетям. Обычно сеть состоит из множества сенсорных элементов (входных узлов), которые образуют входной слой; одного или нескольких скрытых слоев вычислительных нейронов и одного выходного слоя нейронов.
В литературе нет единообразия относительно того, как считать число слоев в многослойных нейронных сетях. Одни предлагают считать число слоев, включая несуммирующий входной слой, другие – считать, только слои, выполняющие суммирование. Мы предлагаем использовать последнее определение. Согласно этому определению, многослойная нейронная сеть на рисунке ниже рассматривается как двухслойная. Вход распределительного слоя считается нулевым слоем.
Многослойная нейронная сеть может моделировать функцию практически любой степени сложности, причем число слоев и число элементов в каждом слое определяют сложность функции. Определение числа промежуточных слоев и числа элементов в них является важным вопросом при конструировании.
Среди многослойных нейронных сетей можно выделить четыре наиболее значимых и важных класса нейронных сетей:
сети прямого распространения – все связи направлены строго от входных нейронов к выходным. Такие сети еще называют многослойным персептроном, по аналогии с обычным персептроном Розенблатта, в котором только один слой;
реккурентные нейронные сети или сети обратного распространения – сигнал в таких сетях с выходных нейронов или нейронов скрытого слоя частично передается обратно на входы нейронов входного слоя;
радиально базисные функции – вид многослойной нейронной сети, имеющий скрытый слой из радиальных элементов и выходной слой из линейных элементов. Сети этого типа довольно компактны и быстро обучаются. Радиально базисная сеть обладает следующими особенностями: один скрытый слой, только нейроны скрытого слоя имеют нелинейную активационную функцию и синаптические веса входного и скрытого слоев равны единицы;
самоорганизующиеся карты или сеть Кохонена. Такой класс многослойных нейронных сетей, как правило, обучается без учителя и успешно применяется в задачах распознавания. Сети такого класса способны выявлять новизну во входных данных: если после обучения сеть встретится с набором данных, непохожим ни на один из известных образцов, то она не сможет классифицировать такой набор и тем самым выявит его новизну. Сеть Кохонена имеет всего два слоя: входной и выходной, составленный из радиальных элементов.
