
- •Искусственный интеллект. Основные направления и этапы развития.
- •Структура мозга. Уровни моделирования. Основные элементы моделей.
- •Виды функций активации
- •Классификация нейронных сетей
- •Применение нейронных сетей
- •Методика решения формализуемых задач в нейросетевом базисе
- •Настройка нейронной сети на решение прикладных задач
- •Обучение нс Основные понятия
- •Основные алгоритмы обучения нс без обратных связей
- •Персептронные алгоритмы обучения Алгоритм обучения по правилу Хебба
- •Алгоритм обучения Розенблатта
- •Процедура Уидроу-Хоффа
- •Обучение многослойной нейронной сети без обратных связей Математическая постановка задачи обучения
- •Алгоритм обратного распространения ошибки
- •Генетические алгоритмы оптимизации
- •Суть генетического алгоритма
- •Методы формирования популяции
- •Иллюстрация работы генетического алгоритма
- •Особенности реализации генетических алгоритмов
- •Модификация основных параметров га
- •Мобильные га
- •Динамическое изменение параметров в процессе выполнения га
- •Разновидности га
- •Применение генетического алгоритма к обучению многослойного персептрона
- •Рекуррентные и рециркуляционные сети
- •Сеть Хопфилда
- •Применение сети Хопфилда к решению задач комбинаторной оптимизации
- •Сеть Хемминга
- •Самоорганизующиеся нейронные сети Самоорганизация в нс
- •Конкурентное обучение
- •Сеть Кохонена
- •Алгоритмы кластеризации
- •Пороговый алгоритм
- •Алгоритм максимального расстояния
- •Алгоритм внутригруппового среднего (метод k-средних, k-means clustering, c-means clustering)
- •Алгоритм нечётких k-средних (fuzzy c-means clustering)
- •Алгоритм состязания процедур соединения и разделения.
- •Сети адаптивного резонанса
- •Основы адаптивного резонанса
- •Архитектура art
- •Комбинированные нс
- •Иерархический классификатор
- •Нейронные сети с функциональными связями
- •Решающие деревья
- •Методы проектирования нейросетевых архитектур для решения прикладных задач
- •Выбор топологии нс для решения задач нейроуправления
- •Практическое применение нс Управление движением робота по заданной траектории
- •Обучение и формирование обучающей выборки для управления мобильным роботом
- •Тестирование робота
- •Автономное управление мобильным роботом
Решающие деревья
В искусственном интеллекте широко используются решающие деревья, чаще бинарные.
Решающие деревья представляются в виде многоуровневых НС без обратных связей и могут быть использованы для более эффективного решения задач классификации и распознавания.
Древовидная НС (Tree Neural Network – TNN) – сеть, представляющая собой древовидную структуру (решающее дерево), в каждом узле которого содержится НС.
Пример. Бинарное дерево классификации для разделения образов на три класса.
Основная задача НС – определить оптимальный путь обхода решающего дерева.
Для построения TNN необходимо решить две задачи: первая связана с построением полного решающего дерева, в котором будут учитываться все особенности и условия задачи классификации; вторая – задача редуцирования (отсечение отдельных ветвей), осуществляется путём проверки задачи классификации на непротиворечивость.
Достоинства:
уменьшение времени обучения;
возможность построения иерархического классификатора;
возможность изменения содержимого узлов (НС) на любом уровне дерева.
Методы проектирования нейросетевых архитектур для решения прикладных задач
При решении прикладных задач необходимо решить следующие задачи, связанные с построением НС:
задача выбора типа НС;
задача выбора алгоритма обучения НС;
задача построения топологии (архитектуры) НС.
Первая задача
Основные типы НС:
НС с прямым распространением сигнала:
многослойный персептрон:
НС с прямым распространением сигнала являются наиболее применимым типом НС, поскольку для них доказана сходимость алгоритма обучения.
НС с обратным распространением сигнала:
Характеризуются небольшой информационной ёмкостью, а также отсутствием универсальной методики, гарантирующей сходимость.
НС самоорганизации:
Основные характеристики: алгоритм обучения НС основан на методе конкурентного обучения; в НС данного типа используется механизм латерального торможения.
Метод конкурентного обучения заключается в следующем: фиксируется нейрон с наибольшей активностью, далее – при использовании классического алгоритма – обновляются весовые коэффициенты данного нейрона, при использовании алгоритма, учитывающего эффект латерального торможения – также обновляются весовые коэффициенты соседних нейронов, причём величина изменения весов зависит от расстояния до нейрона победителя.
X – входной вектор;
W – вектор весовых коэффициентов.
Основное задача: сопоставить X и W.
Вычисляется вектор W, а затем расстояние от этого вектора до входного. Из всего множества весовых векторов необходимо выбрать такой вектор, расстояние от которого до входного вектора будет наименьшим.
Гибридные (комбинированные) сети.
Из существующих типов НС можно составить комбинированную сеть, которая будет обладать нужными качествами.
Вторая задача
Для каждого типа НС существуют свои алгоритмы обучения. Для решения различных задач данные алгоритмы можно подстраивать. Например, для обучения многослойного персептрона вместо алгоритма BP использовать другие методы, такие как квазиньютоновские методы, генетические алгоритмы и прочие. Другой путь связан с подстройкой параметров алгоритмов (скорости обучения, инерционности (для BP), изменение функции активации нейронов классического типа, введение нечетких нейронов).
Третья задача
Задача выбора топологии заключается
в определении количества слоёв НС и
количества нейронов в каждом слое,
которое необходимо использовать для
реализации отображения: F:
XY.
Для обучения используются пары
,
где p – число распознаваемых классов.
Задача выбора топологии НС состоит в
выборе НС с минимальной сложностью S
(
).
Обычно сложность НС определяется
количеством вычислительных операций,
которые надо выполнить для получения
выходного сигнала. Данная задача уместна
в том случае, когда задано определенное
значение ошибки обобщения:
.
Это задача комбинаторной оптимизации.
Если выбрать НС с небольшим количеством
слоев и небольшим количеством нейронов
каждого слоя, то есть уменьшить сложность,
то данная нейронная сеть не сможет
обеспечить заданную ошибку обобщения.
С другой стороны, если формировать сеть
из большого количества слоев и нейронов,
то может возникнуть эффект переобучения
(эффект «бабушкиного воспитания»): НС
хорошо распознает образы из обучающей
выборки, но плохо работает с образами
реальной среды.
Если задана сложность S, то можно минимизировать ошибку обобщения, подстраивая соответствующие алгоритмы обучения.
Таким образом, задачи нахождения минимальной ошибки обобщения и нахождения минимальной сложности являются взаимопротиворечивыми и не могут решаться одновременно.
Для решения задачи проектирования НС задача оптимизации может решаться в двух постановках:
Задана сложность НС, необходимо минимизировать ошибку обобщения.
Задана
, найти НС минимальной сложности.