
- •Искусственный интеллект. Основные направления и этапы развития.
- •Структура мозга. Уровни моделирования. Основные элементы моделей.
- •Виды функций активации
- •Классификация нейронных сетей
- •Применение нейронных сетей
- •Методика решения формализуемых задач в нейросетевом базисе
- •Настройка нейронной сети на решение прикладных задач
- •Обучение нс Основные понятия
- •Основные алгоритмы обучения нс без обратных связей
- •Персептронные алгоритмы обучения Алгоритм обучения по правилу Хебба
- •Алгоритм обучения Розенблатта
- •Процедура Уидроу-Хоффа
- •Обучение многослойной нейронной сети без обратных связей Математическая постановка задачи обучения
- •Алгоритм обратного распространения ошибки
- •Генетические алгоритмы оптимизации
- •Суть генетического алгоритма
- •Методы формирования популяции
- •Иллюстрация работы генетического алгоритма
- •Особенности реализации генетических алгоритмов
- •Модификация основных параметров га
- •Мобильные га
- •Динамическое изменение параметров в процессе выполнения га
- •Разновидности га
- •Применение генетического алгоритма к обучению многослойного персептрона
- •Рекуррентные и рециркуляционные сети
- •Сеть Хопфилда
- •Применение сети Хопфилда к решению задач комбинаторной оптимизации
- •Сеть Хемминга
- •Самоорганизующиеся нейронные сети Самоорганизация в нс
- •Конкурентное обучение
- •Сеть Кохонена
- •Алгоритмы кластеризации
- •Пороговый алгоритм
- •Алгоритм максимального расстояния
- •Алгоритм внутригруппового среднего (метод k-средних, k-means clustering, c-means clustering)
- •Алгоритм нечётких k-средних (fuzzy c-means clustering)
- •Алгоритм состязания процедур соединения и разделения.
- •Сети адаптивного резонанса
- •Основы адаптивного резонанса
- •Архитектура art
- •Комбинированные нс
- •Иерархический классификатор
- •Нейронные сети с функциональными связями
- •Решающие деревья
- •Методы проектирования нейросетевых архитектур для решения прикладных задач
- •Выбор топологии нс для решения задач нейроуправления
- •Практическое применение нс Управление движением робота по заданной траектории
- •Обучение и формирование обучающей выборки для управления мобильным роботом
- •Тестирование робота
- •Автономное управление мобильным роботом
Иерархический классификатор
Иерархический классификатор разбивает процесс решения задачи на отдельные этапы. Данный подход позволяет упростить решаемую задачу.
Пример.
Количество сетей Хемминга равно числу классов, при этом выходным сигналом каждого нейрона слоя Кохонена является позиционный код, определяющий номер класса, к которому следует отнести входной образ. Если окажется, что входной образ не ассоциируется ни с одним из существующих классов, то для него может быть выделен новый класс.
Алгоритм обучения и функционирования состоит из двух этапов:
Конкурентное обучение и модификация весовых коэффициентов сети Кохонена.
,
где
входной сигнал;
весовой коэффициент j-того нейрона;
скорость обучения.
Обучение сети Хемминга.
Процесс обучения закончится, когда сеть придет в стабильное состояние.
Подается входной вектор .
Вычисляется норма вектора:
, где X – входной вектор, Wij – весовой коэффициент связи i-того нейрона с j-той компонентой входного вектора.
Определяется номер нейрона победителя:
.
В соответствии с определенным номером k возбуждается одна из сетей Хемминга, на эту сеть подается входной образ.
Производится итерационная процедура схождения сети Хемминга до тех пор, пока на одном из входов не появится «1», а на других – «0».
Замечание. Процедуры обучения и
функционирования сети могут производится
параллельно. Для этого вводится
коэффициент бдительности ρ, который
характеризует допустимую степень
отклонения входного образа от образов,
хранящихся в сети. Для каждого входного
образа вычисляется расстояние
,
которое характеризует отличие входного
образа от образа, хранимого данной
сетью Хемминга. Если
,
то создаётся новый класс, в противном
случае, производится обучение сети.
Нейронные сети с функциональными связями
Однослойные нейронные сети либо не позволяют решать некоторые задачи классификации и распознавания, либо приводят к большим погрешностям. С другой стороны, для того чтобы уменьшить время обучения сети лучше использовать однослойные сети. Поэтому применяются такие однослойные нейронные сети, которые реализуют нелинейное разделение – функциональные НС.
Для реализации данного подхода проводят расширение входов НС. Дополнительные входные данные искусственно увеличивают размеры пространства входной информации и наряду с реальными данными составляют обучающую выборку. При этом дополнительные данные должны быть линейно независимы от исходных реальных данных. За счет этого достигается линейная разделимость входного пространства. Основной проблемой реализации функциональных НС является подбор линейно независимых функций.
Пример 1. Решение задачи XOR: дополнительный входной сигнал – произведение входных сигналов x1x2.
x1 |
x2 |
x1x2 |
y |
-1 |
-1 |
1 |
1 |
1 |
-1 |
-1 |
-1 |
-1 |
1 |
-1 |
-1 |
1 |
1 |
1 |
1 |

Пример 2. Сеть с функциональными связями
для работы с непрерывными функциями.
Дополнительные входные данные
генерируются на основе ортогонального
базиса функций, таких как,
.