
- •Оглавление
- •Введение
- •1.Математические модели искусственных нейронных сетей [9]
- •1.1Общие сведения о структуре биологического нейрона
- •1.2 Математическая модель искусственного нейрона
- •1.3 Математическое описание нейронной сети
- •1.4 Стохастический нейрон
- •1.5 Сравнение характеристик машины фон Неймана и нейронной сети
- •2.Разработка структуры и функций нейроимитатора как элемента интеллектуальной информационной системы
- •2.1 Концепции применения нейросетевых компонентов в информационных системах
- •2.2 Предварительная обработка информации на этапе проектирования нейросетевых компонентов
- •2.3 Формирование задачника для нейросети
- •2.4 Особенности формирования нейронной сети
- •2.5 Интерпретация сигналов нейронной сети
- •2.6Управляющая программа (исполнитель)
- •2.7 Компонент учитель
- •2.8Настройка параметров нейросети.
- •2.9Оценка и коррекция нейросетевой модели
- •2.10 Конструктор нейронной сети
- •2.11 Контрастер нейросети.
- •2.12 Логически прозрачные сети, получение явных знаний
- •2.13 Решение дополнительных задач с помощью нейросетевых компонентов
- •2.14Разработка языка описания нейроимитатора для обмена данными
- •3.Разновидности нейронных сетей [31]
- •3.1Персептрон Розенблатта.
- •3.1.1Персептрон Розенблатта.
- •3.1.2Теорема об обучении персептрона.
- •3.1.3Линейная разделимость и персептронная представляемость
- •3.2Свойства процессов обучения в нейронных сетях.
- •3.2.1Задача обучения нейронной сети на примерах.
- •3.2.2Классификация и категоризация.
- •3.2.3Обучение нейронной сети с учителем, как задача многофакторной оптимизации.
- •3.3Многослойный персептрон.
- •3.3.1Необходимость иерархической организации нейросетевых архитектур.
- •3.3.2Многослойный персептрон.
- •3.3.3Обучение методом обратного распространения ошибок.
- •3.4Другие иерархические архитектуры.
- •3.4.1Звезды Гроссберга
- •3.4.2Принцип Winner Take All (wta) - Победитель Забирает Все - в модели Липпмана-Хемминга.
- •3.4.3Карта самоорганизации Кохонена.
- •3.4.4Нейронная сеть встречного распространения.
- •3.5Модель Хопфилда.
- •3.5.1Сети с обратными связями
- •3.5.2Нейродинамика в модели Хопфилда
- •3.5.3Правило обучения Хебба
- •3.5.4Ассоциативность памяти и задача распознавания образов
- •3.6Обобщения и применения модели Хопфилда.
- •3.6.1Модификации правила Хебба.
- •3.6.2Матрица Хебба с ортогонализацией образов.
- •3.6.3Отказ от симметрии синапсов.
- •3.6.4Алгоритмы разобучения (забывания).
- •3.6.5Двунаправленная ассоциативная память.
- •3.6.6Детерминированная и вероятностная нейродинамика.
- •3.6.7Применения сети Хопфилда к задачам комбинаторной оптимизации.
- •3.7Неокогнитрон Фукушимы.
- •3.7.1Когнитрон: самоорганизующаяся многослойная нейросеть.
- •3.7.2Неокогнитрон и инвариантное распознавание образов.
- •3.8Теория адаптивного резонанса.
- •3.8.1Дилемма стабильности-пластичности восприятия.
- •3.8.2Принцип адаптивного резонанса.
- •3.8.3Нейронная сеть aрt-1.
- •3.8.4Начальное состояние сети.
- •3.8.5Фаза сравнения.
- •3.8.6Фаза поиска.
- •3.8.7Обучение сети арт.
- •3.8.8Теоремы арт.
- •3.8.9Дальнейшее развитие арт: архитектуры арт-2 и арт-3.
- •3.8.10Сети арт-2 и арт-3.
- •3.9Черты современных архитектур.
- •3.9.1Черты современных архитектур.
- •3.9.2Сегодняшний день нейронауки.
- •3.9.3Программное и аппаратное обеспечение. Нейро-эвм.
- •4.Литература и учебно-методические материалы
2.4 Особенности формирования нейронной сети
При построении нейроимитаторов основным их элементом является искусственная нейронная сеть[ 41]. В работе используются два типа сетей: многослойные сети и карты Кохонена. Архитектура сетей Кохонена и методы их обучения представлены в работах [92,93,233,234]. Архитектура и алгоритмы обучения многослойных сетей также широко представлены в литературных источниках [40,41,228].
2.5 Интерпретация сигналов нейронной сети
Заметим, что если привычный для человека способ представления входных данных непригоден для нейронной сети, то и формат ответов нейронной сети часто малопригоден для человека. Необходимо интерпретировать ответы нейронной сети. Интерпретация зависит от вида ответа. Так, если ответом нейронной сети является действительное число, то его, как правило, приходится масштабировать и сдвигать для попадания в нужный диапазон ответов. Если сеть используется как классификатор, то выбор интерпретаторов еще шире. Важность данного этапа нейросетевой обработки данных вызывает необходимость выделения интерпретатора ответа нейронной сети в отдельный компонент нейрокомпьютера. Особое значение имеет данный компонент при работе нейрокомпьютера в составе информационной системы ВУЗа. Интерпретатор ответа напрямую взаимодействует с пользователем, поэтому оттого, как качественно будет организован интерфейс, зависит эффективность его работы. В п. 4.2 описан один из подходов к построению интеллектуальных интерфейсов. Кроме того, насущным становится применение современных информационных технологий мультимедиа.
Интерпретатор ответа напрямую взаимодействует с пользователем, поэтому оттого, как качественно будет организован интерфейс, зависит эффективность его работы. Для информационных систем выделяются следующие блоки интерпретации: восстановление данных, семантическое представление, шкалирование, графическое, аудио, видео, мультимедиа – представление. Необходимо уделять также особое внимание разработке объяснительных компонентов и качественного синтаксиса и семантики выходного языка (Рис. 4.16). Разработка данных положений является перспективным направлением данной работы в области совершенствования человеко - машинных интерфейсов информационных систем.
2.6Управляющая программа (исполнитель)
Каждый компонент нейрокомпьютера представляет собой отдельный модуль. Для управления работой нейросетевой системы используется управляющая программа, которая выполняет функции загрузки модулей, организации обмена информацией между модулями, базами данных и знаний. Данный компонент называется управляющим модулем (менеджером). Задача этого компонента – управление работой программного комплекса нейрокомпьютера, обеспечивающее эффективное взаимодействие всех его составных частей.
2.7 Компонент учитель
Рассмотрим следующий компонент искусственной нейронной сети – учитель в режимах обучения и дообучения. Существует ряд алгоритмов обучения, жестко привязанных к архитектуре нейронной сети. Примерами таких алгоритмов могут служить обучение (формирование синаптической карты) сети Хопфилда, обучение сети Кохонена и ряд других аналогичных сетей. Методы обучения нейронных сетей типа карт Кохонена представлены в работах [92,93,233,234].
Рассмотрим особенности алгоритмов обучения многослойных сетей, которые применяются в настоящей разработке. Минимизация функции оценки выполняется с привлечением градиентных методов оптимизации. Изучению градиентных методов обучения нейронных сетей посвящено множество работ [11,40,41,113,200,210,230]. Все градиентные методы объединены использованием градиента как основы для вычисления направления спуска. Для разработанного нейроимитатора применяются следующие методы: метод наискорейшего спуска, модифицированный ParTan, квазиньютоновский [40]. При обучении сети градиентными методами в качестве стандартной оценки работы нейросети (функции ошибки) выступает оценка по методу наименьших квадратов (МНК) [40,41]:
|
(4.9) |
где Н – оценка работы нейросети, Fsp(a, xs) – значение р-ой компоненты вектора выходного сигнала нейросети, ysp – требуемое значение, S – число примеров, P – размерность вектора y.
В [40,41,110] отмечается, что процесс обучения нейросети можно значительно ускорить, если вместо оценки (4.9) применять более специализированные. Они строятся путем формализации требований к нейросетевому решателю для конкретного вида задач. Для задач регрессии более подходящей является оценка МНК с допуском [110]:
|
(4.10) |
где допуск
или допустимая погрешность,
–
требуемое значение сигнала, ответ
сети; так как если целевое значение
измерено с погрешностью тодостаточно,
если выданный сетью ответ попадет в
интервал
.
При достижении этого результата пример
считается решенным. Оценка вида (4.10)
позволяет ускорить процесс обучения и
получить более сглаженные нейросетевые
функции, так как тогда требования к
сложности нейросети выражаются не в
виде оценки константы Липшица
[41,110](4.5), а в виде (4.6), т.е. становятся
более мягкими. Сглаженная функция, в
свою очередь, обладает более высокими
экстраполяционными и интерполяционными
способностями [199].
Для задач классификации целевая переменная является дискретной (номинальной). Ее кодирование проводится в соответствие с (4.4), т.е. сеть будет иметь несколько выходных полей, каждому из которых соответствует определенный класс. Тогда ответом нейросети на предъявленный пример будет считаться номер класса, соответствующий номеру выходного параметра, на котором зафиксировано наибольшее значение сигнала (интерпретатор «победитель забирает все» [41]). В этом случае в качестве оценки работы нейросети предпочтительнее использовать оценку вида «расстояние до множества правильных ответов», предложенную в [41]:
|
(4.11) |
где k – номер «истинного» класса, i – выходные сигналы сети, i=1..P, P – число выходных сигналов,требуемый уровень отличия «истинного» сигнала от остальных, – функция расстояния до множества правильных ответов:
|
(4.12) |
где =k
-, j
=i –
текущие выходные сигналы (за исключением
k),
переобозначенные таким образом, что
j>j+1,
j=1..P-1, P – число выходных
сигналов, l – максимальный номер,
такой, что верно неравенство
при
l<P-1, или равенство l=P-1.