
- •1.Принципы организации и функционирования искусственных нейронных сетей
- •1.1. Основные нейрофизиологические данные о биологических нейронных сетях
- •1.2. Основы организации информационных процессов в искусственных нейронных сетях
- •1.3. Элементы искусственной нейронной сети. Основные определения
- •1.4.Понятие «искусственная нейронная сеть»
- •1.5.Геометрическое описание связей
- •2. Законы обучения
- •2.1.Основные определения
- •2.2.Классификация методов обучения
- •2.3.Обучение с супервизором
- •2.4.Обучение с подкреплением
- •2.5.Обучение самоорганизацией
- •2.5.1.Закон обучения Кохонена
- •2.5.2.Закон обучения Гроссберга
- •2.5.3.Пространственно-временное обучение
- •3.Архитектуры инс
- •3.1.Ассоциативные нейронные сети
- •3.2.Сети преобразования данных
- •3.2.1.Сети с обратным распространением ошибки
- •3.2.2.Сети со встречным распространением ошибки
- •3.3.Стохастические сети. Машина Больцмана
- •3.4.Иерархические сети
- •4.Применение инс
1.2. Основы организации информационных процессов в искусственных нейронных сетях
Различные модели нейронных вычислений в той или иной степени основываются на существующих в настоящее время представлениях об организации информационных процессов в человеческом мозге, а именно:
мозг есть сложно организованная среда взаимодействующих нейронных клеток, являющихся минимальной функциональной единицей мозга и образующих в процессе взаимодействия устойчивые нейронные ансамбли, характеризующиеся определенными групповыми свойствами;
процесс обучения нейронной сети состоит в изменении сил синаптических связей и структуры межнейронных взаимодействий.
Эти представления являются основой коннекционизма — подхода к объяснению и моделированию процессов мышления и познания. Его идея состоит в том, что познавательные процессы могут быть реализованы как информационные процессы, происходящие в вычислительной среде, состоящей из множества элементарных операционных элементов и множества связей между ними. Всякая связь характеризуется рядом параметров, определяющих тип и силу взаимодействия между выходом одного и входом другого элемента. Параметры связей могут динамично изменяться. Такая вычислительная среда содержит примитивы, через которые реализуются основные концепции коннекционизма по организации информационных процессов:
распределенное представление информации;
параллельные вычисления, которые осуществляются через параллельное взаимодействие элементов, пластичность связей вычислительной среды и обучение, т. е. изменение параметров связей.
Традиционные вычислительные процессы независимо от избранной методологии программирования (процедурной, декларативной, объектно-ориентированной) и архитектуры реализации (фон-неймановской, параллельной) представляют собой последовательность строго определенных операций, осуществляемых одним или несколькими процессорами. Отдельная семантическая единица информации может быть локализована в памяти физически, и наоборот — всякая адресуемая единица памяти имеет семантическую интерпретацию по отношению к решаемой задаче.
Нейронные вычисления характеризуются принципиальными отличиями в идеях представления и обработки информации. Всякая задача интерпретируется как поиск соответствия между множествами входных и выходных данных, представляемых в виде векторов n-мерного пространства, принадлежащего некоторой предметной области. Решение сводится к построению таких межнейронных связей и функциональным преобразованиям входной информации, которые реализуют необходимое соответствие. Входное воздействие подается на входные элементы, а выходная реакция снимается с выходных элементов нейронной сети. При этом вычислительные процессы представляют собой параллельные взаимодействия между нейронами через межнейронные связи и преобразование данных в нейронах.
Соответствие между входным воздействием и выходной реакцией устанавливается через процедуру обучения, определяемую для каждой конкретной модели нейронных вычислений.
В частности, процесс обучения может состоять в многократном задании на входе воздействия, выработке выходной реакции и сравнении ее с образцом. Получаемая оценка является основанием для внесения изменений в систему связей и функций преобразования информации в искусственных нейронах. Указанная процедура является основой формирования «памяти» нейронной сети.
Таким образом, информация в нейронной сети оказывается распределенной во множестве межнейронных связей, каждая из которых характеризуется определенным весовым коэффициентом (весом) и функцией преобразования информации. Отдельная семантическая единица информации не может быть локализована физически — извлечение ее возможно как отклик сети на входное воздействие. Такое распределенное представление информации определяет устойчивость нейронных сетей при ее хранении. Исчезновение одной или нескольких связей не приводит к уничтожению целого.
Таким образом, общими отличительными чертами нейронных вычислений являются:
реализация вычислений как процессов параллельного взаимодействия через сигналы между множеством однотипных функциональных элементов;
распределенное представление информации через систему межнейронных связей;
решение задач обработки информации с помощью процедуры обучения;
эффективное использование вычислительных ресурсов — память в моделях нейронных вычислений непосредственно участвует в процессе обработки информации, а взаимодействие между нейронами параллельное;
стабильное функционирование при изменениях в некоторых структурных элементах модели.
В настоящее время предложен ряд моделей нейронных сетей. Однако общими проблемами, которые должны быть реализованы при разработке или выборе модели нейронных вычислений, являются следующие:
Определена топология модели.
Определен способ представления информации.
Выбрана функция преобразования, реализуемая искусственным нейроном.
Построена процедура обучения.