
- •Интеллектуальные средства измерений
- •Часть I Нейрокомпьютерные сети
- •1 Теоретические основы нейронных сетей
- •1.1 Обзор основных свойств и функций нейронных сетей
- •1.1.1 Свойства искусственных нейронных сетей
- •1.1.2 Обучение нейронных сетей
- •1.1.3 Обобщение
- •1.1.4 Абстрагирование
- •1.1.5 Применимость
- •1.2 Терминология, обозначения и схематическое изображение искусственных нейронных сетей
- •1.3 Структура нейроных сетей
- •1.4 Обучение искусственных нейронных сетей
- •1.4.1 Обзор основных свойств обучения
- •1.4.1.1 Цель обучения
- •1.4.1.2 Обучение с учителем
- •1.4.1.3 Обучение без учителя
- •1.4.1.4 Алгоритмы обучения
- •1.4.2 Процедура обратного распространения
- •1.4.2.1 Сетевые конфигурации
- •1.4.2.2 Многослойная сеть
- •1.4.2.3 Проход вперед
- •1.4.2.4 Обратный проход. Подстройка весов выходного слоя
- •1.4.2.5 Подстройка весов скрытого слоя
- •1.4.2.6 Добавление нейронного смещения
- •1.4.2.7 Импульс
- •1.4.2.8 Паралич сети
- •1.4.2.9 Локальные минимумы
- •1.4.2.10 Размер шага
- •1.4.2.11 Временная неустойчивость
- •1.4.3 Сети встречного распространения
- •1.4.3.1 Структура сети
- •1.4.3.2 Нормальное функционирование
- •1.4.3.2.1 Слои Кохоненна
- •1.4.3.2.2 Слой Гроссберга
- •1.4.3.3 Обучение слоя Кохонена
- •1.4.3.3.1 Предварительная обработка входных векторов
- •1.4.3.3.2 Выбор начальных значений весовых векторов
- •1.4.3.3.3 Режим интерполяции
- •1.4.3.3.4 Статистические свойства обученной сети
- •1.4.3.3 Обучение слоя Гроссберга
- •1.4.3.4 Сеть встречного распространения полностью
- •1.4.4 Стохастические методы
- •1.4.4.1 Использование обучения
- •1.4.4.2 Больцмановское обучение
- •1.4.5 Сети Хопфилда
- •1.4.5.1 Бинарные системы
- •1.4.5.2 Устойчивость
- •1.4.5.3 Ассоциативная память
- •1.4.5.4 Обобщенные сети
1.4.5.2 Устойчивость
Как и в других сетях, веса между слоями в этой сети могут рассматриваться в виде матрицы W. Сеть с обратными связями является устойчивой, если ее матрица симметрична и имеет нули на главной диагонали, т.е. если wij = wji и wii = 0 для всех i.
Симметрия сети является достаточным, но не необходимым условием для устойчивости системы. Имеется много устойчивых систем (например, все сети прямого действия!), которые ему не удовлетворяют. Можно продемонстрировать примеры, в которых незначительное отклонение от симметрии может приводить к непрерывным осцилляциям. Однако приближенной симметрии обычно достаточно для устойчивости систем.
1.4.5.3 Ассоциативная память
Человеческая память ассоциативная, т.е. некоторое воспоминание может порождать большую связанную с ним область. Напротив, обычная компьютерная память является локально адресуемой, предъявляется адрес и извлекается информация по этому адресу.
Сеть с обратной связью формирует ассоциативную память. Подобно человеческой памяти по заданной части нужной информации вся информация извлекается из «памяти». Чтобы организовать ассоциативную память с помощью сети с обратными связями, веса должны выбираться так, чтобы образовывать энергетические минимумы в нужных вершинах единичного гиперкуба.
Хопфилд [4] разработал ассоциативную память с непрерывными выходами, изменяющимися в пределах от +1 до –1, соответствующих двоичным значениям 0 и 1, Запоминаемая информация кодируется двоичными векторами и хранится в весах согласно следующей формуле:
; (24)
где т – число запоминаемых выходных векторов;
d – номер запоминаемого выходного вектора;
OUTi,j – i-компонента запоминаемого выходного вектора.
Это выражение может стать более ясным, если заметить, что весовой массив W может быть найден вычислением внешнего произведения каждого запоминаемого вектора с самим собой (если требуемый вектор имеет n компонент, то эта операция образует матрицу размером п х п) и суммированием матриц, полученных таким образом. Это может быть записано в виде
, (25)
где Di – i-й запоминаемый вектор-строка.
Как только веса заданы, сеть может быть использована для получения запомненного выходного вектора по данному входному вектору, который может быть частично неправильным или неполным. Для этого выходам сети сначала придают значения этого входного вектора. Затем входной вектор убирается и сети предоставляется возможность «расслабиться», опустившись в ближайший глубокий минимум. Сеть идущая по локальному наклону функции энергии, может быть захвачена локальным минимумом, не достигнув наилучшего в глобальном смысле решения.
1.4.5.4 Обобщенные сети
Принцип машины Больцмана может быть перенесен на сети практически любой конфигурации, хотя устойчивость не гарантируется. Для этого достаточно выбрать одно множество нейронов в качестве входов и другое множество в качестве выходов. Затем придать входному множеству значения входного вектора и предоставить сети возможность релаксировать.
Процедура обучения для такой сети состоит из следующих шагов:
вычислить закрепленные вероятности:
а) придать входным и выходным нейронам значения обучающего вектора;
б) предоставить сети возможность искать равновесие;
в) записать выходные значения для всех нейронов;
г) повторить шаги от а до в для всех обучающих векторов;
д) вычислить
вероятность
,
т.е. по всему множеству обучающих векторов
вычислить вероятность того, что значения
обоих нейронов равны единице.
2) вычислить незакрепленные вероятности:
а) предоставить сети возможность «свободного движения» без закрепления входов или выходов, начав со случайного состояния;
б) повторить шаг 2а много раз, регистрируя значения всех нейронов;
в)вычислить
вероятность
,
т.е. вероятность того, что значения обоих
нейронов равны единице.
3) скорректировать веса сети следующим образом:
;
где δwij – изменение веса wij;
η – коэффициент скорости обучения.
Литература
1) Круг П.Г. Нейронные сети и нейрокомпьютеры: Учебное пособие по курсу «Микропроцессоры». – М.: Издательство МЭИ, 2002. – 76 с.
2) Розенблатт Ф. Принципы нейродинамики. Персептрон и теория механизмов мозга. М.: Мир, 1965.
3) Хехт-Нильсен Р. Нейрокомпьютинг: история, состояние, перспективы // Открытые системы. № 4. 1998 г.
4) Уоссермен Ф. Нейрокомпьютерная техника: теория и практика, М.: Мир. 1992 г., 185 с.