
- •Часть 3. Модели распознавания образов.
- •10.1. Постановка задачи распознавания образов.
- •10.1.1. Предмет распознавания образов.
- •10.1.2. Формулировка задачи распознавания образов.
- •10.1.3. Алгоритмы распознавания образов.
- •10.2. Модели распознавания образов на основе линейной алгебры.
- •10.3. Диагностика малых групп в структуре социальной системы.
- •10.3.1. Формирование социометрической матрицы.
- •10.3.2. Выявление малых групп в социуме.
- •10.3.3. Полугрупповые подходы при управлении малыми группами
- •11.1. Искусственный интеллект и нейронаука.
- •11.2. Мозг – как функциональная система.
- •11.3. Нейросетевые модели мозга: требования, описания и
- •11.4. Нейросетевое обучение в дискретной модели Хопфилда/
- •11.5. «Нейросетевая педагогика» и ее приложения.
- •11.6. Нелинейные модели и прогноз развития
- •12.1. Оценка состояния современной информатики
- •12.2. Квантовая физика и квантовая информатика.
- •12.3. Кубиты и операции с ними.
- •12.4. Принципиальная схема квантового компьютера.
- •12.5. Реализации и перспективы квантовой информатики.
11.4. Нейросетевое обучение в дискретной модели Хопфилда/
Нейросеть как
модель представляет собой динамическую
систему
в виде орграфа
,
где Ne
конечный набор нейронов, представляющих
вершины орграфа; S
множество состояний нейронов; As
набор ориентированных связей (дуг) между
нейронами; W
веса связей. Состояние нейросети
на момент времени t
определяется посредством функций:
f(t):
,
определяющей для каждого нейрона из Ne
его состояние из S;
и
:
,
задающей каждой связи из As
некоторый
вес из множества W.
Источники и
стоки в нейросетях не фиксируются, т.е.
формально любой элемент или их некоторый
ансамбль в сети при необходимости может
выполнять такие функции.
Модель Хопфилда
[20;27;28] представляет собой следующую
нейросетевую идеализацию. Полагается,
что множество состояний
дискретно,
так, что S(t)={-1;1},
т.е. принимается два состояния активности
нейронов – возбуждения (значение+1)
и торможения (значение -1).
Эта дискретность отражает нелинейный,
пороговый характер функционирования
нейрона и известный принцип нейробиологии
«все или ничего» (см. п. 11.2).
Динамика нейрона
у Хопфилда описывается в рамках
традиционной модели нейрона Мак-Каллока
– Питтса. Пусть
некоторое состояние нейрона, а h(t)
внешнее воздействие на этот нейрон,
например, со стороны других нейронов
сети в момент времени
t, которое
считаем дискретным t=1;2;…
. Тогда
состояние данного нейрона в последующий
момент времени s(t+1)
определяется соотношением:
s(t+1)=sign(h(t))=
(11.3)
В теории нейронных
сетей считается, что всякая пара нейронов
сети формально взаимосвязана. Поэтому,
имея ввиду конечность множества нейронов
Ne, пронумеровав
элементы Ne,
можно положить Ne={1;2;…;n},
где n
– количество нейронов в сети, и тогда
можно определить множество связей
{(i;j):i;j=
}
.
Будем также полагать, что воздействие
на данный нейрон со стороны остальных
нейронов сети отвечает принципу
суперпозиции и определяется взвешенной
суммой:
, (11.4)
где
вес дуги
,
описывающей воздействие на нейрон i
со стороны
нейрона j в
момент времени t.
Таким образом, используя (11.3); (11.4), можно
записать:
(11.5)
Система нелинейных
рекуррентных (разностных) уравнений
1-го порядка (11.5) описывает эволюцию
нейросети,
причем, входной образ
, (11.6)
предъявляемый
сети для распознания, определяет
начальные условия для системы (11.5), а
динамика изменения весов
представляет алгоритм обучения данной
нейросети. В модели Хопфилда алгоритм
обучения нейросети формируется в
соответствии с правилом обучения,
предложенным Д.Хеббом в 40-х гг. XX в.
[20;23]. В данном случае, когда распознается
единственный входной образ (11.6), правило
Хебба принимает вид:
,
,
(11.7)
Соотношения (11.5),
(11.6), (11.7) полностью определяют эволюцию
нейросети
в рамках нелинейной модели Хопфилда,
причем, нелинейность этой модели связана
с процедурой обучения (11.7).
Механизм обучения
в нейросетевой модели Хопфилда (11.5),
(11.6), (11.7) тесно связан с качественной
теорией нелинейного дифференциального
уравнения
где v(x)
некоторая ограниченная, достаточно
гладкая функция скалярного аргумента
x,
обладающая потенциалом (функцией
Ляпунова)
L(x), т.е.
.
Известно [20], что аттракторами данного
дифуравнения могут быть только особые
точки
,
для которых
,
причем, на соответствующей фазовой
координатной прямой устойчивые особые
точки (
)
чередуются с неустойчивыми (
)
и последние определяют границы области
притяжения устойчивых точек.
Сопоставим
аттракторам рассматриваемого уравнения
набор ключевых образов
,
которым в сети отвечают вполне определенные
устойчивые ассоциативные связи. Входной
образ а,
предъявляемый сети, задает начальное
условие х(0)
для этого уравнения; распознавание
образа будет соответствовать выходу
решения на аттрактор: предъявленный
образ будет близок (в смысле (11.1)) к
некоторому ключевому, если он попадает
в область притяжения соответствующего
аттрактора
и, следовательно, решение уравнения
(11.8)
при
стремится к одному из ключевых образов
,
для которого
.
Таким образом, обучение сети в данном
случае сводится к построению функции
v(x)
с устойчивыми особыми точками
,
которым отвечают точки минимумов
потенциала L(x).
Рассмотрим теперь разностную аппроксимацию уравнения (11.8) по методу Эйлера:
(11.9)
Если
достаточно мало, то свойства разностного
уравнения (11.9), по крайней мере качественно,
сохраняют свойства дифференциального
уравнения (11.8) [20], а потому при
решение уравнения (11.9) также выходит на
некоторый аттрактор, отвечающий
определенному ключевому образу и,
таким образом, происходит распознавание
входного образа
,
предъявленного сети.
Нетрудно заметить,
что каждое уравнение системы (11.5) с
условием (11.6) приводится к виду (11.9).
Действительно, полагая
,
уравнение (11.5) принимает вид
, (11.10)
где
=1,
причем, единица временного шага
должна устанавливаться на том уровне
малости, который отвечает определенным
условиям сходимости процесса (11.10) при
.
Сравнивая (11.10) и (11.9), убеждаемся, что
эти уравнения отличаются только лишь
некоторыми обозначениями и, следовательно,
механизм обучения в дискретной
нейросетевой модели Хопфилда (11.5),
(11.6), (11.7) полностью укладывается в рамки
сценария, описываемого качественной
теорией уравнений (11.8), (11.9). Конкретным
выражением процесса обучения в дискретной
модели Хопфилда является тот факт, что
после предъявления сети
входного образа (11.6) с ростом t
происходит постепенная стабилизация
весов связей (11.7) между нейронами. Как
только отличия между соответствующими
весами связи с ростом t
перестают превосходить некоторые
фиксированные значения (условие (11.1)),
мы имеем режим выхода параметров сети
на режим аттрактора, которому отвечает
определенный ключевой образ и, таким
образом, входной образ опознан, а
соответствующая «развесованная»
конфигурация связей между нейронами
представляет результат обучения.
Отметим, что обычно процедура стабилизации
весов в процессе обучения нейросети
оптимизируется по алгоритму обратного
распространения ошибки [20].