Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
кроме лыскова.docx
Скачиваний:
21
Добавлен:
03.12.2018
Размер:
2.2 Mб
Скачать

35.Дискретная (Рекурентная) сеть Хопфилда

В сети каждый элемент связывается с другим элементом, но не с самим собой. За каждый шаг обновляется только один элемент. Элементы обновляются в случайном порядке, но в среднем элемент должен обновляться в одной и той же мере. Выход каждого элемента – 0 или 1.

Весовые значения для сети Хопфилда определяются непорседственно их эталонных данных без необходимости проведения обучения

Эталон= 1 -1 1 1

Первый столбец представляет весовые значения, связанные с первым элементом, второй столбец со вторым.

Процедура сохранения нескольких образцов сети Хопфилда заключается в следующем:

Прямое произведение вычисляется для каждого вектора и все полученные таким образом матрицы складываются.

Обобщенная структура сети хопфилда:

z-1- задержка на 1 такт

yi(k)=xi(k+1)

Процесс обучения сети формирует зоны притяжения (аттракции). Это зоны притяжения некоторых точек равновесия, соответствующих обучаемым данным.

36). Двунаправленная ассоциативная память

Двунаправленная ассоциативная память (ДАП,BAM) - нейронная сеть, реализующая гетероассоциативную память, способную к ассоциированию одного образа с другим. В отличие от автоассоциативной памяти Хопфилда в ДАП входной вектор подается на один набор нейронов, а выходной генерируется на другом наборе нейронов. ДАП также как и сеть Хопфилда способна к обобщению и восстановлению зашумленных образов.

Сеть состоит из двух слоёв элементов, между которыми имеются двухсторонние связи, соединённые с элементами по принципу все со всеми. Поэтому для описания сети может использоваться матрица весов. В случае, когда эта матрица квадратная и симметричная, ДАП превращается в автоассоциативную сеть Хопфилда.

В каждом слое хранятся эталонные записи образцов для распознавания. После поступления входного сигнала в процессе итерационного функционирования состояния нейронов слоя X вызывают изменения нейронов слоя Y, а те в свою очередь модифицируют состояния нейронов слоя X и т. д. То енсть на каждлй итерации происходит уточнение входных сигналов.

=1, if >Qj

=-1, if <Qj

=yi, if =Qj

Долговременная память (или ассоциации) реализуется в весовых массивах W и Wt. Каждый образ состоит из двух векторов: вектора A, являющегося выходом слоя 1, и вектора B, ассоциированного образа, являющегося выходом слоя 2. Для восстановления ассоциированного образа вектор A или его часть кратковременно устанавливаются на выходах слоя 1. Затем вектор A удаляется и сеть приводится в стабильное состояние, вырабатывая ассоциированный вектор B на выходе слоя 2. Затем вектор B воздействует через транспонированную матрицу Wt, воспроизводя воздействие исходного входного вектора A на выходе слоя 1. Каждый такой цикл вызывает уточнение выходных векторов слоя 1 и 2 до тех пор, пока не будет достигнута точка стабильности в сети. Эта точка может быть рассмотрена как резонансная, так как вектор передается обратно и вперед между слоями сети, всегда обрабатывая текущие выходные сигналы, но больше не изменяя их. Состояние нейронов представляет собой кратковременную память (КП), так как оно может быстро изменяться при появлении другого входного вектора. Значения коэффициентов весовой матрицы образуют долговременную память и могут изменяться только на более длительном отрезке времени, используя представленные ниже в данном разделе методы.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]