- •Алгоритм расчета весовой матрицы сети Хопфилда (Hopfield). Пример
- •1. Бинарные сети Хопфилда (Hopfield): структура, свойства, назначение и области применения. Непрерывные сети Хопфилда
- •2. Заданы функции активации двух формальных нейронов скрытого слоя rbf-сети в виде радиальных базисных функций
- •Динамические нейросети с внешней динамикой
- •2. Для двунаправленной ассоциативной памяти (lfg) заданы адреса и информации по этим адресам
- •1.Применение сетей Кохонена при распознавании речи и в роботах
- •1.Динамические нейросети с внутренней динамикой
- •2. Для двунаправленной ассоциативной памяти (lfg) заданы адреса и информации по этим адресам
- •1.Интерполяция и аппроксимация функций с помощью rbf-сетей
- •2. Применение частично рекуррентных сетей Жордана и Элмана для решения задач прогнозирования
- •Предварительная обработка значений признаков. Снижение размерности пространства признаков по методу главных компонент
- •Сети Кохонена, их структура и алгоритм обучения
- •Структура нечёткой интеллектуальной системы – основные блоки и их назначение. Примеры применения
- •1. Применение сетей Кохонена при распознавании речи и в роботах
- •1.Применение динамических нейронных сетей для решения задач прогнозирования и компьютерного контроля знаний
- •1. Частично рекуррентные нейросети
- •2. Динамические нейронные сети и нейрокомпьютеры. Сети с внутренней динамикой
- •1. Сети Кохонена, их структура и алгоритм обучения
- •1. Гибридные нейро-нечёткие продукционные системы – достоинства, структура и примеры применения
- •2. Для двунаправленной ассоциативной памяти (lfg) заданы адреса и информации по этим адресам
- •2. Сети радиальных базисных функций (rbf-сети): структура и назначение. Примеры применения. Применение rbf-сетей для решения задач прогнозирования и определения психометрической функции преподавателя
2. Заданы функции активации двух формальных нейронов скрытого слоя rbf-сети в виде радиальных базисных функций
с центрами x1=(
x1=1,
x2=2)T
и x2=(
x1=2,
x2=3)T,
σ=1.
Определить выходы этих скрытых нейронов для входного вектора x=( x1=2, x2=1)T
;
;
БИЛЕТ N 4
Динамические нейросети с внешней динамикой
В динамических нейронных сетях отображение внешней информации, и ее обработка осуществляется в виде некоторого динамического процесса, то есть процесса, зависящего от времени. В сетях с внешней динамикой – динамика процессов или системы учитывается на входе ИНС, то есть в ИНС предусматриваются входы на которые подается значение сигнала в текущие и предшествующие моменты времени.
Задан образ x=(1,-1,-1,-1)T. Определите для него весовую матрицу сети Хопфилда. Проверить работоспособность сети при распознавании искаженного образа (-1,1,-1,-1)
Весовая матрица Хопфилда:
,…
- не распознан, т.к. половина образа
искажена была.
БИЛЕТ N 2
Область применения сетей Хопфилда – распознавание образов.
Непрерывные сети Хопфилда.
В соответствии с предложением Хопфилда
активация, функция активации и выходы
сети Хопфилда могут быть непрерывными.
Для этого может быть использована,
например, сигмоидальная логистическая
функция активации или выхода с параметром
λ: f(
)=
.
Чем больше значение λ, тем лучше
приближение сигмоидальной функции к
бинарной пороговой функции. Для
непрерывных сетей Хопфилда справедлива
модификация теоремы Коэна и Гроссберга:
сеть устойчива при выполнении следующих
условий:
весовая матрица W симметрична: wij = wji для i ≠ j;
главная диагональ содержит нули: wii = 0 для всех i.
2. Для двунаправленной ассоциативной памяти (lfg) заданы адреса и информации по этим адресам
Адрес |
Информация по адресу |
A1 =(-1,1,-1) |
B1=(-1,1,-1,-1) |
A2=(1,-1,1) |
B2=(1,-1,1,1) |
Определить весовую матрицу связей между слоями А и B и проверить работоспособность ДАП при распознавании эталонных образов
;
;
;
Весовая матрица связей:
Проверка работоспособности.
Вычисление B1 по A1:
БИЛЕТ N 1
2. Для k-го шага процесса самообучения заданы весовые векторы двух нейронов Кохонена w1=(w11=2, w12=3)T и w2=(w21=2, w22=4)T. Сети предъявляется образ, характеризуемый вектором x=( x1=2, x2=1)T. Определите нейрон-победитель и следующие приближения весовых векторов w1 и w2.
- для нейрона победителя.
- w1 - нейрон-победитель.
Корректировка:
,
,
пусть
БИЛЕТ N 5
