
- •Введение
- •Формальный нейрон. Типология нейронов. Задача, решаемая нейроном, геометрическая интерпретация.
- •Формальный нейрон.
- •Типология нейронов.
- •Геометрическая интерпретация задачи нейрона.
- •Нейронная сеть. Слой, типология слоёв. Типология нейронных сетей. Основные классы задач, решаемых нейронными сетями.
- •задачи
- •Задача обучения нейронной сети, отличие от задачи обучения нейрона. Проблемы. Примеры алгоритмов и методов обучения.
- •Градиентные методы.
- •Математическое обоснование метода обратного распространения ошибки. Алгоритм обратного распространения ошибки.
- •Вывод формулы для расчёта адаптивного коэффициента обучения в алгоритме обратного распространения ошибки.
- •Вывод формулы для расчёта адаптивного шага обучения для нерекуррентной линейной нейронной сети.
- •Алгоритм послойного обучения. Назначение и отличие от алгоритма обратного распространения ошибки.
- •Алгоритм многократного распространения ошибки. Назначение и отличие от алгоритма обратного распространения ошибки.
- •Задача предсказания числовых последовательностей с помощью нейронных сетей. Особенности устройства нейронных сетей для предсказания числовых последовательностей.
- •Реккурентные нейронные сети. Контекстный нейрон. Обучение. Сеть Элмана. Сеть Джордана.
- •Рециркуляционные нейронные сети. Линейная рециркуляционная сеть. Задача, решаемая линейной рециркуляционной сетью (метод главных компонент).
- •Алгоритмы обучения и функционирования линейной рециркуляционной сети.
- •Релаксационные нейронные сети. Синхронная сеть Хопфилда. Непрерывное и дискретное состояние. Структура, обучение, энергия, функционирование.
- •Сеть Хэмминга. Назначение, обучение и функционирование.
- •Линейная ассоциативная память и ассоциативная память на основе сети Хопфилда. Функционирование, отличие.
- •Двунаправленная ассоциативная память. Назначение, структура, обучение и функционирование.
- •Двунаправленная ассоциативная память. Метод обучения двунаправленной ассоциативной памяти с модифицированной структурой.
- •Сеть адаптивного резонанса. Назначение, структура, обучение и функционирование.
- •СТРУКТУРА APT
- •Функционирование сети APT в процессе классификации
- •ФУНКЦИОНИРОВАНИЕ APT
- •ПРИМЕР ОБУЧЕНИЯ СЕТИ APT
- •ЗАКЛЮЧЕНИЕ
- •Устройство и структура нейронных сетей для решения задач классификации и кластеризации. Правила обучения: WTA и CWTA.
- •Структура когнитрона, неокогнитрона и свёрточных нейронных сетей, отличия. Назначение когнитрона, неокогнитрона и свёрточных нейронных сетей.
- •Обучение
- •НЕОКОГНИТРОН
- •Обобщение
- •Вычисления
- •Обучение
- •Псевдооптическая нейронная сеть. Интерферирующий нейрон, устройство. Назначение, структура и функционирование сети.
- •Машина Больцмана, назначение. Устройство и функционирование.
- •Предетекторы и детекторы. Поле (карта) детекторов. Детекторы новизны и тождества. Схема активного анализа на основе нейроподобных элементов.
- •Аппаратная реализация нейронных сетей. Процедура проектирования систолических массивов (процессоров), на основе структуры сети.
- •Систолические процессоры для двухслойной нейронной сети (первый слой – рецепторы). Эффективность. Предпочтение по эффективности.
- •Систолический массив с разнонаправленными связями. Сравнение по эффективности с процессорами с однонаправленными связями.
- •Матричный систолический процессор. Сравнение по эффективности.
- •Систолические массивы для многослойных нейронных сетей. Структура систолического массива, объединяющего различные систолические процессоры. Эффективность.
- •Систолические массивы для многослойных нейронных сетей. Структура систолического массива, объединяющего идентичные систолические процессоры. Эффективность.
- •Систолические процессоры для реализации релаксационных нейронных сетей (сети Хопфилда).
- •Методы обеспечения отказоустойчивости. Скользящее резервирование.
- •Методы обеспечения отказоустойчивости. Секционированное резервирование. Схема для неоднородного потока входных данных.
- •Нечёткие нейронные сети. Структура, функционирование, обучение.
- •Литература.
Аппаратная реализация нейронных сетей. Процедура проектирования систолических массивов (процессоров), на основе структуры сети.
При реализации нейросетевых моделей используются различные архитектуры. Т.к. фактически нейросети обладают параллелизмом, можно использовать архитектуру класса ОКМД и МКМД, но чаще строят на последовательной архитектуре.
При построении нейросетей в робототехнике, они строятся на базе цифровых сигнальных процессоров и программируемых интегральных схем.
Архитектура для нейросетей может также быть на классе систолических процессоров.
Систолические процессоры для двухслойной нейронной сети (первый слой – рецепторы). Эффективность. Предпочтение по эффективности.
Систолические архитектуры:
1.Однородный поток данных:
t1 t2 t3 t4
2.
t1 t2 t3 t4
3.
t1 t2 t3 t4
p1 |
p2 |
p3 |
p4 |
|
|
|
|
x1 |
0 |
0 |
0 |
|
|
|
|
x |
x |
0 |
0 |
|
|
|
|
1 |
2 |
|
|
|
|
|
|
|
x2 |
x3 |
0 |
|
|
|
|
x1 |
|
|
|
|
|||
x1 |
x2 |
x3 |
x4 |
|
|
|
|
|
Последовательные потоки данных: |
||||||
p1 |
p2 |
p3 |
p4 |
|
|
|
|
x1 |
0 |
0 |
0 |
|
|
|
|
0 |
x |
0 |
0 |
|
– конвейер |
||
|
1 |
|
|
|
|
|
|
|
0 |
x1 |
0 |
|
|
|
|
x2 |
|
|
|
|
|||
0 |
x2 |
0 |
x1 |
|
|
|
|
|
Неоднородный поток данных: |
||||||
p1 |
p2 |
p3 |
|
p4 |
|
|
|
w11 |
0 |
0 |
|
|
0 |
|
|
w |
w |
0 |
|
|
0 |
|
– компоненты весовой матрицы |
12 |
21 |
|
|
|
|
|
|
|
w22 |
w31 |
|
0 |
|
|
|
w13 |
|
|
|
||||
w14 |
w23 |
w32 |
|
w41 |
|

Рис. 43. Упрощённая структура систолического процессора
Рис. 44. Функциональная схема систолического процессора
Каждый процессорный элемент реализует следующую логику:
Рис. 45. Процессорный элемент систолического процессора

m – размерность выходного вектора |
|
|||
n – размерность входного вектора |
|
|||
Время: |
|
|
|
|
t0 = (n + L *m)*α , α – время одного такта |
(187) |
|||
Число операций: |
|
|||
V = (2*n −1)*m* L |
(188) |
|||
Производительность: |
|
|||
γ = V = |
(2*n −1)*m* L |
|
(189) |
|
(n + L *m)*α |
||||
t0 |
|
|||
При m → ∞: |
|
|||
γ = 2*n −1 |
(190) |
|||
α |
|
|
|
Систолический массив с разнонаправленными связями. Сравнение по эффективности с процессорами с однонаправленными связями.
Схема для систолического массива с разнонаправленными связями:
Рис. 46. Структура систолического массива
Каждый процессорный элемент (PE) работает по следующей схеме:
Рис. 47. Процессорный элемент систолического массива
Производительность:

γ |
|
= |
(2*n −1)*m* L |
(191) |
|
3 |
(n + L *m −1)*2*α |
||||
|
|
|
Матричный систолический процессор. Сравнение по эффективности.
Схема матричного систолического процессора:
Рис. 48. Матричный систолический процессор
Каждый процессорный элемент хранит свой весовой коэффициент.
Рис. 49. Процессорный элемент матричного систолического процессора
Производительность:
γ |
|
= |
(2*n −1)*m* L |
, α – время выполнения одного такта |
(192) |
|
m |
(n + L +m −1)*α |
|||||
|
|
|
|