
- •Лекция 1. История развития нейронных сетей. Определение инс, свойства инс, достоинства, недостатки. Типовые постановки задач, решаемых инс, и области их применения. Исторический аспект
- •Определение инс, свойства инс, достоинства, недостатки
- •1. Обучение
- •2.Обобщение
- •3. Абстрагирование
- •4.Применимость
- •Типовые постановки задач
- •1. Распознавание образов
- •2. Кластеризация данных
- •2.Медицина:
- •3.Авионика:
- •4.Связь:
- •5.Интернет:
- •6.Автоматизация производства:
- •7.Политические технологии:
- •8.Безопасность и охранные системы:
- •9.Ввод и обработка информации:
- •10.Геологоразведка:
- •Лекция 2.Биологический прототип. Модель искусственного нейрона. Функции активации. Классификация нейронных сетей. Основные парадигмы нейронных сетей. Биологический прототип
- •Искусственный нейрон
- •Активационные функции
- •Однослойные искусственные нейронные сети
- •Многослойные искусственные нейронные сети
- •Классификация нейронных сетей
- •1. Типы обучения нейросети
- •2. Архитектура связей
- •Нейропарадигмы
- •Лекция 3.Персептрон. Персептронная представляемость. Проблема «Исключающее или». Преодоление ограничения линейной разделимости. Обучение персептрона. Дельта-правило. Персептроны
- •Персептронная представляемость
- •Проблема функции исключающее или
- •Линейная разделимость
- •Преодоление ограничения линейной разделимости
- •Обучение персептрона
- •Трудности с алгоритмом обучения персептрона
- •Лекция 4.Сети с обратным распространением ошибки. Основной элемент сети обратного распространения. Алгоритмы обучения и функционирования.
- •Обучение сети обратного распространения.
- •Проход вперед.
- •Обратный проход.
- •Подстройка весов скрытого слоя.
- •Импульс.
- •Экспоненциальное сглаживание.
- •Трудности обучения сети обратного распространения. Паралич сети
- •Локальные минимумы
- •Размер шага
- •Временная неустойчивость
- •Слой Гроссберга.
- •Режим обучения. Обучение слоя Кохонена.
- •Предварительная обработка входных сигналов.
- •Выбор начальных значений весовых векторов.
- •Обучение слоя Гроссберга.
- •Полная структура сети встречного распространения.
- •Лекция 7. Стохастические методы обучения. Больцмановское обучение.
- •Стохастические методы обучения
- •Больцмановское обучение
- •Лекция 8.Обучение Коши. Метод искусственной теплоемкости. Комбинированный метод обратного распространения и обучения Коши. Обучение Коши
- •Метод искусственной теплоемкости
- •Комбинированный метод обратного распространения и обучения Коши
- •Лекция 9. Ассоциативные сети. Сети Хопфилда. Свойства сети Хопфилда. Статистические сети Хопфилда. Сеть Хопфилда
- •Структура сети
- •Устойчивость сети Хопфилда
- •Непрерывные сети Хопфилда
- •Статистические сети Хопфилда
- •Алгоритм обучения
- •Свойства сети Хопфилда
- •Лекция 10. Сеть Хэмминга. Двунаправленная ассоциативная память. Емкость памяти. Сеть Хэмминга
- •Структура сети
- •Алгоритм функционирования
- •Сравнение с сетью Хопфилда
- •Двунаправленная ассоциативная память
- •Функционирование сети
- •Обучение сети
- •Емкость памяти
- •Непрерывная дап
- •Адаптивная дап
- •Лекция 11. Адаптивная резонансная теория. Проблема стабильности-пластичности в инс.
- •Архитектура apt
- •Лекция 12. Функционирование и обучения сети арт. Теоремы арт. Функционирование сетей apt
- •Характеристики (теоремы) сети арт
- •Лекции 13. Проблемы реализации инс. Нейрокомпьютеры. Основные направления реализации нейросетей. Оценка производительности нейрокомпьютеров.
- •Реализация инс аппаратными средствами
- •Особенности аппаратной реализации нейросетей
- •Лекции 14. Аппаратная реализация на примере нейрочипа NeuroMatrix nm6403. Пример аппаратной реализации (нейрочип NeuroMAtrix nm6403 нтц «Модуль») Выбор и обоснование принципов построения нейрочипа
- •Архитектура нейрочипа
- •Aрхитектурныe основы построения нейросистем на базе нейрочипа
- •Лекции 15. Программная реализация нейросетей . Программная реализация нейросетей
- •Основные функциональные возможности программ моделирования нейронных сетей.
- •Формирование (создание) нейронной сети
- •Обучение нейронной сети
- •Тестирование обученной нейронной сети
- •Лекции 16. Программная реализация нейросетей на примере модели процессорного элемента NeuralWorks. Модель процессорного элемента нейропакета NeuralWorks Professional II
- •Этапы функционирования процессорного элемента.
- •Литература
Лекции 16. Программная реализация нейросетей на примере модели процессорного элемента NeuralWorks. Модель процессорного элемента нейропакета NeuralWorks Professional II
Пакет программ «Neural Works Professional II» позволяет создавать модели нейронных сетей, обучать их и тестировать на произвольных входных данных. Модульная структура программы обеспечивает возможность подключения дополнительных стратегий управления, новые типы нейронных сетей и виды отображения сети на экране монитора. Кроме того, существует возможность представления входных и выходных данных в графической форме.
Компания NeuralWare разработала универсальную модель процессорного элемента, позволяющую создавать широкий спектр нейронных сетей при использовании одних и тех же структур данных. Основные преимущества такого подхода:
Во-первых, для получения различных типов сетей требуется изменить небольшую часть программы (обычно около 30 строк), что сокращает время создания новых сетей и гарантирует, что они будут правильно функционировать с первого раза.
Во-вторых, это позволяет добавлять к пакету новые возможности, совместимые со всеми типами сетей без необходимости внесения изменений в какой-либо отдельный тип сети.
В третьих, такая архитекутура процессорного элемента позволяет легко распараллеливать процессы.
В-четвертых, это позволяет легко разрабатывать новые типы сетей и вносить изменения в уже имеющиеся. Параметры, управляющие архитектурой процессорного элемента, исходят из двух источников: параметры слоя и планы обучения и функционирования.
Параметры слоя:
Передаточная функция;
Выходная функция;
Правило обучения;
Сумма;
Масштаб;
Смещение;
Нижний и верхний пределы выходного сигнала процессорного элемента;
План обучения и функционирования можно определить для каждого слоя. Если планы обучения и функционирования не определены для слоя, то сеть использует план, установленный по умолчанию.
План обучения и функционирования обеспечивают несколько коэффициентов или параметров, которые используются различными параметрами слоев.
Рис. 41. Модель процессорного элемента.
Этапы функционирования процессорного элемента.
Шаг 1. Взвешенная сумма: На этом шаге происходит вычисление взвешенной суммы весов соединений между входным и скрытым слоями. Соединение осуществляется посредством четырех определенных типов весов. Они делятся на два класса: Устанавливаемые веса (Set Weight) и все остальные. При некоторых условиях (определяемых с помощью управляющей стратегии) для определения взвешенной суммы рассматриваются только устанавливаемые веса. В других случаях рассматриваются все веса. В дополнение к простой взвешенной сумме программа поддерживает различные способы вычисления суммы: минимум, максимум, мажоритарность, произведение и несколько вариантов нормализации.
Шаг 2. Передаточная (активационная) функция: Результат взвешенной суммы преобразуется в выходной сигнал с помощью передаточной функции. Перед применением передаточной функции к сумме может быть добавлен равномерно распределенный случайный шум. Источник и размер помехи определяются текущим режимом (обучением или функционированием) и соответствующим значением коэффициента температуры (Temperature) из таблицы плана обучения и функционирования (Learning and Recall Schedule). Можно использовать следующие активационные функции: линейная, BSB (brain-state-in-a-box), персептрон, сигмоидальная, гиперболический тангенс, синус и др. Для некоторых из них значение помехи будет предварительно умножено на коэффициент усиления (Gain), взятый из соответствующей строки той же таблицы.
Шаг 3. Масштабирование и ограничение: После преобразования результат масштабируется и ограничивается. Масштабирование, например, линейного преобразования имеет следующий вид:
Масштабный коэффициент * Преобразованное значение + Смещение
Масштабирование полезно во входном слое для отображения входных значений в соответствующие уровни. В выходном слое может быть произведено обратное преобразование данных.
Ограничение связано с приведением масштабированного результата к верхней и нижней границам.
Шаг 4. Соревнование (Выходная функция):
Этот шаг обеспечивает способ, в соответствии с которым процессорные элементы соревнуются в слое. Соревнование может происходить на одном или обоих уровнях: сначала определяется, какой элемент будет активен (будет обеспечивать выходной сигнал); затем, какой будет участвовать в обучении или процессе адаптации.