- •Реферат
- •Содержание
- •1.Основная часть
- •1.1.Введение
- •1.2. Теоретическая часть: искусственные нейронные сети История возникновения
- •Общие принципы
- •Обучение нейронных сетей
- •Подходы к обучению
- •Обучение с учителем
- •Обучение без учителя
- •Методы обучения нейронных сетей с учителем Обучение однослойного персептрона
- •Метод обратного распространения ошибки
- •Градиентные методы
- •Эвристические методы
- •Методы обучения без учителя Обучение на основе корреляции
- •Сети pca
- •Сети ica
- •Сети с самоорганизацией на основе конкуренции
- •Алгоритм wta и сети Кохонена
- •Сети, решающие задачу распознавания образов
- •Когнитрон Архитектура
- •Обучение
- •Использование латерального торможения в обучении
- •Неокогнитрон
- •Архитектура
- •Структура слоев неокогнитрона Входной слой u0
- •Слой извлечения контраста ug
- •Обучение неокогнитрона
- •Обучение с учителем
- •Обучение без учителя промежуточных слоев
- •Обучение последнего слоя
- •Задача поиска образца на изображении
- •Структура Synapse (синаптическая связь)
- •Класс Neurolayer
- •Его наследники – классы cLayer и Slayer
- •Класс нейросети (Neuronet)
- •Преимущества и недостатки ооп-подхода
- •Производительность системы
- •Модификация системы
- •Производительность модифицированной системы
- •Алгоритм Создание сети
- •Расчет значений нейронов
- •Обработка данных
- •Обучение слоя s1 сети с учителем
- •Обучение слоя Sl без учителя
- •Обучение слоя sn
- •Поиск образцов на изображении
- •Анализ результатов Параметры реализованной системы
- •Быстродействие системы
- •Результат поиска на изображении
- •Применимость метода
- •Преимущества и недостатки системы
- •Дальнейшие возможности
- •2.ЭкономИческая часть
- •2.1. Введение
- •2.2. Сетевой график работ
- •Pert-анализ работ проекта
- •Дисперсия оценки сроков проекта
- •2.3. Затраты на создание проекта
- •Материальные затраты Расходные материалы
- •Затраты на электроэнергию
- •Заработная плата участников проекта
- •Социальные отчисления
- •Амортизационные отчисления
- •Прочие расходы
- •2.4. Выводы
- •3.Охрана труда и окружающей среды
- •3.1. Введение
- •Характеристики помещения
- •Оборудование
- •3.2. Анализ условий труда Санитарно-гигиенические факторы
- •Микроклимат
- •Освещение
- •Характеристики рабочего места
- •Электроопасность
- •Вибрация
- •Электромагнитные излучения
- •Эргономика рабочего места
- •Психофизиологические факторы
- •3.2. Расчет
- •Расчет эквивалентного шума и дозы для непостоянного шума
- •Вывод об уровне шума в помещении
- •3.3. Выводы
- •Заключение
- •Список использованных источников
- •Приложение Исходные коды основных классов
Обучение
Обучение когнитрона происходит по конкурентному принципу WTA: на каждой области слоя обучается только один, наиболее возбужденный нейрон. При его обучении веса изменяются по следующей формуле:
I – величина суммарного тормозящего сигнала, посчитанная по приведенной ранее формуле.
Если в области конкуренции нет возбужденных нейронов, веса изменяются по другим формулам:
q’ – коэффициент обучения при отсутствии победителя, q'<q.
При таком обучении у сильно возбужденных узлов возбуждающие веса будут расти быстрее, чем тормозящие, у слабо возбужденных – наоборот.
Использование латерального торможения в обучении
Латеральное торможение применяется для более эффективного обучения. В систему добавляется тормозящая связь между соседними нейронами одного и того же слоя. В исходной вариации алгоритма это означало появление в системе обратной связи и необходимость большого количества вычислительных итераций.
Существует
метод ускоренного латерального
торможения. Тормозящий сигнал вычисляется
по формуле
,
где OUTi – значения
нейронов данного слоя в области
конкуренции нейрона j. gi
– константные веса, в сумме равные 1.
Затем выход тормозящего нейрона (нейрон
X на рис. 7) считается по
формуле:
Это позволяет вычислять тормозящий выход нерекурсивно, за один проход слоя. Такая система также несколько изменяет процесс обучения. Обычное латеральное торможение позволяет учиться только одному нейрону в области конкуренции, а при использовании ускоренного латерального торможения учиться могут несколько узлов одновременно.
Неокогнитрон
Неокогнитрон был разработан в 1980 году Кунихико Фукусимой. Эта нейронная сеть решает задачу робастного распознавания образов, в частности для оптического распознавания символов с сильно искаженной и зашумленной структурой.
Архитектура
Нейронная сеть имеет иерархическую структуру, имитирующую процессы в зрительной коре мозга. Входной слой соответствует слою фоторецепторов в человеческом мозге, это двумерный массив клеток, соответствующий размеру распознаваемого входного образа. За ним следует слой извлечения контраста (в схеме обозначается как UG). Внутренние слои делятся на два типа: S-слои (простые), отвечающие за распознавание элементов и C-слои (комплексные), компенсирующие смещение элементов. Выходной слой состоит из одиночных клеток, каждая из которых отвечает за узнавание конкретных образцов («grandmother cell»). В иерархии S-слои и C-слои идут поочередно. Чем больше размер образца, тем больше таких пар слоев требуется для распознавания. Общая схема сети предсталвена на:: Рис. 1 .8.
Рис. 1.8. Архитектктура неокогнитрона
Внутренние слои состоят из нескольких плоскостей (Cell Plane) нейронов. Соседями нейрона, чьи значения могут влиять на значение в нем, являются нейроны предшествующего слоя, чьи координаты i и j близки к его координатам (разность координат в пределах константы r для данного слоя). Будем называть совокупность таких нейронов окрестностью данного нейрона. В S-слоях нейрон принимает входные сигналы от таких окрестностей на всех плоскостях предыдущего слоя, в C-слоях – только от одной плоскости (см. Рис. 1 .8).
Одной из уникальных особенностей неокогнитрона являются общие наборы весов у нейронов. Веса связей представляют собой величины, зависящие от взаимного расположения предсинаптического и постсинаптического нейронов, то есть от положения предсинаптического нейрона в окрестности постсинаптического. Такой набор весов является общим для всех нейронов одной плоскости слоя и не зависит от абсолютного положения нейрона на плоскости. Таким образом обучение одного нейрона превращается в обучение целой нейронной плоскости.
