- •Реферат
- •Содержание
- •1.Основная часть
- •1.1.Введение
- •1.2. Теоретическая часть: искусственные нейронные сети История возникновения
- •Общие принципы
- •Обучение нейронных сетей
- •Подходы к обучению
- •Обучение с учителем
- •Обучение без учителя
- •Методы обучения нейронных сетей с учителем Обучение однослойного персептрона
- •Метод обратного распространения ошибки
- •Градиентные методы
- •Эвристические методы
- •Методы обучения без учителя Обучение на основе корреляции
- •Сети pca
- •Сети ica
- •Сети с самоорганизацией на основе конкуренции
- •Алгоритм wta и сети Кохонена
- •Сети, решающие задачу распознавания образов
- •Когнитрон Архитектура
- •Обучение
- •Использование латерального торможения в обучении
- •Неокогнитрон
- •Архитектура
- •Структура слоев неокогнитрона Входной слой u0
- •Слой извлечения контраста ug
- •Обучение неокогнитрона
- •Обучение с учителем
- •Обучение без учителя промежуточных слоев
- •Обучение последнего слоя
- •Задача поиска образца на изображении
- •Структура Synapse (синаптическая связь)
- •Класс Neurolayer
- •Его наследники – классы cLayer и Slayer
- •Класс нейросети (Neuronet)
- •Преимущества и недостатки ооп-подхода
- •Производительность системы
- •Модификация системы
- •Производительность модифицированной системы
- •Алгоритм Создание сети
- •Расчет значений нейронов
- •Обработка данных
- •Обучение слоя s1 сети с учителем
- •Обучение слоя Sl без учителя
- •Обучение слоя sn
- •Поиск образцов на изображении
- •Анализ результатов Параметры реализованной системы
- •Быстродействие системы
- •Результат поиска на изображении
- •Применимость метода
- •Преимущества и недостатки системы
- •Дальнейшие возможности
- •2.ЭкономИческая часть
- •2.1. Введение
- •2.2. Сетевой график работ
- •Pert-анализ работ проекта
- •Дисперсия оценки сроков проекта
- •2.3. Затраты на создание проекта
- •Материальные затраты Расходные материалы
- •Затраты на электроэнергию
- •Заработная плата участников проекта
- •Социальные отчисления
- •Амортизационные отчисления
- •Прочие расходы
- •2.4. Выводы
- •3.Охрана труда и окружающей среды
- •3.1. Введение
- •Характеристики помещения
- •Оборудование
- •3.2. Анализ условий труда Санитарно-гигиенические факторы
- •Микроклимат
- •Освещение
- •Характеристики рабочего места
- •Электроопасность
- •Вибрация
- •Электромагнитные излучения
- •Эргономика рабочего места
- •Психофизиологические факторы
- •3.2. Расчет
- •Расчет эквивалентного шума и дозы для непостоянного шума
- •Вывод об уровне шума в помещении
- •3.3. Выводы
- •Заключение
- •Список использованных источников
- •Приложение Исходные коды основных классов
Обучение неокогнитрона
Переменными весами обладают только нейроны S-слоев. Набор весов общий для всего слоя, таким образом достаточно изменить веса только для одной клетки каждой из K плоскостей слоя.
Выбор «зерна» (seed), то есть клетки, для которой будут рассчитываться значения весов, может быть разным. Для обучений неокогнитрона может использоваться как обучение с учителем, так и без.
Формула, по которой изменяются веса связей:
Здесь:
n̂ – координата зерна на нейронной плоскости слоя;
k̂ – плоскость, где находится зерно;
ν, κ, k̂ – модифицируемая связь (входной нейрон связи расположен на κ-плоскости слоя UCl-1, со сдвигом ν относительно центра области связей);
ql – скорость обучения слоя USl;
cSl – матрица константных весов, зависящих от величины смещения ν.
Веса тормозящих нейронов также переменные. Они могут изменяться по различным формулам, в данной работе используется следующая формула:
Здесь вес связи тормозящего нейрона полностью определяется весами прочих связей этой нейронной плоскости. Таким образом тормозящий сигнал будет возрастать со скоростью, соответствующей скорости роста возбуждающего сигнала и выход сети не будет непрерывно увеличиваться в ходе обучения, независимо от роста весов.
Обучение неокогнитрона производится поэтапно. В начале полностью обучается первый S-слой, затем с использованием его выходных сигналов обучается следующий слой, и так до последнего слоя. Пороговые коэффициенты (θ) могут различаться для этапа обучения и этапа работы обученного слоя.
Обучение с учителем
На вход поступают образцы, которые должны выделяться плоскостями слоя. Например, при использовании на слое S1, который должен выделять границы на изображении, образцами являются прямые линии, повернутые под разными углами. Зерном становится клетка слоя, соответствующая (с учетом смещения между входным слоем, слоем C0 и S1) любой клетке, лежащей на линии образца. При обучении с учителем число плоскостей K равно числу образцов, и на каждой плоскости слоя веса изменяются в соответствии со входными данными одного образца. Тогда эта плоскость будет реагировать на элементы, соответствующие такому образцу (в данном случае – границы, параллельные линии образца).
Число обучающих образцов (и плоскостей на слое) определяет точность соответствия образцу входного изображения. Чем больше различных образцов используется, тем более точно будут различаться элементы изображения, однако тем больше ресурсов потребует сеть.
Скорость обучения q – параметр обучающей функции. Рекомендуется брать такое значение, при котором входной образец будет настраивать веса соответствующей плоскости за одну итерацию. Обучение с учителем используется для первого слоя, выделяющего простые паттерны (границы).
Обучение без учителя промежуточных слоев
При обучении без учителя используется метод конкурентной борьбы. Веса всех связей в начале работы устанавливаются случайными, таким образом выходные значения клеток немного различны. Наиболее возбужденные клетки, дающие максимальную реакцию на образец, используются для модификации весов плоскости для закрепления такой реакции.
У каждой клетки слоя есть область конкуренции, охватывающая несколько соседних с ней клеток по координатам i, j, находящихся на всех нейронных плоскостях слоя. То есть сравниваются клетки внутри некого «цилиндра», чьи «сечения» лежат на нейронных плоскостях, а «ось» проходит через проверяемую клетку. Если значение проверяемой клетки больше, чем у всех клеток в конкурентной области, она заносится в список кандидатов в избранные клетки. Когда проверка произведена для всего слоя, для каждой плоскости выбирается клетка, входящая в список кандидатов и имеющая максимальное значение на своей плоскости. Все выбранные таким образом клетки становятся зерном для модификации весов своих плоскостей. Если на плоскости не было выбрано ни одной клетки-кандидата, зерном становится любая клетка (например центральная), но константа скорости обучения берется маленькая. Также можно исключить обучение плоскостей, не имеющих подходящих клеток.
Обучение без учителя используется для всех слоев выше US1.
