- •Реферат
- •Содержание
- •1.Основная часть
- •1.1.Введение
- •1.2. Теоретическая часть: искусственные нейронные сети История возникновения
- •Общие принципы
- •Обучение нейронных сетей
- •Подходы к обучению
- •Обучение с учителем
- •Обучение без учителя
- •Методы обучения нейронных сетей с учителем Обучение однослойного персептрона
- •Метод обратного распространения ошибки
- •Градиентные методы
- •Эвристические методы
- •Методы обучения без учителя Обучение на основе корреляции
- •Сети pca
- •Сети ica
- •Сети с самоорганизацией на основе конкуренции
- •Алгоритм wta и сети Кохонена
- •Сети, решающие задачу распознавания образов
- •Когнитрон Архитектура
- •Обучение
- •Использование латерального торможения в обучении
- •Неокогнитрон
- •Архитектура
- •Структура слоев неокогнитрона Входной слой u0
- •Слой извлечения контраста ug
- •Обучение неокогнитрона
- •Обучение с учителем
- •Обучение без учителя промежуточных слоев
- •Обучение последнего слоя
- •Задача поиска образца на изображении
- •Структура Synapse (синаптическая связь)
- •Класс Neurolayer
- •Его наследники – классы cLayer и Slayer
- •Класс нейросети (Neuronet)
- •Преимущества и недостатки ооп-подхода
- •Производительность системы
- •Модификация системы
- •Производительность модифицированной системы
- •Алгоритм Создание сети
- •Расчет значений нейронов
- •Обработка данных
- •Обучение слоя s1 сети с учителем
- •Обучение слоя Sl без учителя
- •Обучение слоя sn
- •Поиск образцов на изображении
- •Анализ результатов Параметры реализованной системы
- •Быстродействие системы
- •Результат поиска на изображении
- •Применимость метода
- •Преимущества и недостатки системы
- •Дальнейшие возможности
- •2.ЭкономИческая часть
- •2.1. Введение
- •2.2. Сетевой график работ
- •Pert-анализ работ проекта
- •Дисперсия оценки сроков проекта
- •2.3. Затраты на создание проекта
- •Материальные затраты Расходные материалы
- •Затраты на электроэнергию
- •Заработная плата участников проекта
- •Социальные отчисления
- •Амортизационные отчисления
- •Прочие расходы
- •2.4. Выводы
- •3.Охрана труда и окружающей среды
- •3.1. Введение
- •Характеристики помещения
- •Оборудование
- •3.2. Анализ условий труда Санитарно-гигиенические факторы
- •Микроклимат
- •Освещение
- •Характеристики рабочего места
- •Электроопасность
- •Вибрация
- •Электромагнитные излучения
- •Эргономика рабочего места
- •Психофизиологические факторы
- •3.2. Расчет
- •Расчет эквивалентного шума и дозы для непостоянного шума
- •Вывод об уровне шума в помещении
- •3.3. Выводы
- •Заключение
- •Список использованных источников
- •Приложение Исходные коды основных классов
Структура слоев неокогнитрона Входной слой u0
Значения клеток слоя соответствуют значениям яркостей на изображении. Значения яркостей имеют значения [0...255] и переводятся в интервал [0...1]. Преобразование производится по формуле:
Value(i,j) = (255-pixel(i, j))/255,
так что яркости 0 (черная точка) соответствует значение 1.
Размер слоя равен размеру входного изображения.
Слой извлечения контраста ug
Слой, выделяющий контраст. Состоит из двух плоскостей нейронов, размер каждой равен размеру входного слоя. Одна плоскость выделяет положительный контраст, вторая – отрицательный. Значения нейронов считаются по формуле:
Здесь:
n – координата рассматриваемого нейрона слоя UG (подразумевается двумерная величина i, j)
AG – окрестность
ν – относительная координата нейрона в окрестности (также в двумерном пространстве)
n+ν – абсолютная координата нейрона предыдущего слоя (положение на слое)
k – номер плоскости слоя UG
φ(x) = max(x, 0)
aG – вес связи (постоянные величины, одинаковые для всех нейронов слоя)
Константы для весов с которыми берутся значения нейронов из окрестности удовлетворяют следующему выражению:
Таким образом, если яркость в области равномерная, взвешенная сумма значений будет равна 0.
S-слои
Эти слои служат для выявления локальных признаков. Слой имеет K плоскостей размера, соответствующего размеру предыдущего слоя (могут учитываться края, включающие окрестность нейронов границы) и одну плоскость подавляющих нейронов (V-плоскость) такого же размера. Нейрон плоскости k с координатами [i, j] связан с областями нейронов (i-r...i+r), (j-r...j+r) каждой из Kprevious плоскостей предыдущего слоя и с нейроном [i, j] плоскости V. Значение для слоя Sl рассчитывается по формуле:
Здесь
n – координата нейрона;
k – номер его плоскости;
Asl – окрестность;
ν – относительная координата нейрона в окрестности;
n+ν – абсолютная координата нейрона предыдущего слоя;
φ(x) = max(x, 0);
asl – вес связи. Связи S-слоя – это переменные величины, массив таких значений соответствует набору связей между плоскостями k уровня Sl и κ уровня Cl-1. Значение зависит от относительного положения нейрона в окрестности и не зависит от абсолютной координаты нейрона.
bsl – вес связи с V-нейроном. Это переменная величина, задающаяся для каждой плоскости k.
θ – параметр, определяющий порог погрешности (при значениях, близких к единице, выявляется только точное совпадение, при низких допускаются искажения).
vl – значение нейрона V-плоскости, считается по формуле:
csl – постоянные веса связей V-нейрона с предыдущим слоем, описываются монотонно убывающей функцией от расстояния до центра окрестности.
При высоком пороге θ клетки S-слоя распределяются таким образом, что каждая клетка реагирует на конкретный образ, при низком пороге – клетка реагирует на этот образ с заметными искажениями, и таким образом несколько клеток могут реагировать на один и тот же образец. Для распознавания зашумленных образов следует понижать порог. Исходя из эксперимента Фукусимы, низкий порог вообще работает эффективнее.
C-слои
Название C-слоев происходит от слова «complex» (комплексные). Они обобщают значения клеток предшествующих S-слоев и нужны для компенсации искажений (в частности сдвига). Одна и та же клетка C-слоя реагирует на возбуждение нескольких соседних клеток S-слоя. Также на этом слое происходит уменьшение количества клеток (прореживание). Коэффициент прореживания обычно берется равным 2. Таким образом количество клеток слоя по каждому измерению уменьшается вдвое, и если у S-клеток x выходных связей со следующим слоем, то для каждой C-клетки будут учитываться 2*x входов.
Число K плоскостей слоя такое же, как у предыдущего слоя. Каждая плоскость связана с одной плоскостью предыдущего слоя. В выходном слое плоскость состоит из 1 нейрона, связанного со всеми клетками нескольких плоскостей предыдущего слоя (подробнее описано в пунктах, посвященных обучению неокогнитрона).
Значения считаются по формуле:
Здесь
acl – постоянные веса (одинаковы для всего слоя);
ψ(x) = φ(x)/(1+φ(x)).
Значения постоянных весов могут быть двух типов. Первый вариант: положительные, убывающие от центра к границе области. Второй: наличие на границе подавляющего окружения (inhibitory surrounding), означающее что на границе области веса отрицательны. Это нужно, чтобы реакция на элемент, проходящий через всю зону была менее выраженной, чем реакция на края и границы элементов (см. Рис. 1 .9). Поскольку в распознавании образов границы важны, подавляющее окружение улучшает качество результата.
Рис. 1.9. Влияние подавляющего окружения на распознавание образа
Выходной слой нейронной сети относится к C-слоям. Каждая клетка выходного слоя отвечает за один класс входных изображений, и наиболее возбужденная клетка определяет класс, к которому изображение относится. За счет того, что клетка может быть связана со многими плоскостями предшествующего слоя, достигается устойчивость к трансформациям изображения: сеть по сути распознает несколько образов, однако относит их все к одному классу.
