- •Реферат
- •Содержание
- •1.Основная часть
- •1.1.Введение
- •1.2. Теоретическая часть: искусственные нейронные сети История возникновения
- •Общие принципы
- •Обучение нейронных сетей
- •Подходы к обучению
- •Обучение с учителем
- •Обучение без учителя
- •Методы обучения нейронных сетей с учителем Обучение однослойного персептрона
- •Метод обратного распространения ошибки
- •Градиентные методы
- •Эвристические методы
- •Методы обучения без учителя Обучение на основе корреляции
- •Сети pca
- •Сети ica
- •Сети с самоорганизацией на основе конкуренции
- •Алгоритм wta и сети Кохонена
- •Сети, решающие задачу распознавания образов
- •Когнитрон Архитектура
- •Обучение
- •Использование латерального торможения в обучении
- •Неокогнитрон
- •Архитектура
- •Структура слоев неокогнитрона Входной слой u0
- •Слой извлечения контраста ug
- •Обучение неокогнитрона
- •Обучение с учителем
- •Обучение без учителя промежуточных слоев
- •Обучение последнего слоя
- •Задача поиска образца на изображении
- •Структура Synapse (синаптическая связь)
- •Класс Neurolayer
- •Его наследники – классы cLayer и Slayer
- •Класс нейросети (Neuronet)
- •Преимущества и недостатки ооп-подхода
- •Производительность системы
- •Модификация системы
- •Производительность модифицированной системы
- •Алгоритм Создание сети
- •Расчет значений нейронов
- •Обработка данных
- •Обучение слоя s1 сети с учителем
- •Обучение слоя Sl без учителя
- •Обучение слоя sn
- •Поиск образцов на изображении
- •Анализ результатов Параметры реализованной системы
- •Быстродействие системы
- •Результат поиска на изображении
- •Применимость метода
- •Преимущества и недостатки системы
- •Дальнейшие возможности
- •2.ЭкономИческая часть
- •2.1. Введение
- •2.2. Сетевой график работ
- •Pert-анализ работ проекта
- •Дисперсия оценки сроков проекта
- •2.3. Затраты на создание проекта
- •Материальные затраты Расходные материалы
- •Затраты на электроэнергию
- •Заработная плата участников проекта
- •Социальные отчисления
- •Амортизационные отчисления
- •Прочие расходы
- •2.4. Выводы
- •3.Охрана труда и окружающей среды
- •3.1. Введение
- •Характеристики помещения
- •Оборудование
- •3.2. Анализ условий труда Санитарно-гигиенические факторы
- •Микроклимат
- •Освещение
- •Характеристики рабочего места
- •Электроопасность
- •Вибрация
- •Электромагнитные излучения
- •Эргономика рабочего места
- •Психофизиологические факторы
- •3.2. Расчет
- •Расчет эквивалентного шума и дозы для непостоянного шума
- •Вывод об уровне шума в помещении
- •3.3. Выводы
- •Заключение
- •Список использованных источников
- •Приложение Исходные коды основных классов
Производительность модифицированной системы
В модифицированной системе можно свободно работать с образцами гораздо большего размера, чем 64х64. Рассмотрим параметры сети для распознавания образцов 128х128.
Таблица 1.2. Объем памяти после модификации системы
Входной образ |
128х128 px |
||||||||
Структура сети |
4 S-слоя, 5 C-слоев |
||||||||
|
UG(UC0) |
US1 |
UC1 |
US2 |
UC2 |
US3 |
UC3 |
US4 |
UC4 |
Количество плоскостей (K) |
2 |
12 |
12 |
10 |
10 |
10 |
10 |
4 |
4 |
Радиус окрестности |
3 |
4 |
9 |
4 |
9 |
4 |
4 |
4 |
27 |
Фактические размеры плоскости слоя (px) |
135 х 135 |
143 х 143 |
90 х 90 |
98 х 98 |
67 х 67 |
75 х 75 |
46 х 46 |
54 х 54 |
1 х 1 |
Общий объем сети |
124 MB |
||||||||
Рис. 1.11. Диаграмма классов сети (версия 2)
Алгоритм Создание сети
Параметр N сети задается пользователем, сеть имеет N слоев S-типа и N+1 слой C-типа, причем первый из них – C0, слой выделения контраста (UG). Каждый слой имеет ссылки на соседние слои.
Размер первого слоя равен wMax*hMax, так чтобы каждое обучающее изображение поместилось во входной слой. В дальнейшем при передаче изображения сети все лишние пикселы отбрасываются, а все недостающие считаются равными нулю. Слой входных нейронов хранится в виде массива нейронов Input, без оболочки нейронного слоя.
Размер S-слоев равен K*(W+1)*(H+1), где W*H – размер предыдущего слоя, а K варьируется. Размер C-слоя равен K*(W/2+2r)*(H/2+2r), где K такое же, как на предшествующем слое. Для слоя C0 K=2. Слой СN имеет K плоскостей из 1 нейрона каждая, K – параметр, заданный извне (количество классов изображений).
На следующем этапе генерируются и присваиваются нейронам связи. Массив связей хранится в слое и содержит ((2r+1)*th)2 синапсов (th – коэффициент прореживания, по умолчанию равный 2) для C-слоя и Kl*Kl-1*(2r)2 синапсов для S-слоя. Синапсам слоя C присваиваются постоянные веса, у S-слоя – случайные числа в заданном интервале. Каждый синапс привязан к относительному положению нейрона входа относительно выхода. Он характеризуется смещениями относительно центра окрестности, а также, для S-нейронов, номером плоскости k.
Для связи S-слоя с C-слоем сдвиги представляют собой числа от -r до r-1. Для C-слоя сдвиги учитывают прореживание нейронов, и элемент окрестности под номером shift_i будет иметь координату i1 = r1*th-shift_i, причем количество элементов в окрестности будет уже n=(2*r1+1)*th по каждому измерению.
Эта формула соответствует одному из методов прореживания. На схеме изображено распространение возбуждения при таком прореживании:
Рис. 1.12. Метод 1 прореживания
Существует второй способ, дающий несколько другую картину взаимного влияния нейронов:
Рис. 1.13. Метод 2 прореживания
На слое SN каждой плоскости присваивается метка класса (количество плоскостей равно количеству классов).
