
- •Содержание
- •3.2. Многослойный персептрон 34
- •12.1. Обоснование выбора темы и области применения разработки 142
- •12.2. Оценка ожидаемой экономической целесообразности разработки, изготовления и использования проектируемой системы 144
- •12.3. Выводы 151
- •7. Работа с сетью Кохонена. 170
- •Введение
- •Глава 1. Введение в искусственные нейронные сети
- •1.1. Проблемы, решаемые в контексте инс
- •1.2. Краткий исторический обзор
- •1.3. Модель технического нейрона
- •Математическая модель нейрона:
- •1.4. Архитектура нейронной сети
- •1.5. Обучение нейронных сетей
- •1.6. Многослойные сети прямого распространения
- •1.6.1. Многослойный персептрон
- •1.6.3. Нерешенные проблемы
- •1.7. Самоорганизующиеся карты Кохонена
- •1.8. Модели теории адаптивного резонанса
- •1.9. Сеть Хопфилда
- •1.9.1 Ассоциативная память
- •1.9.2. Минимизация энергии
- •Глава 2. Основные функциональные возможности программ моделирования нейронных сетей
- •2.1. Формирование (создание) нейронной сети.
- •2.2. Обучение нейронной сети
- •2.3. Имитация функционирования (тестирование) обученной нейронной сети
- •Глава 3. Персептроны
- •3.1. Однослойный персептрон
- •3.2. Многослойный персептрон
- •3.2.1. Архитектура сети
- •3.2.2. Алгоритм обратного распространения
- •3.2.3. Модификации алгоритма обратного распространения и rprop-алгоритма
- •3.3. Применение многослойных персептронов
- •3.3.1. Решение конкретных задач
- •3.3.2. Естественные координаты
- •3.3.3. Репликативные нейронные сети
- •3.3.4. Практическое использование репликативных нейронных сетей
- •Глава 4. Сети Кохонена
- •4.1. Основной принцип работы сети Кохонена
- •4.2. Сходимость алгоритма самообучения
- •Глава 5. Сети радиальных базисных функций
- •5.1. Архитектура сетей
- •5.2. Интерполяция при помощи центральных функций
- •5.3. Интерполяция с помощью центральных функций и полиномов
- •5.4. Аппроксимация с помощью центральных функций
- •5.5. Вариационное исчисление для решения проблемы аппроксимации с помощью rbf-сетей
- •5.6. Расширение на случай многих функций
- •5.7. Расширение линейной частью
- •5.9. Итеративное дополнительное обучение rbf- и hbf-сетей
- •5.10. Выбор центров и радиусов в rbf-сетях
- •5.10.1. Итеративный алгоритм кластеризации
- •5.10.2. Выбор параметра
- •5.10.3. Расчет выходной весовой матрицы c
- •Глава 6. Нейронные сети и генетические алгоритмы
- •6.1. Эволюция как способ оптимизации.
- •6.2 Генетические алгоритмы
- •6.3. Нейро-генетические способы
- •Глава 7. Система моделирования нейронных сетей Trajan 2.0
- •7.1. Создание сети и обучающей последовательности
- •7.1.1. Создание сети
- •7.1.2. Количество и размерность слоев в сети
- •7.1.3. Создание обучающей последовательности
- •7.1.4. Редактирование набора образцов
- •7.2. Обучение сети
- •7.2.1. Типы сетей
- •7.2.2. Создание обучающей и проверочной последовательностей образов
- •7.2.3. Создание сокращенной обучающей последовательности
- •7.2.4. Визуализация процесса обучения
- •7.2.5. Оптимизация процесса обучения
- •7.2.6. Обучение с перекрестной проверкой
- •7.3. Работа с сетью
- •7.3.1. Возможности сети по работе с образцами
- •7.3.2. Интерпретация классификации
- •7.3.3. Работа с сетью Кохонена.
- •7.4. Генетический алгоритм выбора входных атрибутов
- •7.5. Сохранение результатов работы
- •Глава 8. Экспериментальное исследование эффективности применения нейронных сетей
- •Глава 9. Методика представления, архивирования и обработки обучающей последовательности для алгоритмов обучения нейросетей
- •Глава 10. Возможности использования среды www для дистанционного обучения
- •Глава 11. Создание программ для среды www
- •Глава 12. Технико-экономический анализ и обоснование разработки адаптивного обучающего и контролирующего курсов по нейросетям
- •12.1. Обоснование выбора темы и области применения разработки
- •12.2. Оценка ожидаемой экономической целесообразности разработки, изготовления и использования проектируемой системы
- •12.2.1. Расчет затрат на разрабоку и изготовление предлагаемого курса
- •12.2.2. Расчет экономического эффекта от создания и использования обучающего курса
- •12.3. Выводы
- •Глава 13. Обучение контролирующей системы
- •Глава 14. Дистанционный обучающий и контролирующий курс
- •Содержание обучающего курса
- •Заключение
- •Литература
- •Приложение 1. Лабораторная работа «Кластеризация образов с помощью системы моделирования нейросетей Trajan 2.1»
- •1. Цель работы
- •2. Знания и умения, формируемые данной лабораторной работой
- •3. Постановка задачи
- •4. Принципиальные особенности сетей Кохонена.
- •5. Создание сети Кохонена
- •6. Обучение сети Кохонена
- •7. Работа с сетью Кохонена.
- •8. Задание
- •9. Контрольные вопросы
- •Приложение 2. Вопросы контролирующего курса.
- •Приложение 3. Обучающие последовательности для контролирующей системы
- •Приложение 4. Листинг контролирующей программы.
12.3. Выводы
В данной главе были приведены анализ и обоснование разработки адаптивного обучающего и контролирующего курсов по нейросетям.
Были сформулированы основные цели разработки:
повысить эффективность обучения,
понизить занятость преподавателя,
снизить время на изучение материала студентами;
снизить затраты на изучение материала студентами.
Т.к. ЧДД > 0 и Tок= 0,9 года, данная разработка целесообразна с экономической точки зрения и применение данной системы экономически оправдано.
Итоговые сравнительные технико-экономические характеристики систем приведены в следующей таблице.
Сравнительные технико-экономические характеристики систем
Технико-экономические характеристики |
Традиционный способ обучения |
Разработанный способ обучения |
Продолжительность разработки, мес. |
- |
4 |
Затраты на разработку, руб. |
- |
14236 |
Занятость преподавателя, часы/семестр |
114 |
- |
Занятость студентов, часы/семестр |
57 |
37 |
Затраты на обучение группы из 50 студентов, руб./семестр |
12264.5 |
6647.5 |
Помимо обучающего/контролирующего курса, для которого и проводились экономические расчеты, работа содержит теоретические исследования, а также методику создания новых курсов, что позволит при внедрении представленной разработки получать регулярный доход от внедрения и эксплуатации новых обучающих курсов.
Глава 13. Обучение контролирующей системы
Для контроля знаний в обучающей системе используется нейронная сеть. Топология этой сети соответствует характеру выборки из задаваемых вопросов (их будет всего 12), а также характеру выставляемой оценки (по четырехбалльной системе).
Таким образом, на основании этих данных была построена нейронная сеть типа многослойный персептрон, имеющая 12 входов и 4 выхода.
Путем опытных исследований было установлено, что для минимизации вычислений при необходимой для предоставленных сети выборок сложности сети необходим также один скрытый слой, состоящий хотя бы из 8 нейронов. Для ускорения сходимости процесса обучения на скрытый слой сети было помещено 10 нейронов.
Рис. 1. Структура сети для обучения контролирующей системы.
Обучение проводилось методом обратного распространения ошибки с использованием момента для ускорения сходимости, с использованием перестановки образцов для достижения сходимости, с использованием перекрестной проверки и дополнительного шума, для исключения возможности переобученности сети.
Рис. 2. Окно обучения сети.
Были сгенерированы две последовательности образов, квалифицированных учителем. Обе последовательности подчинены случайному закону распределения с одинаковыми параметрами.
Для генерации последовательности использовалось следующее правило: считалось, что вероятность неправильного ответа для каждого вопроса в образе одинакова, а для каждого отдельного образа вероятность неправильного ответа на каждый вопрос составляет 3%-35%.
Одна из последовательностей содержит 320 образов, а вторая – 120 образов. Первая последовательность была использована для обучения сети, а вторая – для проверки качества обучения.
Далее представлен график сходимости процесса обучения. На графике показаны среднеквадратичные ошибка для обучающей последовательности (ниже) и контролирующей последовательности (выше). Из графика становится очевидно, что ошибка весьма мала как для обучающей, так и для контролирующей последовательности.
Рис. 3. График изменения ошибки.
В действительности, сеть при окончательной проверки всеми 430 образами ошиблась всего один раз (поставила оценку «5» вместо оценки «4»).
Образы, предъявленные сети приведены в приложении.
Формат представления образов:
|
Образ |
Оценка учителя |
Оценка системы |
1. |
1 1 1 1 1 0 1 1 1 0 1 0 |
0 0 1 0 (4) |
0 0 1 0 (4) |
2. |
1 1 1 1 1 1 1 0 1 1 1 1 |
0 0 0 1 (5) |
0 0 0 1 (5) |
3. |
1 1 0 1 0 1 1 1 1 1 1 0 |
0 0 1 0 (4) |
0 0 1 0 (4) |
|
… |
|
|
318. |
1 1 1 1 1 1 1 0 1 1 1 0 |
0 0 1 0 (4) |
0 0 1 0 (4) |
319. |
1 0 1 1 1 1 1 1 1 1 1 1 |
0 0 0 1 (5) |
0 0 0 1 (5) |
320. |
0 1 1 1 0 1 1 1 1 1 1 1 |
0 0 1 0 (4) |
0 0 1 0 (4) |