Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

neuro_lab1

.pdf
Скачиваний:
16
Добавлен:
05.07.2022
Размер:
244.71 Кб
Скачать

Отчет по лабораторной работе № 1

по дисциплине «Нейрокомпьютеры и их применение»

на тему: «Изучение основных понятий теории ИНС и приемов работы с пакетом Statistica Neural Networks»

Цель работы: освоение приемов работы с программным пакетом Statistica Neural Networks и изучение основных понятий теории ИНС на примере простых задач распознавания логических функций (И, ИЛИ, исключающее ИЛИ).

1. Зададим исходные данные для решения задачи распознавания логической функции AND:

Рис. 1 – Таблица истинности AND

Построим нейросеть для решения задачи:

Рис. 2 – Нейросеть, предназначенная для распознавания AND

Характеристики нейросети:

Тип: многослойный перцептрон

Число слоев: 2

Число входов: 2

Число выходов: 1

Steps: 1

Lookahead: 0

Функция преобразования нейронов: minimax

1

Функция активации нейронов первого слоя: linear

Функция активации нейронов второго слоя: logistic

Функция ошибки: sum-squared

Обучим нейросеть методом обратного распространения ошибки. Параметры обучения:

Число эпох: 1500

Скорость обучения: от 0,9 до 0,7

Momentum: 0,8

Рис. 3 – График ошибки обучения нейросети

Рис. 4 – Таблица с предсказаниями нейросети и действительными классами

Вывод: из рис. 3 видно, что в процессе обучения нейросети в течение 1500 эпох значение ошибки обучения постепенно убывает, на последней эпохе достаточно мало и составляет 0,0196. Из рис. 4 видно, что значения, предсказанные нейросетью, отличаются от действительных менее, чем на 5 %. Следовательно, данную нейросеть можно использовать для задачи распознавания логической функции AND.

2. Зададим исходные данные для решения задачи распознавания логической функции OR:

2

Рис. 5 – Таблица истинности OR

а) Используем нейросеть из двух слоев для решения задачи:

Рис. 6 - Вид нейросети, предназначенной для распознавания OR

Характеристики нейросети:

Тип: многослойный перцептрон

Число слоев: 2

Число входов: 2

Число выходов: 1

Steps: 1

Lookahead: 0

Функция преобразования нейронов: minimax

Функция активации нейронов первого слоя: linear

Функция активации нейронов второго слоя: logistic

Функция ошибки: sum-squared

Обучим нейросеть методом обратного распространения ошибки. Параметры обучения:

Число эпох: 1000

Скорость обучения: от 0,7 до 0,5

Momentum: 0,8

3

Рис. 7 – График ошибки обучения нейросети

Рис. 8 - Таблица с предсказаниями нейросети и действительными классами

Вывод: из рис. 7 видно, что в процессе обучения нейросети в течение 1000 эпох значение ошибки обучения постепенно убывает, на последней эпохе достаточно мало и составляет 0,0203. Из рис. 8 видно, что значения, предсказанные нейросетью, отличаются от действительных менее, чем на 5 %. Следовательно, данную нейросеть можно использовать для задачи распознавания логической функции OR.

Б) Используем нейросеть с характеристиками, аналогичными предыдущей нейросети, но с функцией активации нейронов второго слоя step (пороговая) для решения задачи распознавания

OR.

Обучим нейросеть методом обратного распространения ошибки. Параметры обучения:

Число эпох: 3

Скорость обучения: от 0,8 до 0,1

Momentum: 0,3

4

Рис. 9 – График ошибки обучения нейросети

Рис. 10 - Таблица с предсказаниями нейросети и действительными классами

Вывод: из рис. 9 видно, что в процессе обучения нейросети значение ошибки обучения убывает и становится равным нулю на 3 эпохе. Из рис. 10 видно, что значения, предсказанные нейросетью, не отличаются от действительных. Следовательно, данную нейросеть можно использовать для задачи распознавания логической функции OR. Полученная нейросеть лучше варианта а), так как ее обучение занимает меньше времени и приводит к безошибочным результатам предсказания.

в ) Используем нейросеть с характеристиками, аналогичными предыдущей нейросети, но с функцией активации нейронов второго слоя linear для решения задачи распознавания OR.

Обучим нейросеть методом обратного распространения ошибки. Параметры обучения:

Число эпох: 1400

Скорость обучения: от 0,85 до 0,01

Momentum: 0,3

5

Рис. 11 – График ошибки обучения нейросети

Рис. 12 - Таблица с предсказаниями нейросети и действительными классами

Вывод: из рис. 11 видно, что в процессе обучения нейросети в течение 1400 эпох значение ошибки обучения постепенно убывает, на последней эпохе составляет 0,25. Из рис. 12 видно, что значения, предсказанные нейросетью, отличаются от действительных примерно на 25 %. Следовательно, данную нейросеть не следует использовать для задачи распознавания логической функции OR.

6

3. Зададим исходные данные для решения задачи распознавания логической функции XOR:

Рис. 13 – Таблица истинности XOR

а)

Рис. 14 - Вид нейросети, предназначенной для распознавания XOR

Характеристики нейросети:

Тип: многослойный перцептрон

Число слоев: 2

Число входов: 2

Число выходов: 1

Steps: 1

Lookahead: 0

Функция преобразования нейронов: minimax

Функция активации нейронов первого слоя: linear

Функция активации нейронов второго слоя: logistic

Функция ошибки: sum-squared

Обучим нейросеть методом обратного распространения ошибки. Параметры обучения:

Число эпох: 700

Скорость обучения: 0,05

Momentum: 0,3

7

Рис. 15 – График ошибки обучения нейросети

Рис. 16 - Таблица с предсказаниями нейросети и действительными классами

Вывод: из рис. 15 видно, что в процессе обучения нейросети в течение 700 эпох значение ошибки обучения практически не меняется, на последней эпохе составляет 0,502. Из рис. 16 видно, что значения, предсказанные нейросетью, отличаются от действительных примерно на 50 %. Следовательно, данную нейросеть нельзя использовать для задачи распознавания логической функции XOR.

б) В нейросеть из пункта а) добавим внутренний слой из двух нейронов.

Рис. 17 - Вид нейросети, предназначенной для распознавания XOR

Характеристики нейросети:

Тип: многослойный перцептрон

Число слоев: 3

Число входов: 2

Число нейронов внутреннего слоя: 2

Число выходов: 1

Steps: 1

8

Lookahead: 0

Функция преобразования нейронов: minimax

Функция активации нейронов первого слоя: linear

Функция активации нейронов внутреннего слоя: logistic

Функция активации нейронов выходного слоя: logistic

Функция ошибки: sum-squared

Обучим нейросеть методом обратного распространения ошибки. Параметры обучения:

Число эпох: 1000

Скорость обучения: от 0,8 до 0,1

Momentum: 0,3

Рис. 18 – График ошибки обучения нейросети

Рис. 19 - Таблица с предсказаниями нейросети и действительными классами

Вывод: из рис. 18 видно, что в процессе обучения нейросети в течение 1000 эпох значение ошибки обучения постепенно убывает, на последней эпохе составляет 0,0716. Из рис. 19 видно, что значения, предсказанные нейросетью, отличаются от действительных примерно на 7 %. Следовательно, данную нейросеть можно использовать для задачи распознавания логической функции XOR.

9

в) Используем нейросеть с характеристиками, аналогичными предыдущей нейросети, но с функцией активации нейронов выходного слоя linear для решения задачи распознавания XOR.

Обучим нейросеть методом обратного распространения ошибки. Параметры обучения:

Число эпох: 1500

Скорость обучения: от 0,2 до 0,05

Momentum: 0,3

Рис. 20 – График ошибки обучения нейросети

Рис. 21 - Таблица с предсказаниями нейросети и действительными классами

Вывод: из рис. 20 видно, что в процессе обучения нейросети в течение 1400 эпох значение ошибки обучения постепенно убывает, на последней эпохе практически равно нулю. Из рис. 21 видно, что значения, предсказанные нейросетью, отличаются от действительных менее, чем на 1 %.

Следовательно, данную нейросеть можно использовать для задачи распознавания логической функции XOR.

10

Соседние файлы в предмете Нейрокомпьютеры и их применение