
- •«Вятский государственный университет» (фгбоу впо «ВятГу»)
- •Исходные данные
- •Выбор оптимального количества кластеров (слой Кохонена).
- •Выбор оптимальной скорости обучения.
- •Скорость обучения: 0,01
- •Выбор оптимального порога итераций (в выборках).
- •Порог итераций (в выборках): 1000
- •Выбор оптимального размера окрестности.
- •Размер окрестности (доля от сети): 0,3
- •Этап 2. Создание нейросетевой эс на базе сети арт2.
- •2) Всего векторов: 7
- •3) Всего векторов: 7
- •4) Всего векторов: 7
- •5) Всего векторов: 7
- •6) Всего векторов: 7
- •Степень схожести: 0,8
- •7) Всего векторов: 7
- •Степень схожести: 0,85
- •2) Всего векторов: 7
- •2) Всего векторов: 7
- •3) Всего векторов: 7
- •Данный вектор не относится ни к одному из приведенных классов.
- •Этап 3. Сравнение результатов.
- •Выводы:
Выбор оптимального порога итераций (в выборках).
Порог итераций (в выборках): 100
Прогнозируемые выходные вектора (результаты, полученные в NeuroPro):
OUT1 |
OUT2 |
OUT3 |
OUT4 |
OUT5 |
OUT6 |
OUT7 |
-1,021 |
-1,02 |
-1,089 |
-1,027 |
-1,026 |
-0,369 |
1,028 |
-0,974 |
-0,991 |
-1,001 |
-0,978 |
0,979 |
-1,056 |
-1,018 |
-1,021 |
-0,936 |
-0,886 |
0,922 |
-0,953 |
-0,974 |
-1,029 |
0,922 |
-0,986 |
-0,926 |
-0,996 |
-0,968 |
-1,032 |
-1,046 |
-0,995 |
1 |
-0,986 |
-0,737 |
-1,024 |
-1,014 |
-1,039 |
Полученные выходные вектора:
Порог итераций (в выборках): 1000
Прогнозируемые выходные вектора (результаты, полученные в NeuroPro):
OUT1 |
OUT2 |
OUT3 |
OUT4 |
OUT5 |
OUT6 |
OUT7 |
-1,021 |
-1,02 |
-1,089 |
-1,027 |
-1,026 |
-0,369 |
1,028 |
-0,974 |
-0,991 |
-1,001 |
-0,978 |
0,979 |
-1,056 |
-1,018 |
-1,021 |
-0,936 |
-0,886 |
0,922 |
-0,953 |
-0,974 |
-1,029 |
0,922 |
-0,986 |
-0,926 |
-0,996 |
-0,968 |
-1,032 |
-1,046 |
-0,995 |
1 |
-0,986 |
-0,737 |
-1,024 |
-1,014 |
-1,039 |
Полученные выходные вектора:
Порог итераций (в выборках): 10000
Прогнозируемые выходные вектора (результаты, полученные в NeuroPro):
OUT1 |
OUT2 |
OUT3 |
OUT4 |
OUT5 |
OUT6 |
OUT7 |
-1,021 |
-1,02 |
-1,089 |
-1,027 |
-1,026 |
-0,369 |
1,028 |
-0,974 |
-0,991 |
-1,001 |
-0,978 |
0,979 |
-1,056 |
-1,018 |
-1,021 |
-0,936 |
-0,886 |
0,922 |
-0,953 |
-0,974 |
-1,029 |
0,922 |
-0,986 |
-0,926 |
-0,996 |
-0,968 |
-1,032 |
-1,046 |
-0,995 |
1 |
-0,986 |
-0,737 |
-1,024 |
-1,014 |
-1,039 |
Полученные выходные вектора:
Вывод: в ходе выполнения лабораторной работы при подборе оптимального порога итераций (в выборках) было определено, что с повышением порога итераций значения выходного вектора все ближе и ближе приближаются к значениям прогнозируемого вектора, однако время обучения при этом сильно возрастает. При выборе оптимального порога итераций (в выборках) был выбран порог итераций: 1000, так как при данном пороге мы соблюдем «золотую середину»: обучение будет происходит за приемлемое время и значения выходного вектора будут близки к значениям прогнозируемого.