
Список использованных источников
ГОСТ Р 57700.36-2021 Высокопроизводительные вычислительные системы. Оценка производительности высокопроизводительных вычислительных систем на алгоритмах, использующих сверточные нейронные сети. Официальное издание. М.: ФГБУ "РСТ", 2021, Росстандарт [Электронный ресурс] - URL: https://docs.cntd.ru/document/1200180927?section=text (дата обращения: 15.11.2023)
Проблема выбора архитектуры нейронной сети для решения задач маршрутизации в корпоративных инфокоммуникационных системах / В.А. Докучаев, П.С. Плотников // Телекоммуникации и информационные технологии. 2023. Т. 10. № 1. С. 155-161. – EDN JWKCYW.
Анализ архитектур искусственных нейронных сетей для решения задач маршрутизации в корпоративных инфокоммуникационных системах / В.А. Докучаев, П.С. Плотников // В сборнике: ТЕХНОЛОГИИ ИНФОРМАЦИОННОГО ОБЩЕСТВА. Сборник трудов XVII Международной отраслевой научно-технической конференции. 2023. С. 143-145. – EDN DYELUX
Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. — СПб.: Питер, 2018. — 480 с.: ил. ISBN 978-5-496-02536-2
Mitchell T. M. Machine Learning, 1 edition, New York, NY, USA: McGraw-Hill, Inc., 1997
Goodfellow I., Bengio Y., Courville A. Deep Learning. – MIT Press, 2016. – Доступ из справочной системы.
Kingma D. P., Ba J. Adam: A Method for Stochastic Optimization. – 2014. – arXiv preprint arXiv:1412.6980. DOI: 10.48550/arXiv.1412.6980
Srivastava N., Hinton G., Krizhevsky A., et al. Dropout: A Simple Way to Prevent Neural Networks from Overfitting. – Journal of Machine Learning Research, 2014. – Т. 15, № 1. – С. 1929-1958.
Ng A. Feature selection, L1 vs. L2 regularization, and rotational invariance. – Proceedings of the twenty-first international conference on Machine learning, 2004. DOI: 10.1145/1015330.1015435
Ioffe S., Szegedy C. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift. – 2015. – arXiv preprint arXiv:1502.03167. DOI: 10.48550/arXiv.1502.03167
Nair V., Hinton G. E. Rectified Linear Units Improve Restricted Boltzmann Machines. – Proceedings of the 27th International Conference on Machine Learning (ICML-10), 2010. DOI: 10.5555/3104322.3104425
Glorot X., Bordes A., Bengio Y. Deep Sparse Rectifier Neural Networks. – AISTATS, 2011.
Schmidhuber J. Deep Learning in Neural Networks: An Overview. – Neural Networks, 2015. – Т. 61. – С. 85-117. DOI: 10.1016/j.neunet.2014.09.003
ITGLOBAL.com Методы машинного обучения [Электронный ресурс] - URL: https://itglobal.com/ru-ru/company/blog/metody-mashinnogo-obucheniya/amp/ (дата обращения: 10.02.2024)
Pan S.J., Yang Q. A Survey on Transfer Learning. – IEEE Transactions on Knowledge and Data Engineering, 2010. – Т. 22, № 10. – С. 1345-1359. – DOI: 10.1109/TKDE.2009.191.
Shorten C., Khoshgoftaar T.M. A survey on Image Data Augmentation for Deep Learning. – Journal of Big Data, 2019. – Т. 6, № 1. – С. 60. – DOI: 10.1186/s40537-019-0197-0.
Goodfellow I.J., Pouget-Abadie J., Mirza M., et al. Generative Adversarial Nets. – Advances in Neural Information Processing Systems, 2014. – С. 2672-2680.
Zhou Z.H. Ensemble Methods: Foundations and Algorithms. – CRC Press, 2012. – DOI: 10.1201/b12207.
Ruder S. An Overview of Multi-Task Learning in Deep Neural Networks. – arXiv preprint arXiv:1706.05098, 2017.
Simonyan K., Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition. – arXiv preprint arXiv:1409.1556, 2014.
He K., Zhang X., Ren S., et al. Deep Residual Learning for Image Recognition. – Proceedings of the IEEE conference on computer vision and pattern recognition, 2016. – С. 770-778. – DOI: 10.1109/CVPR.2016.90.
Cubuk E.D., Zoph B., Mane D. AutoAugment: Learning Augmentation Strategies from Data. – Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2019. – С. 113-123. – DOI: 10.1109/CVPR.2019.00020.
GeekBrains Машинное обучение [Электронный ресурс] https://gb.ru/blog/mashinoe-obuchenie/ (дата обращения: 12.02.2024)