Обнаружение и классификация дефектов прокатного происхождения на торцах гильз с использованием сверточной нейронной сети

Автор: Билан Иван Тарасович, Трубников Кирилл Вячеславович, Звонарев Дмитрий Юрьевич, Носкова Мария Николаевна

Журнал: Вестник Южно-Уральского государственного университета. Серия: Металлургия @vestnik-susu-metallurgy

Рубрика: Обработка металлов давлением. Технологии и машины обработки давлением

Статья в выпуске: 1 т.23, 2023 года.

Бесплатный доступ

В процессе производства бесшовных труб большое внимание уделяют качеству продукции, которая, в свою очередь, складывается из качества заготовки, качества гильзы и качества черновой трубы. При этом на заднем торце гильз могут возникать различные дефекты формы, которые могут препятствовать внедрению оправки и последующей раскатке гильзы в непрерывном раскатном стане. Также дефекты формы на заднем торце гильзы («корона», «серьга», «шип» и др.) могут спровоцировать аварийный останов. Своевременное информирование вальцовщиков о типе торца гильзы сможет способствовать оперативному принятию решения о корректировке настроечных параметров прошивного стана, что, в свою очередь, приведет к недопущению появления продукции с критическими отклонениями по форме. Один из способов получения информации об объекте (торец трубы) - использование цифровых камер. Поэтому необходимо проанализировать современные возможности применения цифровых камер и способов цифровой обработки изображений с целью определения интересующих характеристик.

Еще

Прошивной стан, сверточная нейронная сеть, matlab, машинное зрение, обработка данных

Короткий адрес: https://sciup.org/147240358

IDR: 147240358   |   DOI: 10.14529/met230103

Список литературы Обнаружение и классификация дефектов прокатного происхождения на торцах гильз с использованием сверточной нейронной сети

  • Alzubaidi L., Zhang J., Humaidi A.J. et al. Review of deep learning: concepts, CNN architectures, challenges, applications, future directions. Journal of Big Data. 2021;8:53. DOI: 10.1186/s40537-021-00444-8
  • Rawat W., Wang Z. Deep convolutional neural networks for image classification: A comprehensive review. Neural Computation. 2017;29(9):2352–2449. DOI: 10.1162/NECO_a_00990
  • Созыкин А.В. Обзор методов обучения глубоких нейронных сетей // Вестник ЮУрГУ. Серия «Вычислительная математика и информатика». 2017. Т. 6, № 3. С. 28–59. [Sozykin A.V. An Overview of Methods for Deep Learning in Neural Networks. Bulletin of the South Ural State University. Ser. Computational Mathematics and Software Engineering. 2017;6(3):28–59. (In Russ.)] DOI: 10.14529/cmse170303
  • Трубников К.В., Нерозников В.Л. Применение машинного зрения при производстве труб // XXIV Международная научно-практическая конференция “Трубы-2021”. 2021. Т. 1. С. 135–139. [Trubnikov K.V., Neroznikov V.L. [The use of machine vision in the production of pipes]. In: XXIV International Technology and Application Conference “Pipes-2021”; 2021. Vol. 1. P. 135–139. (In Russ.)]
  • ImageNet Large Scale Visual Recognition Competition 2012. Available at: http://www.imagenet.org/challenges//LSVRC/2012/results.html.
  • Russakovsky O., Deng J., Su H. et al. ImageNet Large Scale Visual Recognition Challenge. International Journal of Computer Vision. 2015;115(3):211–252. DOI: 10.1007/s11263-015-0816-y
  • Pretrained Deep Neural Networks. Available at: https://www.mathworks.com/help/deeplearning/ug/pretrained-convolutional-neural-networks.html (accessed 17.01.2022).
  • Redmon J., Divvala S., Girshick R., Farhadi A. You only look once: Unified, real-time object detection. In: Proceedings of the IEEE conference on computer vision and pattern recognition; 2016. P. 779–788. DOI: 10.1109/CVPR.2016.91
  • Redmon J., Farhadi A. YOLO9000: Better, Faster, Stronger. In: Proceedings of the IEEE conference on computer vision and pattern recognition. 2017. P. 7263–7271. DOI: 10.1109/CVPR.2017.690
  • Ardhianto P., Liau B.-Y., Jan Y.-K. et al. Deep Learning in Left and Right Footprint Image Detection Based on Plantar Pressure. Applied Sciences. 2022;12(17):8885. DOI: 10.3390/app12178885
  • Ballester P.L., Araujo R.M. On the performance of GoogLeNet and AlexNet applied to sketches. In: Thirtieth AAAI conference on artificial intelligence; 2016.
  • Sandler M., Howard A., Zhu M., Zhmoginov A., Chen L.-C. MobileNetV2: Inverted Residuals and Linear Bottlenecks. In: 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA; 2018. P. 4510–4520. DOI: 10.1109/CVPR.2018.00474
  • Theckedath D., Sedamkar R.R. Detecting affect states using VGG16, ResNet50 and SE-ResNet50 networks. SN Computer Science. 2020;1:1–7. DOI: 10.1007/s42979-020-0114-9
  • Zhang X., Zhou X., Lin M., Sun J. ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices. In: 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA; 2018. P. 6848–6856. DOI: 10.1109/CVPR.2018.00716
  • Al-Haija Q.A., Smadi M., Al-Bataineh O.M. Identifying Phasic dopamine releases using DarkNet-19 Convolutional Neural Network. In: 2021 IEEE International IOT, Electronics and Mechatronics Conference (IEMTRONICS). Toronto, ON, Canada; 2021. P. 1–5. DOI: 10.1109/IEMTRONICS52119.2021.9422617
  • Wang H., Zhang F., Wang L. Fruit Classification Model Based on Improved Darknet53 Convolutional Neural Network. In: 2020 International Conference on Intelligent Transportation, Big Data & Smart City (ICITBS). Vientiane, Laos; 2020. P. 881–884. DOI: 10.1109/ICITBS49701.2020.00194
  • Tan M, Le QV. EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks. In: International conference on machine learning, PMLR; 2019. P. 6105–6114.
  • Iandola F.N., Moskewicz M., Ashraf K. et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size. arXiv preprint arXiv:1602.07360. 2016.
  • Available at: https://www.cameraiq.ru/catalog/series/HIKROBOT-CE-Area-Scan/ (accessed 17.01.2022).
Еще
Статья научная