| Русский Русский | English English |
   
Главная Текущий номер
09 | 11 | 2025
10.14489/vkit.2025.11.pp.015-026

DOI: 10.14489/vkit.2025.11.pp.015-026

Суворов А. В.
ВЛИЯНИЕ ГИПЕРПАРАМЕТРОВ МОДЕЛИ YOLOV12 НА ТОЧНОСТЬ ОБНАРУЖЕНИЯ ЭЛЕМЕНТОВ ПЕЧАТНЫХ ПЛАТ
(с. 15-26)

Аннотация. Проведено экспериментальное исследование влияния гиперпараметров обучения на точность работы модели обнаружения объектов YOLOv12s в условиях ограниченного и несбалансированного набора изображений печатных плат. Использована облегченная версия модели YOLO с современными методами аугментации (Mosaic, MixUp) и функциями потерь (Focal Loss), обладающая повышенной чувствительностью к редким и мелким объектам. Рассмотрены особенности специализированного датасета, включающего 293 изображения и 16 классов электронных компонентов с различной степенью представленности. Исследованы три значения размера мини-пакета и три варианта числа эпох обучения, что позволило оценить влияние этих параметров на итоговые метрики точности (mAP 0,5, mAP 0,5:0,95), полноты (recall) и точности (precision). Описаны используемая вычислительная среда, структура датасета и методика оценки результатов. При правильной настройке гиперпараметров можно достичь высоких показателей качества обнаружения объектов как для доминирующих, так и для редких классов даже при ограниченном объеме данных.

Ключевые слова:  YOLOv12; гиперпараметры; обнаружение объектов; глубокие нейронные сети; печатные платы; mAP; Focal Loss; Mosaic; MixUp.


Suvorov A. V.
EFFECT OF YOLOV12 MODEL HYPERPARAMETERS ON THE ACCURACY OF PCB FEATURE DETECTION
(pp. 15-26)

Abstract. An experimental study was conducted to evaluate the impact of training hyperparameters on the detection accuracy of the YOLOv12s object detection model in the context of a limited and imbalanced dataset of printed circuit board (PCB) images. A lightweight version of the YOLO architecture was utilized, enhanced with modern data augmentation techniques such as Mosaic and MixUp, as well as the Focal Loss function, which increases model sensitivity to small and infrequent objects. The dataset used in this study consisted of 293 annotated images, containing 16 classes of electronic components with varying frequencies of occurrence and visual diversity. Three batch sizes (4, 8, and 16) and three epoch configurations (50, 100, and 200) were tested to investigate how these training parameters influence key evaluation metrics, including mAP0.5, mAP0.5:0.95, precision, and recall. The computing environment, dataset structure, and evaluation methodology are also described. Experimental results demonstrated that increasing the number of epochs generally improves detection accuracy, particularly at moderate batch sizes. The best result was achieved with batch size = 8 and epochs = 200, yielding an mAP0.5:0.95 score of 0.812. Furthermore, batch size was shown to affect both detection accuracy and inference speed, with batch size = 16 providing the lowest inference time (26.1 ms per image) at the cost of slightly reduced accuracy. This study confirms that effective hyperparameter tuning can significantly improve model performance even under data-scarce conditions, making the approach applicable to real-world scenarios such as automated optical inspection in industrial settings.

Keywords: YOLOv12; Hyperparameters; Object detection; Deep neural networks; Printed circuit boards; mAP; Focal Loss; Mosaic; MixUp.

Рус

А. В. Суворов (ООО «МСК ГРУПП», Московский технический университет связи и информатики, Москва, Россия) E-mail: Этот e-mail адрес защищен от спам-ботов, для его просмотра у Вас должен быть включен Javascript  

Eng

A. V. Suvorov (“MSK GROUP” LLC, Moscow Technical University of Communications and Informatics, Moscow, Russia) E-mail: Этот e-mail адрес защищен от спам-ботов, для его просмотра у Вас должен быть включен Javascript  

Рус

1. Николенко С., Кадурин А., Архангель-ская Е. Глубокое обучение. СПб.: Питер, 2018. 480 с.
2. Layn:Lightweight multi- scale attention yolov8 network forsmall object detection / S. Ma, H. Lu, J. Liu et al. // IEEE Access. 2024. V. 12. P. 29294–29307.
3. Girshick R., Donahue J., Darrell T., Malik J. Rich feature hierarchies for accurate object detection and semantic segmentation // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA, 22 October 2014. P. 580–587. DOI: 10.1109/CVPR.2014.81
4. Ren S., He K., Girshick R., Sun J. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks // Advances in Neural Information Processing Systems. 2015. V. 28. P. 91–99.
5. He K., Gkioxari G., Dollár P., Girshick R. Mask R-CNN // IEEE International Conference on Computer Vision (ICCV). Venice, Italy, 2017. P. 2980–2988. DOI: 10.1109/ICCV.2017.322
6. SSD: Single Shot MultiBox Detector / W. Liu, D. Anguelov, D. Erhan et al. // Computer Vision – ECCV 2016. ECCV 2016. Lecture Notes in Computer Science, V. 9905. Springer, Cham. https://doi.org/10.1007/978-3-319-46448-0_2.
7. Документация Ultralytics YOLO. Официальный сайт. URL: https://docs.ultralytics.com/ru/models/ (дата обращения: 10.10.2025).
8. Detectron. Официальный репозиторий. URL: https://github.com/facebookresearch/Detectron (дата обра¬щения: 10.10.2025).
9. Terven J., Córdova-Esparza D. M., Romero-González J. A. A comprehensive review of YOLO architectures in computer vision: From YOLOv1 to YOLOv8 and YOLO-NAS // Machine learning and knowledge extraction. 2023. Т. 5, №. 4. С. 1680–1716.
10. Google colab. Официальный сайт. URL: https://colab.research.google.com/ (дата обращения: 10.10.2025).
11. Roboflow. Официальный сайт. URL: https://roboflow.com/ (дата обращения: 10.10.2025).
12. Конфигурационный файл датасета COCO. (Common Objects in Context) 2017. Официальный сайт. URL: https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml (дата обращения: 10.10.2025).
13. Ultralytics. YOLOv12: Attention-Centric Object Detection. Официальный сайт. URL: https://docs.ultralytics.com/models/yolo12/#supported-tasks-and-modes (дата обращения: 10.10.2025).
14. Github Ultralytics. Официальный сайт. URL: https://github.com/ultralytics/ultralytics/blob/main/docs/en/models/yolo12.md (дата обращения: 10.10.2025).

Eng

1. Nikolenko, S., Kadurin, A., & Arkhangelskaya, E. (2018). Deep learning [in Russian language]. Piter.
2. Ma, S., Lu, H., Liu, J., et al. (2024). Layn: Lightweight multi-scale attention yolov8 network for small object detection. IEEE Access, 12, 29294–29307. https://doi.org/10.1109/ACCESS.2024.3400997
3. Girshick, R., Donahue, J., Darrell, T., & Malik, J. (2014). Rich feature hierarchies for accurate object detection and semantic segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 580–587). https://doi.org/10.1109/CVPR.2014.81
4. Ren, S., He, K., Girshick, R., & Sun, J. (2015). Faster R-CNN: Towards real-time object detection with region proposal networks. Advances in Neural Information Processing Systems, 28, 91–99.
5. He, K., Gkioxari, G., Dollár, P., & Girshick, R. (2017). Mask R-CNN. In 2017 IEEE International Conference on Computer Vision (ICCV) (pp. 2980–2988). https://doi.org/10.1109/ICCV.2017.322
6. Liu, W., Anguelov, D., Erhan, D., Szegedy, C., Reed, S., Fu, C.-Y., & Berg, A. C. (2016). SSD: Single shot multibox detector. In B. Leibe, J. Matas, N. Sebe, & M. Welling (Eds.), Computer Vision – ECCV 2016 (pp. 21–37). Springer. https://doi.org/10.1007/978-3-319-46448-0_2
7. Ultralytics. (n.d.). Ultralytics YOLO documentation. Retrieved October 10, 2025, from https://docs.ultralytics.com/ru/models/ [in Russian language].
8. Facebook Research. (n.d.). Detectron. GitHub. Retrieved October 10, 2025, from https://github.com/facebookresearch/Detectron
9. Terven, J., Córdova-Esparza, D. M., & Romero-González, J. A. (2023). A comprehensive review of YOLO architectures in computer vision: From YOLOv1 to YOLOv8 and YOLO-NAS. Machine Learning and Knowledge Extraction, 5(4), 1680–1716. https://doi.org/10.3390/make5040081
10. Google. (n.d.). Google Colab. Retrieved October 10, 2025, from https://colab.research.google.com/
11. Roboflow. (n.d.). Roboflow. Retrieved October 10, 2025, from https://roboflow.com/
12. Ultralytics. (n.d.). COCO dataset configuration file. GitHub. Retrieved October 10, 2025, from https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml
13. Ultralytics. (n.d.). YOLOv12: Attention-centric object detection. Retrieved October 10, 2025, from https://docs.ultralytics.com/models/yolo12/
14. Ultralytics. (n.d.). YOLOv12 documentation. GitHub. Retrieved October 10, 2025, from https://github.com/ultralytics/ultralytics/blob/main/docs/en/models/yolo12.md

Рус

Статью можно приобрести в электронном виде (PDF формат).

Стоимость статьи 700 руб. (в том числе НДС 20%). После оформления заказа, в течение нескольких дней, на указанный вами e-mail придут счет и квитанция для оплаты в банке.

После поступления денег на счет издательства, вам будет выслан электронный вариант статьи.

Для заказа скопируйте doi статьи:

10.14489/vkit.2025.11.pp.015-026

и заполните  форму 

Отправляя форму вы даете согласие на обработку персональных данных.

.

 

Eng

This article  is available in electronic format (PDF).

The cost of a single article is 700 rubles. (including VAT 20%). After you place an order within a few days, you will receive following documents to your specified e-mail: account on payment and receipt to pay in the bank.

After depositing your payment on our bank account we send you file of the article by e-mail.

To order articles please copy the article doi:

110.14489/vkit.2025.11.pp.015-026

and fill out the  form  

 

.

 

 

 
Поиск
Баннер
Rambler's Top100 Яндекс цитирования