温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
基于
改进
YOLOv5
安全帽
检测
算法
梅鹏
2023.7电脑编程技巧与维护Backbone输入端16016064808012840402562020512CBSCBSCSP1_1CSP1_2CBSCBSCSP1_3CBSCSP1_1SPPFCBS输入64064033203203240402568080128Neek上采样40405122020256ConcatCSP2_1CBS上采样8080256ConcatCSP2_1Conv40401288080128404012840402564040256202025620202562020512ConvConvCBSCBSConcatConcatCSP2_1CSP2_1Prediction808025540402552020255CBSConvBNSiLURes unitCBSCBSaddCSP1_XCBSRes unitXConcatCBSCBSCBSCBSCBSConcatCBS2XCSP2_XSPPFCBSMaxPoolMaxPoolMaxPoolCBSConcatSPPCBSConcatCBSMaxPoolMaxPoolMaxPoolFOCUSslicesliceslicesliceConcatCBS1概述佩戴安全帽可以有效地保护施工现场工作人员的头部。在各种复杂多变的场地中,工作人员常常存在不按规定佩戴安全帽的情况,此状况会威胁工作人员的人身安全,并可能造成重大损失。刘小慧和叶西宁1采用安全帽和头发颜色的区别来判断安全帽是否被佩戴;Rubaiy-at等2利用方向梯度直方图先确定人在图像中的位置,再利用颜色特征及圆形霍夫变换设计出安全帽特征,最后判定是否佩戴安全帽;李琪瑞3提出要采用定位头部区域和计算安全帽的色泽特征来检测安全帽;Chiverton4提出首要的目标是检测到人,再提取相对应头部的HOG及SIFT等特征,以此检测是否佩戴安全帽。以上所说的都是手动选取特征并检测的方法,其缺点很明显,如计算量大、检测速度慢、精度不高等。在实际应用中,对于安全帽检测的要求不但要准而且要快,需要满足检测的实时性,同时不能出现漏检。因此在YOLOv5主干网络中加入注意力机制(CA),以此提高特征获取更大的感受野,以及更加密集的数据。在颈部使用BiFPN来取代FPN,以实现更高层次的特征融合。对YOLOv5算法进行优化和改进,不但使其精度有了很好的提升,而且对密集目标和遮挡目标起到了更好的效果。2网络结构2.1YOLOv5 网络结构YOLOv5检测算法是轻量级的检测模型,其结构如图1所示,包含输入端、Backbone、Neck及Prediction。基于改进 YOLOv5 的安全帽检测算法梅鹏,张佳恒,杨永生(西京学院计算机学院,西安710123)摘要:对于工业及建筑行业来说,工作人员在施工过程中佩戴安全帽是避免伤害的有效途径之一。针对这一现象,提出了一种改进 YOLOv5 的安全帽检测算法。该算法以 YOLOv5s 网络为基础,在YOLOv5s 的主干网络中添加 CA 坐标注意力机制模块。在颈部网络结构中将特征融合模块中原有特征金字塔模块替换为加权双向特征金字塔(BiFPN)网络结构,实现高效的双向跨尺度连接和加权特征融合。在自制安全帽数据集中验证可知,改进的 YOLOv5 模型平均精度达到了 92.15%,相比于 YOLOv5模型,平均精度提高了 1.05 个百分点,实现了对密集目标和遮挡目标准确、高效的安全帽检测。关键词:安全帽佩戴检测;YOLOv5 算法;加权双向特征金字塔;坐标注意图1YOLOv5结构14DOI:10.16184/prg.2023.07.0242023.7电脑编程技巧与维护2.2YOLOv5 网络的改进CA是一个简单灵活、参数量小,模块插入简单、方便,并且它可以在基本不带任何多余开销的情况下,提升网络的精度。BiFPN采用了加权特征融合的方法,首先,采用自上而下的方式进行特征融合,然后,利用自下而上的方式进行特征融合,增强高层信息融合,其结构如图2所示。3实验分析3.1实验环境配置和训练参数选择研究所用的硬件参数如表1所示。实验训练由于受图形处理器(GPU)等相关硬件性能的约束,训练进程设为4,批次容量(batch_size)设为12。通过实验训练出的mAP和best.pt权重文件在epoch为200左右时表现较好,于是将迭代次数(epochs)设为200。3.2数据集制作由于缺乏高质量、开源的安全帽数据集,采用自收集方法,通过实际拍摄和网络爬虫总共收集了7 642张图像。包含大尺度目标(目标像素面积 大于9696)、中尺度目标(目标像素面积32329696)、小尺度目标(目标像素面积小于3232)和密集目标(包含多个比例目标),并使用Labelimg软件对图像逐个标注。使用软件对其进行标记。格式为YOLO格式,分为两类,分别是类别号(0,1)和目标位置的边框坐标。戴安全帽的图像约有4 600个,不戴安全帽的图像约有3 000个。3.3实验训练结果将改进后的YOLOv5s实验模型与原始YOLOv5s模型在相同的实验配置环境和数据集下分别训练200轮后。mAP对比结果如图3所示,平均准确率(IOU=0.5)。图中改进后的模型由灰色曲线表示,改进前的YOLOv5s模型由黑色曲线表示。横坐标为实验训练轮数,纵坐标为数值,两者都没有单位。观察实验图像可知,图像上前50轮两种模型都表现出迅速收敛,在逐渐进行到100轮时慢慢地趋于稳定,直到最终实验结束,两种模型的训练效果都很好,没有发生过拟合和欠拟合现象。YOLOv5-CA_BiFPN模型相比于YOLOv5s模型收敛的速度更快且损失值更小,说明网络改进之后提高了检测精度。3.4消融实验为了验证CA模块、SPPCSPC模块和BiFPN的效果,在实验后进行对比。对比在YOLOv5s中加入CA的结构与原结构的效果,目标精度对比如表2所示。从实验结果可以看出,在主干网加入了一层CA后,mAP从91.14%提升到91.17%,提升了0.03个百分点,因此可以表明CoordAtt注意力机制增加了对安全帽的权重值,以此可以提升对于安全帽检测精度。在颈部网络加入BiFPN之后,mAP从91.14%提升到了91.43%,mAP提升了0.29个百分点。在主干同时加入一层CoordAtt注意力机制并将BiFPN加入到颈部网络,实现更高层次的特征融合,mAP从91.14%提升到了92.15%,mAP提升了1.01个百分点。图2BiFPN结构配置名称版本参数操作系统Windows 11GPUNVIDIA GeForce RTX 3060CPUAMD Ryzen 7 6800H 3.20 GHz深度学习框架Python3.7、Pytorch1.8.0、Cuda10.2表1硬件参数图3mAP对比结果ModelCABiFPNmAP(%)YOLOv5s91.14YOLOv5s_CA91.17YOLOv5s_BiFPN91.43YOLOv5s_CA_BiFPN92.15表2目标精度对比repeated blocksrepeated blocks(c)NAS-FPN(d)BiFPNP7P6P5P4P3P7P6P5P4P30714212835424956637077849198105112119126133140147154161168175182189196YOLOv5+/mAP_0.5YOLOv5/mAP_0.510.90.80.70.60.50.40.30.20.10152023.7电脑编程技巧与维护ModelPrecisionRecallmAPYOLOv5s91.6687.2291.14YOLOv5s_CA91.6887.2591.17YOLOv5s_BiFPN91.7787.2891.31YOLOv5s_CA_BiFPN91.7888.5892.153.5算法性能对比为了进一步验证该算法改进后的效果,现将此算法与改进后的模型方法及原YOLOv5方法在同一条件下进行测试,实验结果对比如表3所示。从实验结果中可以看出,相较于原始的YOLOv5s,分别改进后,算法的精确率和召回率都有一定程度的提升。将CA和BiF-PN同时融入后,精确率提升0.12,召回率提升1.36,平均精确率提升1.01,这说明将优化YOLOv5后得到了最佳的优化算法模型。3.6实验结果对比把YOLOv5算法和改进后的YOLOv5算法进行对比实验,实验结果对比如图4所示,左侧为YOLOv5检测结果图,右侧为YOLOv5-CA-BiFPN检测的结果图。从图4(a)、图4(b)中可以看到左图黑圈漏检了被遮挡的目标及误检的目标,而右图则检测出了黑圈中被遮挡的目标以及误检的目标。从图4(b)中可以看到左图黑圈漏检了目标,而右图则检测出了漏检目标。由检测结果可知,YOLOv5-CA-BiFPN模型对安全帽被遮挡的目标和安全帽密集的目标检测效果要优于YOLOv5模型,在多样的环境中具有很好的鲁棒性,同时体现了更高的检测精度和定位精度。4结语针对当前安全帽检测算法在密集目标、遮挡目标中存在漏检和错检的情况,提出一种在YOLOv5模型上进行改进的算法YOLOv5-CA-BiFPN模型。实验结果表明,改进后的模型和YOLOv5模型相比,在密集目标和遮挡目标的检测上效果更好,并且精度获得了很好的提升,满足在复杂多变的施工场景中对安全帽佩戴检测的准确性需求。改进后的模型泛化能力更好,可以在其他类型目标的检测中应用,可广泛部署于各类生产现场,具有较强的应用推广价值。接下来的研究重点是在各种复杂恶劣的天气环境下,在保证速度和准确率的前提下,进一步对网络的结构模型进行优化,使其拥有更好的检测效果。参考文献1刘晓慧,叶西宁.肤色检测和Hu矩在安全帽识别中的应用J.华东理工大学学报(自然科学版),2014,40(3):365-370.2RUBAIYAT A H M,TOMA T.Automatic detection ofhelmet uses for construction safety C IEE Proceed-ings of International Conference on Web IntelligenceWorkshops.Piscataway.NJ:IEEE Press,2017.3李琪瑞.基于人体识别的安全帽视频检测系统研究与实现D.成都:电子科技大学,2017.4CHIVERTON J.Helmet presence classification with mo-torcycle detectionand tracking J.IET intelligenttransport systems,2012,6(3):259-269.5HOU Q B,ZHOU D Q,FENG J S.Coordinate attentionfor efficient mobile network design C IEEE Proceed-ings of the IEEE/CVF Conference on Computer Visionand Pattern Recognition,2021:13713-13722.6REZATOFIHHI H,TSOI N,GWAK J,et al.General-ized intersection over union:a metric and a loss forbounding box regression C IEEE Proceedings of theIEEE/CVF Conference on Computer Vision and PatternRecognition,2019:658-666.7TAN M,PANG R,LE Q V.EfficientDet:Scalableand efficient object detection C/IEEE Conferenceon Computer Vision and Pattern Recognition,2020:10778-10787.表