温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
基于
改进
YOLOv5
安全帽
检测
算法
梁循
实验报告科技创新与应用Technology Innovation and Application2023年6期基于改进 YOLOv5 的安全帽检测算法梁循1,翁小林1,李嘉伟1,刘倩2,3,4(1.重庆市建设工程施工安全管理总站,重庆 400010;2.重庆邮电大学 通信与信息工程学院,重庆 400065;3.移动通信技术教育部重点实验室,重庆 400065;4.移动通信技术重庆市重点实验室,重庆 400065)安全帽作为劳动者最基本的个人防护装备,对保护劳动者的生命安全具有重要意义。但是,由于缺乏安全观念,一些工人经常不戴安全帽上班。通过图像和视频进行安全帽的检测已经成为生产安全监测的重要手段1,特别是在建筑工地这具有一定危险性的作业场所。在传统的头盔佩戴检测方法中,大多数检测工作是基于人工设置的特征,但在实际应用中由于光源或角度问题使得目标与背景的区别不是很明显,特征提取工作极为烦琐。随着深度学习技术的发展,特别是卷积神经网络2的出现,该模型的图像特征提取能力得到了很大的提高。另外,支持向量机等分类器3可以对提取的图像特征进行分类和预测,有效地降低了特征选择的难度。目前,目标检测的主流算法是 R-CNN4系列和YOLO5系列。但 R-CNN 系列算法是两阶段检测算法,将耗费大量时间,即使是更快的 R-CNN 算法。YOLO系列算法已经开发到 YOLOv56,已经是一级检测算法,可以一步完成 R-CNN 系列算法检测过程,检测速度能够满足实时性要求。针对安全帽检测的研究已经引起了众多学者的关注。Wen 等7提出了一种基于改进 Hough 变换的圆弧/弧检测方法,并将其应用于 ATM 监控系统中的安全帽检测。Rubaiyat 等6结合颜色特征提取技术和循环Hough 变换特征提取技术,对建筑工人头盔使用情况进行检测。Kang 等8采用了 ViBe 背景建模算法,利用实时人体分类框架对变电站内的行人进行准确、快速摘要:安全帽作为劳动者最基本的保护,对劳动者的生命安全具有重要意义。但是,由于缺乏安全意识,在建筑工地中存在安全帽佩戴不规范的情况。随着目标检测技术的不断发展,高精度、高效率的 YOLO 系列算法已经被应用于各种场景检测任务中。为建立起数字化的安全帽监测系统,该文首先对建筑工地中安全帽佩戴情况所采集的 7 581 张图片进行标注。然后,提出一种基于改进的 YOLOv5 的安全帽检测方法,并使用不同参数的 YOLOv5(s,m,l)模型进行训练和测试,对这 3 种模型进行比较和分析。使用可训练目标探测器 YOLOv5s 的 mAP 达到 91.7%,证明基于改进的 YOLOv5 的头盔探测的有效性。关键词:安全帽;建筑工地;安全管理;目标检测;YOLOv5中图分类号:TP391文献标志码:A文章编号:2095-2945(2023)06-0081-04Abstract:As the most basic protection of workers,safety helmets are of great significance to the life and safety of workers.However,due to the lack of safety awareness,there is a non-standard wearing of safety helmets at construction sites.With thecontinuous development of target detection technology,high-precision and efficient YOLO algorithms have been applied to a varietyof scene detection tasks.In order to establish a digital safety helmet monitoring system,this paper first marks 7 581 picturescollected from the wearing of safety helmets in the construction site.Then,a helmet detection method based on improved YOLOv5is proposed,and YOLOv5(s,m,l)models with different parameters are used for training and testing,and the three models arecompared and analyzed.The mAP using trainable target detector YOLOv5s reaches 91.7%,which proves the effectiveness ofhelmet detection based on improved YOLOv5.Keywords:safety helmet;construction site;safety management;target detection;YOLOv5基金项目:重庆市住房和城乡建设委员会批复项目(2021-0-104);重庆市自然基金重点项目(cstc2019jcyj-zdxm0008);重庆市教委重点项目(KJZD-K201900605);重庆市大数据应用发展管理局研究课题(22-30)第一作者简介:梁循(1979-),男,硕士,工程师。研究方向为智慧建造、智慧安管领域。DOI:10.19981/j.CN23-1581/G3.2023.06.01881-2023年6期实验报告科技创新与应用Technology Innovation and Application输入部分包括镶嵌数据增强和自适应锚帧计算。使用随机缩放、随机剪切和随机排列的图像拼接完成数据增强。该方法对头盔、人的头部等小目标具有良好的检测效果。而 YOLOv5 在训练代码中嵌入了自适应锚帧。在每次训练过程中,其将自适应地计算出不同训练集中的最佳锚帧值。主干网络部分包括焦点结构和 CSPNet(CrossStage Partial Network,跨阶段局部网络)结构。焦点结构是 YOLOv5 的一个独特的结构,其作用是切片。一个三维张量4,4,3,经过分割后,可以成为一个特征映射2,2,12。该 CSPNet 结构位于 Backbone 部分,由卷积层和 Resnet(Residual Network 残差网络)的一些剩余结构组成,通过这种方式加深网络的层次。颈部部分包括 FPN(Feature Pyramid Networks,特征金字塔网络)和 PAN(Path Aggregation Network,路径聚合网络)。FPN 的功能是从上到下传达显著的语义特征,而 PAN 的功能是从下到上传达显著的定位特征。FPN 和 PAN 的结合进一步提高了特征提取的能力,如图 2 所示(其中,UpSampling 表示升采样,DownSampling 表示降采样,图中数字单位均为像素)。预测部分包括 GIoU(Generalized Intersection overUnion,广义并集上的交集)损失和加权非最大值抑制。其功能是克服 IoU(Intersection over Union,并集上的交集)不能直接优化不重叠部分的问题,并在后期处理过程中保留最优框架,同时抑制这些冗余目标检测。2基于改进的YOLOv5的安全帽检测算法实验部分设计的安全帽佩戴检测方法流程如图 3所示。首先,YOLOv5 的内置目标检测权重将用于定位人员,其次,人员的头部区域将被过滤出来,通过YOLOv5 网络预先训练的头部和安全帽的权重来确定头部位置,然后,这些头盔将由 YOLOv5 目标检测网络识别。最后,根据数据集的特征确定安全帽是否佩戴。3实验结果与分析实验的数据集来自 SHWD 所提供的安全头盔佩戴和人头探测的数据集。该数据集包括 7 581 张图片,其中 9 044 人佩戴安全帽,111 514 人没有佩戴安全的定位。然而,基于传统目标检测的方法只能应用于特定的场景,准确率不高。随着目标检测技术的发展,Wu等9对YOLOv3 算法进行了改进,有效地解决了头盔着色、部分遮挡、多目标和图像分辨率低等问题。而对于 YOLOv5,在 Tesla P100 上可以实现 140 fps的快速检测,对输入的图像进行反向训练。因此,本文使用 YOLOv5 作为检测器来检测工人是否戴头盔。首先,对建筑工地采集的 7 581 张图片进行了标注。其次,使用最先进的目标检测算法来检测工人是否正确佩戴头盔。最后,对不同深度和宽度的 YOLOv5(s,m,l)模型进行训练和评估,并进行结果分析比较。本文的其余部分主要内容阐述如下。在第一节中,介绍YOLOv5 的网络架构。在第二节中,详细介绍基于改进的 YOLOv5 的安全帽检测算法。在第三节中给出实验的结果和分析。在第四节中对本文进行的工作进行总结。1YOLOv5网络架构YOLOv5 的网络结构包括 4 个部分,即输入(Input)、主干网络(Backbone)、颈部(Neck)和预测(Prediction),如图 1 所示(其中,concat 表示合并)。图1YOLOv5的网络结构InputNeckPredictionBackboneconcatup2concatconcatup2p1p2p3p4p582-实验报告科技创新与应用Technology Innovation and Application2023年6期图3安全帽佩戴检测流程为了客观评价该算法在安全帽佩戴检测中的性能,需要计算平均精度指标(mean Average Precision,mAP)10。mAP 指标能客观地反映算法的整体性能,计算公式可以表示为,(1)式中:AP 是 PR 曲线下的面积值,可以用定积分进行计算AP=10P(R)dR。(2)通过实验,得到了不同 YOLOv5 模型的 mAP 数据,见表 1。经过 100 次的训练之后,尽管 YOLOv5 m的准确度相比于 YOLOv5 s 有所下降,但 mAP0.5 的值只减少了 0.1%,并不明显。随着参数量的增加,YOLOv5 l 的准确度相比于 YOLOv5 s 上升了 1%,但mAP0.5 的值只上升了 0.2%。选取马路、工厂车间和工地现场 3 个场景进行测试,并给出原始图片和测试结果图片进行比较。具体情况如图 4 所示(其中,helmet 表示识别到的佩戴正确安全帽)。表1不同YOLOv5模型的mAP数据从检测结果可以看出,该算法更全面地提取了图像的总体特征。即使目标环境不同,或者图像中的目标是否处于运动状态,该算法也能够准确地检测出目标。对每个网格生成的边界框进行迭代和加权非最大值抑制滤波,得到与检测对象最一致的检测框架。特别是在工地现场场景中,在一定的遮挡条件下,该算法仍然能够准确地识别工人是否佩戴安全帽。帽,相关规定佩戴安全帽的对象为正向(positive),没有佩戴安全膜的对象为负向(negative),利用 LabelImg 工具对图像进行手动标记。实验的运行环境是Python3.8.13,并且使用 Pytorch1.8.1 深度学习框架对网络进行训练、验 证 和 测 试。权 重 文 件 是 YOLOv5s.pt,训 练 在NVIDIA RTX A4000 GPU 上进行。图2FPN和PAN结构图输入人体特征识别头部区域筛查确定头部区域安全帽佩戴判断输出YOLOv5 网络预训练的头部和安全帽权重确定安全帽区域191938387676FPNPAN191938387676191938387676UpSamplingDownSampling模型 精确率 召回率 平均精度(IoU=0.5)YOLOv5?s 0.917 0.921 0.917 YOLOv5?m 0.