温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
基于
改进
Yolov4
车辆
目标
检测
松江
第 49卷 第 4期2023年 4月Computer Engineering 计算机工程基于改进 Yolov4的车辆目标检测李松江,耿兰兰,王鹏(长春理工大学 计算机科学技术学院,长春 130022)摘要:交通场景中小目标及遮挡目标的检测对智能交通具有重要意义。目前基于深度学习的方法在检测车辆目标的特征提取方面取得了较好的效果,但是这些方法都缺乏鲁棒性,在交通场景中对小目标及遮挡目标的检测存在漏检、错检等情况。提出一种改进 Yolov4的车辆目标检测算法,在主干网络的残差模块中嵌入通道注意力机制ECA-Net,通过对每个通道的重要程度赋予不同的权重来获取跨通道的交互信息,实现通道间的信息关联,加强特征聚合,抑制无效特征。将主干网络输出的浅层特征细节信息与深层特征语义信息相融合,使每层具有当前层语义信息的同时融合丰富的细节信息,增强小目标及遮挡目标的特征。在此基础上,利用深度可分离卷积替换网络特征融合模块的普通卷积,提高网络速度,降低网络计算量。实验结果表明,改进后的 Yolov4算法在 KITTI和 UA-DETRAC数据集上比原 Yolov4算法分别提高了 1.30和 2.16个百分点,检测速度达到 55帧/s,相比其他主流模型,能更好地检测小目标及遮挡目标。关键词:车辆检测;小目标;遮挡目标;特征融合;深度可分离卷积开放科学(资源服务)标志码(OSID):中文引用格式:李松江,耿兰兰,王鹏.基于改进 Yolov4的车辆目标检测 J.计算机工程,2023,49(4):272-280.英文引用格式:LI S J,GENG L L,WANG P.Vehicle target detection based on improved Yolov4 J.Computer Engineering,2023,49(4):272-280.Vehicle Target Detection Based on Improved Yolov4LI Songjiang,GENG Lanlan,WANG Peng(School of Computer Science and Technology,Changchun University of Science and Technology,Changchun 130022,China)【Abstract】The detection of small targets and occlusion objects in traffic scenes is crucial for intelligent transportation.Recently,deep learning-based methods have outperformed other feature extraction techniques for detecting vehicle targets.However,deep learning-based methods have low accuracy in detecting small targets and occluded objects,which lead to a high rate of missed detection.This study proposes an improved Yolov4 vehicle target detection framework to solve these challenges.First,the ECA-Net channel attention mechanism is introduced to the residual module in the backbone.This mechanism assigns different weights according to the importance of each channel to obtain interactive information among channels.In this way,the information association among channels can be realized,which strengthens feature aggregation and suppresses invalid features.Second,the feature information of the shallow and deep layers is merged layer by layer.Each layer has the semantic information of the current layer and incorporates detailed information.This structure is used to enhance the feature information of small targets and occluded targets.Finally,instead of using traditional convolutional operation,the deep separable convolution is dedicated to reducing the training time and computation.The detection results show that the proposed method achieves 1.3 and 2.16 percentage points higher than the baseline Yolov4 on KITTI and UA-DETRAC datasets,respectively,and the detection speed reaches up to 55 frame/s.The proposed method achieves a higher performance than other state-of-the-art techniques for small targets and occluded objects.【Key words】vehicle detection;small targets;occlusion targets;feature fusion;depth separable convolutionDOI:10.19678/j.issn.1000-3428.00629430概述随着汽车保有量的逐年上升,交通拥堵、交通安全等问题日益严峻,车辆目标检测和追踪已成为近年来智能交通系统研究的热点。深度学习在自然语言处理、数据挖掘、计算机视觉以及其他相关领域都基金项目:吉林省科技发展计划技术攻关项目(20190302118GX)。作者简介:李松江(1984),男,讲师,主研方向为深度学习、数据挖掘;耿兰兰,硕士研究生;王 鹏(通信作者),教授。收稿日期:2021-10-13 修回日期:2022-01-07 Email:开发研究与工程应用文章编号:1000-3428(2023)04-0272-09 文献标志码:A 中图分类号:TP391第 49卷 第 4期李松江,耿兰兰,王鹏:基于改进 Yolov4的车辆目标检测取得了很多的成果,对多项技术任务具有非常广泛的 影 响1。基 于 深 度 卷 积 神 经 网 络(Deep Convolutional Neural Network,DCNN)的 目 标 检 测算法按解决问题的思路可分为两类:一类是以 Yolo级数2-4、SSD5、RetinaNet6等为代表的 one-stage 算法,该类算法输入到输出图片仅使用一个卷积神经网络(CNN)完成,因此检测速度较快;另一类是 two-stage 算 法,包 括 Fast R-CNN7、Faster R-CNN8、Mask R-CNN9等,该类算法首先利用 CNN 来产生候选区域,然后再对候选区域分类,因此相比 one-stage,two-stage准确度高,但是速度稍慢。虽然相比传统手工生成特征的目标检测算法,基于 DCNN 的目标检测器已经取得了很大的进步,但上述基于DCNN 的目标检测算法都是针对一般目标的。由于在交通场景中,固定摄像头下遮挡车辆所含信息少,距离摄像头较远的车辆像素小,目前的目标检测算法存在错检、漏检等问题,因此小目标及遮挡目标的检测一直是目标检测领域中的难点。文献 10 设计了自适应接收域融合模块,来增加小目标周围的上下文信息,该算法对小目标具有良好的性能。文献 11 改进了 Faster R-CNN 网络结构,并引入多特征、多尺度检等,实验结果表明了该方法在小目标检测中的有效性。文献 12 通过整合不同层次的上下文信息,提出一种基于注意力特征融合(AFFB)的小目标方法,利用 AFFB 代替Yolov5 目标检测网络中的线性融合模块。该方法在保证实时性的前提下对小尺度目标取得了更高的平均精度。文献 13 实验结果表明,组合网络和DCNN 结构一样并没有将上下文表示与对象本身分开,因此在严重遮挡情况下,对检测有负面影响,其提出了在训练过程中通过边界框标注对上下文进行分割,并在将组合网络中基于部分的投票方案扩展为对对象的包围盒的角落进行投票,使模型能够可靠地估计部分遮挡对象的包围盒,该模型能够稳健地检测目标。文献 14 基于 RetinaNet,提出一种改进回归损失函数与动态非极大值抑制的目标检测框架,对遮挡目标具有良好的检测效果。文献15提 出 一 种 基 于 空 洞 卷 积 金 字 塔 网 络(ACFPN)的目标检测算法,首先在特征金字塔网络中引入不同尺度的空洞卷积,增大感受野来解决目标的遮挡问题,通过特征融合丰富特征图,提升了检测精度。综上所述,基于 DCNN 目标检测算法对小尺度目标和遮挡目标检测精度都有一定的提升,但忽略了通道间的相关性和浅层细节信息对小目标及遮挡目标的重要性。本文基于 Yolov4 算法进行改进,提出一种改进Yolov4的车辆目标检测算法,在主干网络中加入ECA-Net通道注意力机制、特征融合,利用深度可分离卷积替换网络特征融合模块的普通卷积。最终在KITTI和UA-DETRAC数据集上对本文算法进行验证。1Yolov4原理Yolov416的结构如图 1所示,该结构由主干网络Backbone、颈部 Neck 和检测头 Head 三部分组成。目标检测网络以 CSPDarknet5317为主干网络,其中包含 5个 CSP 模块用于增强网络的学习能力。特征加 强 提 取 模 块 Neck 由 SPP18作 为 附 加 模 块,PANet19作为特征融合模块。由于检测头 Head 与Yolov3 的检测头一样,因此 Yolov4 的图像检测过程和 Yolov3 相 似。首 先 将 原 始 图 像 分 辨 率 调 整 到416416 大小,并输入到 CSPDarknet53 进行预训练提取图像特征,然后将主干网络输出的 3 个有效特征层输入到特征加强提取模块收集不同的特征图,最后利用检测头对 3个有效特征层进行预测。检测头将原始图像分成 MM 网格,输出大小为 1313、2626、5252 的 3 个特征层,分别实现对大型目标、中型目标和小型目标的检测。每个尺寸网格可以使用 3个锚盒预测对象边界,每个网格的张量如式(1)所示:M M 3(4+1+N)(1)其中:4代表预测框的坐标(tx、ty、tw、th);1代表目标置信度;N代表数据集中目标类别的数量。图 1Yolov4模型结构Fig.1Yolov4 model structure2732023年 4月 15日Computer Engineering 计算机工程图 2 所 示 为 Yolov4 模 型 中 的 5 个 基 本 组 件。DBM 模块由卷积、批量归一化和 Mish 激活函数三者组成,如图 2(