分享
基于YOLOv5+Deep...的车头时距混合分布模型研究_丁正道.pdf
下载文档

ID:2642062

大小:629.66KB

页数:9页

格式:PDF

时间:2023-08-20

收藏 分享赚钱
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
基于 YOLOv5 Deep 车头 混合 分布 模型 研究 正道
测控技术2023 年第 42 卷第 7 期数据采集与处理收稿日期:2021 11 30基金项目:国家自然科学基金(52172387)引用格式:丁正道,吴红兰,孙有朝 基于 YOLOv5+DeepSOT 检测数据的车头时距混合分布模型研究 J 测控技术,2023,42(7):56 64DING Z D,WU HONG L,SUN Y C esearch on Time Headway Mixture Distribution Model Based on YOLOv5+DeepSOT De-tection Data J Measurement Control Technology,2023,42(7):56 64基于 YOLOv5+DeepSOT 检测数据的车头时距混合分布模型研究丁正道,吴红兰,孙有朝(南京航空航天大学 民航学院,江苏 南京211106)摘要:为提高车头时距分布模型的准确性,提出一种基于 YOLOv5+DeepSOT 算法的样本采集方法,并拟合出一种双高斯 移位负指数混合分布模型。训练 YOLOv5 检测器模型和 DeepSOT 算法中的 eID模型对车头时距进行自动精确采集,建立双高斯 移位负指数混合分布模型来描述实际交通流中 3 种车辆驾驶状态:强跟驰、弱跟驰和自由流,对自动采集的车头时距样本进行拟合,利用最大期望算法对模型参数进行标定。经实例验证表明,基于 YOLOv5+DeepSOT 方法采集的车头时距样本与视频人工逐帧记录的样本之间的平均相对误差为 1 94%,满足车头时距样本采集准确率的要求;所提出的双高斯 移位负指数混合模型对自动采集车头时距样本的拟合结果通过了 K-S 检验,且拟合结果优于三元混合分布、二元混合分布和威布尔分布模型。关键词:图像检测;车头时距;混合分布模型;目标跟踪中图分类号:TP29文献标志码:A文章编号:1000 8829(2023)07 0056 09doi:10 19708/j ckjs 2022 03 238esearch on Time Headway Mixture Distribution Model Based onYOLOv5+DeepSOT Detection DataDING Zhengdao,WU Honglan,SUN Youchao(College of Civil Aviation,Nanjing University of Aeronautics and Astronautics,Nanjing 211106,China)Abstract:In order to improve the accuracy of time headway distribution model,a sample collection methodbased on YOLOv5+DeepSOT algorithm is proposed,and a double Gaussian-shift negative exponential mix-ture distribution model is fitted The YOLOv5 detector model and the eID model of DeepSOT algorithm aretrained to collect the time headway automatically and accurately,and a double Gaussian-shift negative exponen-tial mixture distribution model is established to describe three vehicle driving states in real traffic flow:strongfollowing,weak following and free flow The automatically collected time headway samples are fitted and themodel parameters are calibrated by using the maximum expectation algorithm The results show that the averagerelative error between the time headway samples collected based on YOLOv5+DeepSOT method and thoserecorded manually frame by frame is 1 94%,which satisfies the requirement of time headway sample collectionaccuracy The fitting results of the proposed double Gaussian shift negative exponential mixture model for auto-matically collecting headway samples pass the K-S test,and the fitting results are better than the ternary mix-ture distribution,binary mixture distribution and Weibull distribution models65Key words:image detection;time headway;mixture distribution model;target tracking车头时距是指在同向行驶的一列车队中,两辆连续行驶的车辆的车头驶过某一点的时间间隔。车辆的到达被视为一个随机事件序列,因此车头时距是一个随机变量,研究该变量的分布规律对于交通安全研究、通行能力分析、道路服务水平、优化道路设计和管理等具有重要意义1。由于交通流的到达具有某种程度的随机性,采用单一的标准统计模型很难描述这种随机性的统计规律。严颖等2 基于高斯混合模型将车头时距分为饱和状态和非饱和状态,但只考虑了饱和状态交通流的车头时距分布,未对自由流状态的车头时距进行研究。陶鹏飞等3 将车辆的行驶状态分为跟驰和自由流2 种状态,提出车头时距的混合分布模型。王福建等4 在陶鹏飞的研究基础上,引入强弱跟驰状态,结合自由流状态的负指数分布模型,构建三元混合分布模型,但对于描述自由流状态的负指数分布模型,较小的车头时距出现的概率较大,这与实际情况不符。此外,对于车头时距研究的数据采集方式,以往多采用实地采集并填调查表格的方法,这种方法耗费大量人力和时间,且采集车头时距精确度较低。随着智能交通采集技术的发展,车头时距采集的方式逐渐增多。章庆等5 提出一种基于雷达数据的饱和车头时距检测方法,此种方法需要在道路上搭建微波发射设备,但对于多车道的检测需要布置多个雷达设备,且雷达在恶劣天气检测效果差。王殿海等6 采用基于自动车牌识别数据对不同车型的车头时距进行检测,采用不同数量单一模型的高斯混合模型对采集的数据进行拟合,最后使用 AIC 准则对最优单一模型数量进行判断,计算过程复杂,且仅采用过车视频结合人工调查的方式模拟车牌数据采集,未进行车头时距自动采集的实践。严颖等2 虽然采用交叉口电子警察的号牌识别数据进行采集,但仅限于在有专业交通电子设备的路段进行采集,不具有便捷性,而且自动车牌识别数据的时间戳仅精确到秒,采样精度低。为实现车头时距样本的自动化采集并提高车头时距模型的准确性,采用 YOLOv5+DeepSOT 算法对车头时距样本进行自动精确采集,并提出一种车头时距混合模型。首先,分别训练用于车辆目标检测的YOLOv5 检测器模型和 DeepSOT 算法中用于描述车辆外观特征的 eID 模型,接着将过车视频每一帧输入到训练好的 YOLOv5 模型和 DeepSOT 算法便可实现对车辆的实时检测跟踪。在此基础上,抽取过车视频第一帧为基准图,在基准图中框选检测区域和设置检测线,通过检测车辆是否触碰到检测线来对车头时距样本进行自动采集;针对强跟驰、弱跟驰和自由流 3种驾驶行为特性,构建双高斯 移位负指数混合模型;根据自动采集的样本,采用最大期望(Expectation Max-imization,EM)算法拟合出双高斯 移位负指数混合模型,最后采用 K-S(Kolmogorov-Smirnov)检验对拟合结果进行拟合优度检验,并与三元混合分布、二元混合分布和威布尔分布模型的拟合效果进行对比。1车头时距采集算法1 1YOLOv5 车辆检测模型YOLOv5 是一个单阶段探测器和基于区域的目标检测网络模型,由 3 个主要组件构成:BackBone、Neck和 Head7,因其高检测准确性和实时性而在各个领域被广 泛 研 究 与 应 用。YOLOv5 的 官 方 模 型 中 有YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x 等多个版本,性能和特点如表 1 所示。表 1YOLOv5 的官方模型的性能及特点模型参数量APtestSpeedv100/msFPSv100YOLOv5s73 10636822455YOLOv5m214 10644529345YOLOv5l470 10648138264YOLOv5x877 10650160167表 1 中,YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x的模型参数量依次增大,其相应的检测精度也随之提升。然而随着模型变大,检测速度有所降低,可以看到YOLOv5s 检测速度为2 2 ms,而 YOLOv5x 的检测速度是其将近 3 倍。而在车头时距样本采集时,在满足检测实时性的情况下,模型的检测速度越高,则代表其每秒处理的帧数越多,从而其采集车头时距样本的准确度也越高。此外,在实际的采集车头时距样本中,为避免因传输过车视频环节带来的时间延迟导致样本采集的实时性降低,从而降低了车头时距自动采集在智能交通中的实时性应用价值的问题,应采用路侧边缘端处理,较大参数量的模型对边缘端设备的性能有很高的要求,设备采购成本将会极大地增加。因此,选择小参数量的 YOLOv5s 模型无疑是降低车头时距采集成本,提高车头时距采集准确度和实时性的较好选择。故本文选用 YOLOv5s 模型检测车辆,关于 YOLOv5s 模型的车辆检测精确度问题,将在下文的测试结果中表明其是否满足采集需求。1 1 1数据集本文所采用训练 YOLOv5 模型的数据集是从网络75基于 YOLOv5+DeepSOT 检测数据的车头时距混合分布模型研究上的过车视频中截取的,图像中车辆全为朝向镜头行驶方向,共 300 幅,其中包括单目标图像、多目标图像和目标重叠等图像,图 1 为数据集中车辆检测的主要场景,展现了数据集中 3 种较为典型的检测场景。图 1数据集中车辆检测的主要场景因为用来训练模型的数据较少,为了提升模型泛化性并避免过度拟合,所以对数据集进行数据增强处理以扩充数据集8,数据增强的部分图片如图2 所示。图 2数据增强的部分图片每幅图像都有 2 个增强版本,因此最终数据集图像数量比原始图像数量增加了 2 倍。利用 makesense ai 标注软件对所用数据集图片进行标注,转化为训练所用的 txt 格式,并将数据集以 81 1的比例分为训练集、验证集和测试集。1 1 2模型改进(1)采用 CIoU(Complete Intersection over Union)损失函数。交并比(IoU)是一种评价目标检测器性能的指标,是由预测框与目标框间交集和并集的比值计算,其考虑的是预测框和目标框重叠面积。IIoU=ABAB(1)式中:A 为预测框;B 为目标框。然而,IoU 没有引入目标框与预测框中心的之间的距离信息和边界框宽高比的尺度信息,这使得目标物体的预测框无法准确贴合目标。但在采集车头时距样本时,检测

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开