基于
改进
YOLOv5
个体
图像
识别
方法
第26卷第9期2023年9月软件工程 S O F T W A R E E N G I N E E R I N GVol.26 No.9Sep.2023文章编号:2096-1472(2023)09-0042-06DOI:10.19644/ki.issn2096-1472.2023.009.008收稿日期:2 0 2 3-0 2-1 5基金项目:甘肃农业大学盛彤笙创新基金项目(G S A U-S T S-2 0 2 1-1 6);甘肃农业大学青年导师基金项目(G A U-Q D F C-2 0 2 1-1 8);甘肃省自然科学基金项目(2 0 J R 5 R A 0 2 3)基于改进Y O L O v 5的牛个体图像识别方法刘琪伟1,郭小燕1,李纯斌2,杨道涵2(1.甘肃农业大学信息科学技术学院,甘肃 兰州 730070;2.甘肃农业大学资源与环境学院,甘肃 兰州 730070);;;摘 要:针对现有非接触式牛个体图像识别模型体积大、参数多、资源占用较大等问题,提出了一种基于改进Y O L O v 5模型的轻量级牛个体图像识别模型(L i g h t Y O L O N e t,L Y-N e t)。将Y O L O v 5模型的主干网络替换为轻量级网络G h o s t N e t,并采用C A R A F E(轻量级通用上采样算子),减少网络参数,实现网络轻量化;采用F o c a l-E I o U L o s s作为损失函数,加速收敛并提高了速度。采用甘肃省张掖市某养殖场的3 0头牛,共6 7 7 5幅牛个体图像作为样本数据,进行模型的训练、验证、测试。实验结果表明:L Y-N e t模型对牛个体的识别精确率约为9 9.6%,召回率约为9 9.5%。该模型能够在对牛个体图像高效且准确识别的同时,实现模型的小型化、轻量化。关键词:Y O L O v 5;牛个体;图像识别;轻量级中图分类号:T P 3 9 1 文献标志码:AA n I m p r o v e d Y O L O v 5-b a s e d M e t h o d f o r I m a g e R e c o g n i t i o n o f C a t t l e I n d i v i d u a lLIU Qiwei1,GUO Xiaoyan1,LI Chunbin2,YANG Daohan2(1.School of Information Science and Technology,Gansu Agricultural University,Lanzhou 730070,China;2.College of Resources and Environment,Gansu Agricultural University,Lanzhou 730070,China);;;A b s t r a c t:Aiming at the current research problems of the existing non-contact cattle individual image recognition models,such as large volume,multiple parameters and large resource occupation,this paper proposes a lightweight cattle individual image recognition model(Light YOLO Net,LY-Net)based on improved YOLOv5 model.The backbone network of the YOLOv5 model is replaced by the lightweight network Ghost Net,and CARAFE(a lightweight universal up-sampling operator)is used to reduce network parameters and realize network lightweight.Focal-EIoU Loss is used as the loss function to accelerate the convergence and improve the speed.A total of 6 775 individual cattle images of 30 cattle individuals on a farm in Zhangye City,Gansu Province are used as sample data for training,validation,and testing of the model.The experimental results show that the precision rate of LY-Net model for cattle individual recognition is about 99.6%,and the recall rate is about 99.5%.The proposed model can realize the miniaturization and lightweight of the model while effectively and accurately recognizing individual cattle images.K e y w o r d s:YOLOv5;cattle individual;image recognition;lightweight 0引言(I n t r o d u c t i o n)随着我国整体生活水平的提高,人们对牛肉制品和牛奶制品的需求日益增大,快速有效地进行牲畜个体身份识别是开展精细化饲养、牲畜体征监测、畜产品溯源工作的基础。目前,识第 26卷第 9期刘琪伟等:基于改进 YOLOv5 的牛个体图像识别方法别牛个体图像的方法主要有接触式识别和非接触式机器视觉识别 两 种。接 触 式 识 别 方 法 又 可 以 分 为 永 久 性 识 别 法(P e r m a n e n t I d e n t i f i c a t i o n M e t h o d o l o g y,P I M)、半永久性识别法(S e m i-p e r m a n e n t I d e n t i f i c a t i o n M e t h o d o l o g y,S I M)及临时性识别法(T e m p o r a r y I d e n t i f i c a t i o n M e t h o d o l o g y,T I M)1。P I M主要通过耳槽、耳纹、热铁标记和冷冻烙印等方式识别牛个体,会对牛个体造成不同程度的伤害,容易造成牛个体感染疾病2。S I M主要通过耳标进行牛个体识别,耳标的类型有塑料吊坠、塑料条形码、金属耳夹等,如果长期使用这些耳标,会造成牛个体的耳朵腐烂;此外,耳标可以复制、伪造,并且有遗失风险,容易造成牛个体的错误识别或者无法识别3。T I M包括染色和无线射频识别技术(R a d i o F r e q u e n c y I d e n t i f i c a t i o n,R F I D)等,基于R F I D的耳标虽然可快速读取牛个体的个体信息,但是染色的效果受奶牛花色影响,同时该技术识别距离有限且技术应用成本高,因此有较大的局限性4。1相关研究(R e l a t e d r e s e a r c h)随着计算机视觉与人工智能技术的发展,目标检测技术被广泛应用在牛脸识别等计算机视觉领域。根据对图像进行识别与定位的特征,目标检测技术可分为O n e S t a g e和T w o S t a g e两种,其中T w o S t a g e目标检测算法首先对输入的图像进行区域推荐(R e g i o n P r o p o s a l),生成一系列的候选区域,其次通过卷积神经网络对这些候选的区域进行分类和回归5-6。典型的算法有R C N N7、F a s t-R C N N8、S P P-N e t9、F a s t e r R-C N N1 0等,它们将其识别过程分为两个阶段,检测速度较慢。O n e S t a g e算法将边框回归与目标识别合并为一个步骤,拥有更高的检测速度。其中,代表性的算法有S S D1 1-1 2系列、F C O S1 3、Y O L O1 4-1 5系列算法,其中Y O L O算法参数量、计算量较少,因此检测速度较快,在牛个体图像识别方面已经得到了广泛应用。姜世奇1 6在Y O L O v 3的基础上进行改进,使用M i c r o s o f t C O C O数据集进行模型预训练,通过构建的目标检测数据集进行微调并应用于牛面部识别。S H E N等1 7首先将奶牛的侧视图图像分割成头部、躯干和腿部三个部分,其次利用Y O L O算法检测图像中的奶牛对象,最后使用优化的C N N模型进行牛个体身份识别,检测准确率为9 6.6 5%。Y O L O v 5作为典型的O n e S t a g e识别方法,具有复杂场景下目标检测识别的优势,已经被广泛应用于农业目标实时检测与识别中,但其模型的体积较大、参数多,需要大量的样本进行模型训练,对运算的软件和硬件设备要求高,而高质量的牛个体样本数据的获取费时、费力。因此,设计一个轻量、高效的非接触式牛个体识别模型,使其可以在样本数量有限的情况下,运行于手机、平板电脑等移动设备中,方便牧民与养殖户进行牛个体身份识别,显得非常必要。本文以Y O L O v 5为基础模型,设计了一个轻量级牛个体识别模型(L i g h t Y O L O N e t,L Y-N e t),利用轻量级网络G h o s t N e t作为主干网络模型,并减少C 3参数,采用C A R A F E作为上采样算子,采用E I o U L o s s作为损失函数,在保证识别精度的情况下实现了减少网络参数、提升识别速度的目标。该模型通过对3 0 头牛个体,共6 7 7 5 幅自建数据进行测试,识别精确率约为9 9.6%。实验表明,该模型在实现轻量化设计的同时,可以高效、准确地进行牛个体图像识别。2Y O L O v 5网络模型改进(Y O L O v 5 n e t w o r k m o d e l i m p r o v e m e n t s)本文采用Y O L O v 5 s 6.1版本作为基础网络模型,该模型主要由输入端I n p u t、B a c k b o n e、N e c k及H e a d四个部分组成。与Y O L O v 5 s 5.x相比,Y O L O v 5 s 6.1版本将B a c k b o n e F o c u s层换成一个6 6大小的卷积层,目的是扩大卷积核的感受野;在N e c k中将S P P换为S P P F结构,提高运行速度。为了进一步实现网络轻量级的目标,本文将Y O L O v 5 s 6.1模型的主干网络替换为轻量级网络G h o s t N e t,并减少C 3参数,在识别精度不受影响的情况下实现了网络模型的轻量化、速度提升的目标,网络使用轻量高效的上采样算子C A R A F E,进一步减少网络参数,采用F o c a l-E I o U L o s s作为损失函数,加速收敛。2.1L Y-N e t网络结构 首先将一幅经过预处理的大小为3 6 4 0 6 4 0的R G B图像进行归一化操作,送入B a c k b o n e主干网络进行特征提取,其次利用N e c k将浅层的特征与深层特征进行特征融合以丰富网络模型的特征信息,在H e a d输出2 0 2 0、4 0 4 0、8 0 8 0三种像素的矩形识别区域,分别对应于不同图像大小的牛个体,图1为本文所使用的L Y-N e t模型框架图。图1 L Y-N e t模型框架图F i g.1 L Y-N e t m o d e l f r a m e w o r k d i a g r a m2.2轻量级网络G h o s t N e tY O L O v 5主干特征提取网络采用C 3结构,因为参数量较大,所以影响了检测速度。C 3是删除B o t t l e n e c k C S P中的部分C o n v模块后产生的新模块,C 3根据是否使用S h o r t c u t连接分为C 3-F a l s e和C 3-T r u e两个模块。C 3模块能够增强对浅层特征的提取能力,利用S h o r t c u t连接浅层特征,最终在增强整个神经网络学习能力的同时降低计算成本。针对本文采用的数据集牛个体图像检测的特点,本文将Y O L O v 5模型的主干网络替换为轻量级网络G h o s t N e t,并减少C 3参数,将B a c k b o n e部分中的C 3数量从(3,9,9,3)减少为(2,6,8,2),从而减少特征信息丢失且降低计算量。34软件工程2023年9月相比传统的卷积,G h o s t N e t1 8分为两步走,首先G h o s t N e t采用正常的卷积计算,得到C h a n n e l较少的特征图,其次利用C h e a p O p e r a t i o n得到更多的特征图,最后将不同的特征图叠加,组合成新的O u t p u t。图2为传统卷积和G h o s t N e t卷积的对比图。(a)传统卷积过程示意图(b)G h o s t N e t卷积过程示意图图2 传统卷积和G h o s t N e t卷积对比图F i g.2 C o m p a r i s o n o f c o n v e n t i o n a l c o n v o l u t i o n a n d G h o s t N e t c o n v o l u t i o n2.3上采样算子C A R A F EY O L O v 5中默认使用最近邻插值(N e a r e s),也称为零阶插值,这是最简单的插值方法,仅通过像素点的空间位置决定上采样核,没有使用特征图的语义信息,可以看作是一种“均匀”的上采样,而且感知域通常很小(最近邻11,双线性22)。针对这些问题,本文使用轻量高效的上采样算子C A R A F E,通过少量参数和计算保持轻量级功能。C A R A F E分为两个主要模块,分别是上采样核预测模块和特征重组模块。假设上采样倍率为,给定一个 形 状 为HWC的 输 入 特 征 图,C A R A F E首先利用上采样核预测模块预测上采样核,其次利用特征重组模块完成上采样,得到形状为 H WC的输出特征图1 9。2.4F o c a l-E I o U L o s sY O L O v 5使用C I o U L o s s作为B o u n d i n g B o x的损失函数,同时采用L o g i t s损失函数和二进制交叉熵(B C E)分别计算目标得分和类概率的损失。C I o U L o s s虽然考虑了边界框回归的重叠面积、中心点距离、纵横比,但是纵横比的差异不是宽高分别与其置信度的真实差异,所以有时会阻碍模型有效地优化相似性。针对这一问题,本文采用F o c a l-E I o U L o s s损失函数替换C I o U L o s s损失函数。将纵横比的损失项拆分成预测的宽高分别与最小外接框宽高的差值,加速了收敛,提高了回归精度。F o c a l-E I o U L o s s将纵横比的损失项拆分成预测的宽高分别与最小外接框宽高的差值,加速了收敛,提高了回归精度,并引入F o c a l L o s s优化边界框回归任务中的样本不平衡问题,即减少与目标框重叠较少的大量锚框对B o u n d i n g B o x回归的优化贡献,使回归过程专注于高质量锚框2 0。LE I o U损失计算公式分别如公式(1)、公式(2)、公式(3)所示:LE I o U=LI o U+Ld i s+La s p(1)LE I o U=1-I o U+2(b,bg t)(wc)2+(hc)2+2(w,wg t)(wc)2+2(h,hg t)(hc)2(2)LI o U=1-|AB|AB|(3)其中,LI o U表示I o U损失;Ld i s表示距离损失;La s p表示长宽比损失;A表示预测框;B表示真实框;I o U表示交并比;wc和hc是覆盖两个盒子的最小包围盒的宽度和高度;b和bg t分别表示预测盒和目标盒的中心点。3实验材料处理(E x p e r i m e n t a n d r e s u l t a n a l y s i s)3.1数据集获取本文使用的牛个体图像数据集于2 0 2 2年5月在甘肃省张掖市某养殖场内采集,采集设备为N i k o n D 8 1 0相机,拍摄图像分辨率为4 0 0 0 2 2 4 8像素,图像格式为J P E G。为满足在不同地点和时间条件下的检测需要,分别在生活区和休闲区(时间段为早晨、正午和傍晚)进行图像采集。期间共采集有效图像6 7 7 5幅,对图片进行背景模糊等操作,分别以C o w 1C o w 3 0对牛个体进行编号,制作了样本数据集。表1为该数据集3 0头牛个体样本信息。图3为数据集牛个体样本图像。表 1 实验数据集Tab.1 Experimental data set编号耳标标签编号图像数量/幅C o w 1WH 0 0 1 502 1 4C o w 2WH 0 9 8 512 0 5C o w 3WH 1 1 0 221 7 7C o w 4WH 1 1 1 032 2 0C o w 5WH 1 6 2 842 1 7C o w 6WH 1 8 2 252 3 6C o w 7WH 1 8 3 962 4 4C o w 8WH 1 9 0 072 2 3C o w 9WH 1 9 2 982 5 9C o w 1 0WH 1 9 4 992 3 3C o w 1 1WH 2 1 1 61 02 2 3C o w 1 2WH 2 1 1 71 11 0 0C o w 1 3WH 2 1 3 61 22 2 3C o w 1 4WH 2 1 6 41 32 2 9C o w 1 5WH 2 2 2 51 42 3 3C o w 1 6WH 2 2 2 61 52 5 5C o w 1 7WH 2 9 0 01 62 2 5C o w 1 8WH 6 6 5 31 72 0 844第 26卷第 9期刘琪伟等:基于改进 YOLOv5 的牛个体图像识别方法续表 编号耳标标签编号图像数量/幅C o w 1 9WH 6 8 5 91 82 1 4C o w 2 0WH 6 8 7 81 92 1 2C o w 2 1WH 7 0 6 42 02 3 0C o w 2 2WH 7 0 9 52 12 4 8C o w 2 3WH 7 5 1 62 22 2 0C o w 2 4WH 7 5 1 72 32 8 6C o w 2 5WH 7 5 3 92 41 9 6C o w 2 6WH 8 8 9 22 52 4 7C o w 2 7WH 9 4 5 32 63 0 2C o w 2 8WH 9 6 5 82 71 7 1C o w 2 9WH 9 8 5 82 82 9 4C o w 3 0WH 9 8 6 52 92 3 1C o w 1C o w 2C o w 3C o w 4C o w 5C o w 6C o w 7C o w 8C o w 9C o w 1 0C o w 1 1C o w 1 2C o w 1 3C o w 1 4C o w 1 5C o w 1 6C o w 1 7C o w 1 8C o w 1 9C o w 2 0C o w 2 1C o w 2 2C o w 2 3C o w 2 4C o w 2 5C o w 2 6C o w 2 7C o w 2 8C o w 2 9C o w 3 0图3 牛个体样本图像F i g.3 I m a g e s o f i n d i v i d u a l c a t t l e s a m p l e s3.2数据标注使用可视化标注工具L a b e l I m g进行数据集标注,以目标的最小外接矩形进行标记,标注文件类型为t x t格式,以Y O L O格式进行存储,存储信息包括类别代号、标注框横向的相对 中 心 坐 标x_c e n t e r、标 注 框 纵 向 的 相 对 中 心 坐 标y_c e n t e r、标注框相对宽度w、标注框相对高度h2 1。3.3数据增强为扩大自建数据的数量,采用M o s a i c操作进行数据增强。首先随机选择图像,分别进行翻转、缩放和色域变化等数据增广操作,并粘贴至与最终输出图像大小相等掩模的对应位置,其次截取包含牛脸部的区域,最后将4幅图像拼接成1幅新的图片。该操作不仅增加了数据的多样性,还丰富了图片的背景,增强了网络的鲁棒性,M o s a i c处理的训练图如图4所示。(a)原始图像(b)M o s a i c增强图像图4 M o s a i c处理的训练图F i g.4 T r a i n i n g g r a p h f o r M o s a i c p r o c e s s i n g4实验 与 结 果 分 析(E x p e r i m e n t a n d r e s u l t a n a l y s i s)4.1实验样本设置同一群体的形态相近的甘肃省张掖市某养殖场的3 0头牛进行数据集制作,得到有效数据6 7 7 5幅,包含牛在不同时间、不同地点的活动情况,采用人工方式进行牛个体图像定位与标签设定,部分标签设定如0(C o w 1)、1(C o w 2)和2(C o w 3)等3 0头牛。4.2实验评价指标不同于其他的目标检测任务,本文对于牛个体的个体识别检测仅通过准确度作为评估指标是不够的,还应该考虑模型的检测速度。因此,本文选取了精确率(P r e c i s i o n,P)、召回率(R e c a l l,R)、平均精度均值(M e a n A v e r a g e P r e c i s i o n,mA P)、参数量(P a r a m e t e r)和模型计算力(F l o p s)5个评价指标对网络模型进行评价。P用来评价模型对牛个体图像的检测准确程度,R用来评价模型检测的全面性2 2;计算公式分别如公式(4)、公式(5)所示:P=T PT P+F P(4)54软件工程2023年9月R=T PT P+F N(5)其中,T P表示将牛个体图像检测出来且检测正确的数量;F P表示将牛个体图像检测出来但检测错误的数量;F N表示牛个体图像漏检数量。A P(A v e r a g e P r e c i s i o n)代表某个类别P-R曲线下的面积,计算公式如公式(6)、公式(7):A P=10P(R)dR(6)m A P=PANC(7)其中,PA表示各个类别的平均精度,NC为总类别数。对于网络模型来说,m A P值越高,说明模型的检测性能越好。参数量的计算公式如公式(8)所示:P a r a m e t e r=(kkCi n)Co u t(8)其中,k为卷积核大小,Ci n为输入通道数,Co u t为输出通道数。4.3实验参数设置本文针对牛个体图像的识别使用的是优化的Y O L O v 5算法,为验证算法的有效性,在所有超参数、模型训练环境相关参数均保持一致的情况下,对Y O L O v 5算法与其在改良后的效果进行对比。使用的G P U为N V I D I A G e F o r c e R T X 3 0 5 0 L a p t o p G P U,C U D A版本1 1.2,P y t o r c h版本1.7.1,P y t h o n版本3.7,W i n d o w s版本W i n d o w s 1 1家庭中文版。实验中的参数设置如表2所示。表 2 实验参数设置Tab.2 Experimental parameter setting参 数数 值单次训练的数据(样本)个数(b a t c h s i z e/个)4训练最大轮次(e p o c h s/轮)1 0 0初始学习率(l r0/%)0.0 1权重衰减(w e i g h t_d e c a y/%)0.0 0 0 5动量(m o m e n t u m/%)0.9 3 7训练集、验证集、测试集分配8 1 14.4对比实验为了验证L Y-N e t模型的可靠性,将L Y-N e t与Y O L O v 5模型的训练结果进行对比,表3描述了不同网络模型占用内存大小和针对本数据集的平均识别精确率。由表3可知,Y O L O v 5的识别精确率约为9 9.5%。相比Y O L O v 5,本文模型的识别精确率约为9 9.6%,因此在牛个体图像识别率方面,本文模型有一定的优势。在模型参数方面,Y O L O v 5参数量较大,为7.2 M B。本文模型经过训练后的参数量仅为3.8 M B,因此在模型参数量方面,本文模型也有一定优势。表3还给出了本文模型与Y O L O v 5模型的模型计算力的对比结果。从结果来看,本文模型的模型计算力为8.9 B,远远小于Y O L O v 5的模型计算力,本文模型在参数量、模型计算力、精确率方面均占有一定的优势。表 3 不同模型比较Tab.3 Comparison of different models模型训练轮次/轮精确率/%召回率/%参数量/M B模型计算力/Bm A P 0.5/%Y O L O v 55 07 9.68 9.67.21 6.29 1.51 0 09 9.59 9.47.21 6.29 9.5L Y-N e t5 09 0.48 9.23.88.99 4.51 0 09 9.69 9.53.88.99 9.5 注:精确率、召回率、m A P 0.5均为近似值。如图5所示,模型训练到5 0次以后开始慢慢收敛,其中b o x_l o s s、o b j_l o s s、c l s_l o s s已经降到了较低的水平。其中,b o x_l o s s是b o u n d i n g b o x(边界框)的定位损失,也就是模型预测框与真实框的差值,差值越小,说明模型预测框越准;o b j_l o s s为置信度损失,损失越小,说明目标检测准确度越高;c l s_l o s s为分类损失,数值越小,说明分类准确度越高。总的损失函数 就 是 计 算 三 者 之 和,所 以 损 失 函 数 的 变 化 就 是b o x_l o s s、o b j_l o s s和c l s_l o s s的变化。算法的整体损失值随训练轮次迭代减少,其中检测框回归损失使用的是F o c a l-E I o U L o s s,直接最小化了目标盒和锚定盒的宽度和高度之差,这使得更快的收敛速度和更好的定位结果。(a)Y O L O v 5模型(b)L Y-N e t模型图5 不同模型的损失值曲线图F i g.5 P l o t o f l o s s v a l u e s f o r d i f f e r e n t m o d e l s64第 26卷第 9期刘琪伟等:基于改进 YOLOv5 的牛个体图像识别方法4.5消融实验为了验证经过改进模型相对于原始模型的有效性,利用验证集数据,对经过训练后获得的Y O L O v 5数据,加入G h o s t N e t的数据和C A R A F E上采样算子的数据,与经过最终改进后的L Y-N e t模型数据进行对比验证,由图6可以看出,最终改进后的模型在识别精确度上高于原模型和其他改进的模型,并且更加稳定,更早收敛,由此可以得出本文所提改进后的模型是成功的、有效的。图6 消融实验F i g.6 A b l a t i o n e x p e r i m e n t4.6模型识别结果使用训练好的L Y-N e t模型对测试集数据进行预测,精确率约为9 9.6%,召回率约为9 9.5%,该模型可有效识别出图像中牛个体的图像信息。本文模型的输出为3 0头牛个体,识别结果如表4所示。表 4 L Y-N e t模型识别结果Tab.4 LY-Net model recognition results编号耳标精确率/%召回率/%m A P0.5/%C o w 1WH 0 0 1 59 9.21 0 0.09 9.5C o w 2WH 0 9 8 59 8.81 0 0.09 9.5C o w 3WH 1 1 0 29 9.81 0 0.09 9.5C o w 4WH 1 1 1 09 9.41 0 0.09 9.5C o w 5WH 1 6 2 89 9.51 0 0.09 9.5C o w 6WH 1 8 2 21 0 0.01 0 0.09 9.5C o w 7WH 1 8 3 99 9.31 0 0.09 9.5C o w 8WH 1 9 0 09 9.31 0 0.09 9.5C o w 9WH 1 9 2 99 9.91 0 0.09 9.5C o w 1 0WH 1 9 4 99 9.21 0 0.09 9.5C o w 1 1WH 2 1 1 69 9.51 0 0.09 9.5C o w 1 2WH 2 1 1 71 0 0.09 0.89 9.5C o w 1 3WH 2 1 3 69 9.31 0 0.09 9.5C o w 1 4WH 2 1 6 41 0 0.09 8.79 9.5C o w 1 5WH 2 2 2 59 9.31 0 0.09 9.5C o w 1 6WH 2 2 2 69 9.31 0 0.09 9.5C o w 1 7WH 2 9 0 09 9.41 0 0.09 9.5C o w 1 8WH 6 6 5 39 9.91 0 0.09 9.5C o w 1 9WH 6 8 5 99 9.31 0 0.09 9.5续表 编号耳标精确率/%召回率/%m A P0.5/%C o w 2 0WH 6 8 7 89 9.31 0 0.09 9.5C o w 2 1WH 7 0 6 49 9.91 0 0.09 9.5C o w 2 2WH 7 0 9 59 9.41 0 0.09 9.5C o w 2 3WH 7 5 1 69 9.31 0 0.09 9.5C o w 2 4WH 7 5 1 79 9.41 0 0.09 9.5C o w 2 5WH 7 5 3 91 0 0.01 0 0.09 9.5C o w 2 6WH 8 8 9 21 0 0.09 6.19 9.5C o w 2 7WH 9 4 5 39 9.41 0 0.09 9.5C o w 2 8WH 9 6 5 81 0 0.09 8.79 9.5C o w 2 9WH 9 8 5 89 9.61 0 0.09 9.5C o w 3 0WH 9 8 6 59 9.91 0 0.09 9.5 由图7可以看出,本文所提出的L Y-N e t模型在迭代次数小于2 0轮时,模型的精确率、召回率不太理想。但是,随着迭代轮数的不断提升,模型的精确率不断提升且趋于稳定,从而使牛个体的检测效果提升。对Y O L O v 5进行了更换主干网络、替换损失函数等优化操作,令针对牛个体图像目标的检测效果得到提升,在1 0 0轮次的训练下,算法优化后的精确率(P)约为9 9.6%,召回率(R)约为9 9.5%,m A P0.5为9 9.5%,能较为准确地识别牛个体图像。图7 L Y-N e t模型的精确率、召回率和m A P曲线图F i g.7 P r e c i s i o n,r e c a l l r a t e a n d m A P c u r v e p l o t s o f t h e L Y-N e t m o d e l5结论(C o n c l u s i o n)本文针对传统牛个体目标检测模型存在资源占用较大、模型体积大、参数多、受限硬件条件网络收敛速度慢的问题,以Y O L O v 5网络为基础模型,设计了一个轻量级牛个体识别模型(L i g h t Y O L O N e t,L Y-N e t),并自建数据集进行验证,模型训练结果表明,在一定范围内,模型的迭代次数越多,模型的识别精确率越高,但是超过一定范围,模型的识别精确率不再增长,本文模型在运行速率、模型大小及识别时间方面均优于Y O L O v 5模型。目前,研究仍处于模型优化阶段,但为未来牧民与养殖户能够利用手机、平板电脑等移动设备进行牛个体身份识别的研究奠定了基础。(下转第5 8页)74软件工程2023年9月2 1 Q U L Q,Z HA N G Y Q,WA N G S,e t a l.S y n t h e s i z e d 7 T MR I f r o m 3 T M R I v i a d e e p l e a r n i n g i n s p a t i a l a n d w a v e-l e t d o m a i n sJ.M e d i c a l I m a g e A n a l y s i s,2 0 2 0,6 2:1 0 1 6 6 3.2 2 Y U L Q,Z H A N G Z C,L I X M,e t a l.D e e p s i n o g r a m c o m p l e-t i o n w i t h i m a g e p r i o r f o r m e t a l a r t i f a c t r e d u c t i o n i n C T i m a g e sJ.I E E E T r a n s a c t i o n s o n M e d i c a l I m a g i n g,2 0 2 1,4 0(1):2 2 8-2 3 8.作者简介:李 琳(1 9 9 7-),男,硕士生。研究领域:计算机视觉,磁共振图像重构。浦贵阳(1 9 7 7-),男,博士,高级工程师。研究领域:人工智能,智能物联。李 杨(1 9 8 6-),男,博士,讲师。研究领域:深度学习算法,医学图像处理。王树超(1 9 7 4-),男,硕士,副主任医师。研究领域:脑神经外科,磁共振图像分析。蒋明峰(1 9 7 7-),男,博士,教授。研究领域:生物医学图像处理,磁共振图像重构。(上接第4 7页)参考文献(R e f e r e n c e s)1 K UM A R S,S I N G H S K.V i s u a l a n i m a l b i o m e t r i c s:s u r v e yJ.I E T B i o m e t r i c s,2 0 1 7,6(3):1 3 9-1 5 6.2 AWA D A I.F r o m c l a s s i c a l m e t h o d s t o a n i m a l b i o m e t r i c s:a r e v i e w o n c a t t l e i d e n t i f i c a t i o n a n d t r a c k i n gJ.C o m p u t-e r s a n d E l e c t r o n i c s i n A g r i c u l t u r e,2 0 1 6,1 2 3:4 2 3-4 3 5.3 宋一凡,王娟,李建丽,等.精准化养殖模式下牛只个体识别方法综述 J.黑龙江畜牧兽医,2 0 2 1(2 2):4 8-5 3,1 4 8-