分享
健身行为的人体姿态估计及动作识别.pdf
下载文档

ID:3630783

大小:25.27MB

页数:11页

格式:PDF

时间:2024-06-26

收藏 分享赚钱
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
健身 行为 人体 姿态 估计 动作 识别
第 39 卷 第 2 期2024 年 2 月Vol.39 No.2Feb.2024液晶与显示Chinese Journal of Liquid Crystals and Displays健身行为的人体姿态估计及动作识别付惠琛1,2,高军伟1,2*,车鲁阳1,2(1.青岛大学 自动化学院,山东 青岛 266071;2.山东省工业控制技术重点实验室,山东 青岛 266071)摘要:人体姿态估计和动作识别在安防、医疗和运动等领域有着重要的应用价值。为了解决不同背景及角度下各类运动动作的人体姿态估计和动作识别问题,本文提出了一种改进的 YOLOv7-POSE 算法,并自行拍摄制作各种拍摄角度的数据集进行训练。此算法以 YOLOv7为基础,对原始网络模型添加了分类的功能,在 Backbone主干网络中引入 CA 卷积注意力机制,提升了网络在对人体骨骼关节点和动作的分类的重要特征的识别能力。用 HorNet网络结构代替原模型的 CBS 卷积核,提高了模型的人体关键点检测精度和动作分类的准确度。将 Head层的空间金字塔池化结构替换为空洞空间金字塔池化结构,提升了检测精度并且加快了模型收敛。将目标检测框的回归函数由 CIOU 替换为 EIOU,提高了坐标回归的精度。设计了两组对照实验,实验结果证明,改进后的 YOLOv7-POSE 在验证集上的 mAP 为 95.7%,相比于原始 YOLOv7算法提高了 4%,各类运动动作识别准确率显著上升,在实际推理中的关键点错检、漏检等情况明显减少,关键点位置估计误差明显降低。关键词:图像处理;关键点检测;姿态估计;注意力机制;空洞空间金字塔池化中图分类号:TP391.4 文献标识码:A doi:10.37188/CJLCD.2023-0127Human posture estimation and movement recognition in fitness behaviorFU Huichen1,2,GAO Junwei1,2*,CHE Luyang1,2(1.School of Automation,Qingdao University,Qingdao 266071,China;2.Shandong Key Laboratory of Industrial Control Technology,Qingdao 266071,China)Abstract:Human pose estimation and motion recognition have important application value in the fields of security,medical treatment and sports.In order to solve the problem of human pose estimation and motion recognition of various movements under complex background,an improved YOLOv7-POSE algorithm is proposed,and data sets of various shooting angles are made by oneself for training.Based on YOLOv7,this algorithm adds classification function to original network model.CA convolutional attention mechanism is introduced into Backbone network,which improves recognition ability of important features in the classification of human bone nodes and actions.The CBS convolution kernel of original model is replaced by HorNet network structure,which improves detection accuracy of human key points and accuracy of 文章编号:1007-2780(2024)02-0217-11收稿日期:2023-04-06;修订日期:2023-04-22.基金项目:山东省自然科学基金(No.ZR2019MF063)Supported by Shandong Provincial Natural Science Foundation(No.ZR2019MF063)*通信联系人,E-mail:第 39 卷液晶与显示action classification.The pyramidal structure of the Head layer is replaced by pyramidal structure of empty space,which improves the precision and speeds up model convergence.The regression function of target detection box is replaced by CIOU with EIOU,which improves the precision of coordinate regression.The data sets of bodybuilding movements under complex background and various shooting angles are made by self-shooting,and the comparison experiment is carried out on the self-made data set.Experimental results show that mAP of the improved Yolov7-POSE on the test set is 95.7%,4%higher than that of original YOLOv7 algorithm.The recognition accuracy of all kinds of movements increases significantly,and the detection of key point errors and omissions decreases significantly.Key words:image processing;key point detection;pose estimation;convolutional attention mechanism;atrous spatial pyramid pooling1 引言人体姿态估计和动作识别在社会安防、医疗防护和运动健身等领域有重要的应用价值1-2。在安防监控领域,可以帮助提醒潜在的犯罪行为或危险情况,在捕捉到危险事故时可以及时给出警示以防止事态恶化,同时极大地减少监控人员的工作量。在医疗保健领域3-4,可以在患者康复过程中给予帮助,并在患者发生跌倒等意外情况时及时检测和预警,极大地缩短获得医疗救护的时间,尽可能地保障人们的生命安全。在运动健身领域,可以帮助识别动作,提取动作特征,进行动作评估和指导,从而帮助改善人们的运动姿态,提高运动效果以及防止因运动姿势错误而产生的运动伤害5-7。早期的人体姿态估计主要采用模板匹配的方法,通过建立不同姿态的模板与检测目标进行对比,分析两者特征的异同,推断检测目标中人体骨骼关节点的位置8-9。随着深度学习的发展,卷积神经网络被广泛运用到目标检测和姿态估计问题中10-13,其中又分为基于概率热力图和坐标点回归这两种方法。基于概率热力图的方法是对检测图像中的每一个像素点用高斯分布的叠加进行概率估计,将原始图像编码成概率分布热力图,在热力图中越是符合关键点特征的位置其概率值越高。随后将概率分布热力图解码成原始检测图像,得到原始图像中的骨骼关节点的空间坐标,其中又分为自低向上和自顶向下两种方法14。基于坐标点回归的方法是直接在原始目标图片上学习目标特征,直接得到目标的骨骼关键点的位置。文献 15 采用了自底向上的 openpose网络模型,采用了 MobileNets 轻量化网络,使模型能够快速地检测宇航员的操作姿态。虽然检测计算速度较快,但在实际应用中,自底向上的方法受复杂的环境和遮挡的影响较大。文献 16采用了自顶向下的 alphapose模型,采用了 TrackNet算法评估球员的运动状态。虽然检测的精度较高,但是计算量过高,检测时间较长,难以做到实时检测。本文针对复杂的健身动作识别,采用基于坐标点回归的 YOLOv7-POSE 算法作为框架,在原本只有姿态估计功能的网络中加入了动作分类的功能,并引入 CA 注意力机制,将通道注意力沿两个空间方向分解并聚合特征,有效地强化了网络对人体动作特征的学习。引入了HorNet 网络结构替代原模型中的 CBS 卷积核,通过门控卷积和递归结构实现特征的空间交互,在减少计算量的同时提升检测性能。将主干网络中的空间金字塔池化结构替换为空洞空间金字塔池化结构,在提升识别精度的同时加快了收敛速度。将模型中目标检测部分的 CIOU损失函数更改为 EIOU 损失函数,将 CIOU 中的预测框的长宽比损失项拆分为预测框与锚框长框的差值,加速了损失收敛并提高了坐标回归的精度。2 主干网络及结构改进2.1YOLO-POSE网络不同于基于概率热力图的方法,YOLO-POSE省略了将原始图像编码成热力分布图的步骤,直接端对端地训练模型,大幅提升了训练和推理的速度。将人物目标检测和人体关键点估计在同218第 2 期付惠琛,等:健身行为的人体姿态估计及动作识别一个框架中进行组合,采用了多尺度预测的策略,将一个人物的所有关键点与目标检测的锚框相关联,在完成姿态估计任务的同时不引入大量的计算量。其网络结构如图 1所示。YOLOv7-POSE的主要网络结构由Backbone主干网络和 Head区组成,最基本的卷积核为 CBS卷积核。多个基础的 CBS 卷积构成了高效聚合网络 ELAN 结构。ELAN 结构通过在输入和输出端之间添加短路径的连接以及对网络层权重的调整,能够控制梯度路径的长短,从而保留更多的特征信息,从输入的图片中提取出重要的特征,能够提高训练效率,加快收敛速度。图 2(a)和图2(b)分别是输入ELAN结构的图像以及ELAN网络结构提取的部分特征图。Backbone层输入的信息经由Head层中PANet网络融合各个尺度的特征,最后每个 Head 层的输出会连接两个解耦头用来预测人物目标框和人体关键点,其输出结果为人体目标以及每个人体上的 17个关键点,具体部位如图 3所示。每个检测目标框由锚点横坐标 Cx、锚点纵坐标 Cy、预测框的宽 W、预测框的高 H 以及检测框置信度 boxconf和类别置信度 classconf六个数据所确图 1YOLOv7-POSE结构图Fig.1YOLOv7-POSE structure diagram图 2ELAN特征提取图Fig.2Extraction diagram of ELAN feature图 3YOLOv7-POSE的 17个人体关键点Fig.317 key points of the human bod 有 of YOLOv7-POSE output 219第 39 卷液晶与显示定。每个关键点由横坐标 Kix、纵坐标 Kiy和置信度 Kiconf三个数据元素所确定,因此网络对每个目标人物,目标框检测头要预测6个元素,关键点检测头要预测 51个元素,共需要预测 57个元素,如式(1)所示:V=Cx,Cy,W,H,boxconf,classconf,K1x,K1y,K1conf,Knx,KnyKnconf.(1)2.2CA注意力机制CA 注意力(Coordinate Attention)的结构如图 4 所示。与传统通道注意力机制不同,CA 注意力将通道注意力沿两个空间方向分解成两个一维特征,一个方向关注特征的通道间的信息,另一个方向关注特征的位置信息17。SE(Squeeze-and-Excitation)等 传 统 的 注 意力采用了全局池化的方法获取通道关系信息,但是难以获取位置信息18,针对这种情况,CA 注意力机制分别使用尺寸为(H,1)和(1,W)的两个池化核将输入信息 x沿横纵坐标方向对每个通道进行编码,将输入量进行分解成两个一维特征 zhc和 zwc,得到的第 c 维的特征输出结果如式(2)和式(3)所示。zhc(h)=1W0 i Wxc(h,i),(2)zwc(w)=1H0 j Hxc(j,w).(3)随后将分解后的特征输出进行连接组合成特征 zhc,zwc,并用尺寸为 1的卷积函数 F1对其进行变换,并用非线性激活函数 对其进行非线性变换,得到的输出中间特征 f RC/r(H+W)同时包含了横纵两个方向的空间信息,如式(4)所示。f=(F1(zh,zw).(4)随后将输出的中间特征 f分别在横纵两个方向上分解,得到两个独立的中间特征 f h和 f w,并分别使用一个 11 的卷积和 sigmiod 激活函数 进行变换使其维度与最初的输入相等,从而得到特征 gh和 gw,如式(5)和式(6)所示。gh=(Fh(fh),(5)gw=(Fw(fw).(6)最后将上一步的输出 gh和 gw合并最终得到了 CA注意力机制的输出,如式(7)所示。yc(i,j)=xc(i,j)ghc(i)gwc(j).(7)通过对通道和位置特征的关注,CA 注意力能加强网络对特征的学习,提高检测精度,同时参数量较小,不会影响模型的推理速度。2.3HorNet网络HorNet 网络借鉴了 Transformer 的动态权重、长距离建模以及高阶空间交互等特点19,采用了高阶的门控卷积以及递归设计来实现高阶空间交互,从而强化了网络的模型容量,获得了与 Transformer 相 似 的 自 适 应 空 间 混 合 能 力。HorNet的引入使得网络在不增加额外计算量的情况下获得精度提升,因此本文用 HorNet 代替YOLOv7-POSE 中的 CBS 卷积核,HorNet 结构如图 5所示。图 5 左侧为门控卷积 GnConv,其内部运算操作包括卷积、线性投影以及元素积,其输入输出关系如式(8)所示,其中 x、y分别为门控卷积的输入输出特征。首先将输入 x进行线性投影运算得到 T0、P0,将 P0做卷积运算并与 T0进行点积运算得到 T1从而完成一阶空间交互。THW C0,PHW C0=(x)RHW 2C,T1=f()P0T0 RHW C,y=()T1 RHW C.(8)高阶空间交互与一阶交互类似,首先对输入x进行线性投影,求得投影特征 T0和 P如式(9)所示,随后将投影特征依次送进门控卷积中进行递图 4CA注意力机制结构图Fig.4Structure diagram of CA attention mechanism220第 2 期付惠琛,等:健身行为的人体姿态估计及动作识别归运算,如式(10)所示,并通过将每次的输出特征缩小 a倍来平缓训练过程。式(10)中的gk是维度映射函数,能够保证空间交互过程中的维度始终相等,gk函数如式(11)所示。THW C00,PHW C00,PHW Cn-1n-1=in(x)RHW()C0+0 k n-1Ck,(9)Tk+1=fk(Pk)gk(Tk)/,k=0,1,n-1,(10)gk=I dentity,k=0,Linear()Ck-1,Ck,1kn-1.(11)最终的递归输出 Pn会再次进行线性投影从而得到 GnConv 的结果,同时对每一阶的通道数进行约束,如式(12)所示,来保证高阶空间的交互运算不会带来过多计算量。以此来确保总运算量是有界的,其上界如式(13)所示。Ck=C2n-k-10 k n-1,(12)FLOPs(gnConv)s)p1.(20)平均准确率均值(mean Average Precision,mAP)通过给定关键点不同的阈值,计算不同阈值情况下对应的AP并进行平均计算。对于动作分类任务,本文沿用了混淆矩阵作为评估指标。混淆矩阵是分类任务中的常用指标,矩阵中元素表示了各类别的检测分类情况。矩阵中每列的类别为网络对各个类别的预测分类,每行的类别表示数据集中的正确类别。每列表 1数据集中的目标分类及数量Tab.1Classification and number of targets in the data setDefect typePush upLying Leg RaiseSit in MeditationGlute BridgeSquattingLeg PressingTraining set2 2881 8602 2922 4322 2102 064Validation set286232286304276258Test set286232286304276258Total2 8602 3242 8643 0402 7622 850222第 2 期付惠琛,等:健身行为的人体姿态估计及动作识别中的元素表示网络在分类预测中,将数据集中真实的各个类别分类到该列对应的类别的数量;每行中的元素表示数据集中该行的真实的类别样本在网络分类预测中被分类到各个类别的数量。3.4实验设计为了验证改进后的算法对人体姿态估计以及动作分类的检测效果及改进部分对性能的提升情况,本文进行了 4组对照实验。第一组实验用热力图对引入 CA 注意力机制前后的模型进行检验,验证CA注意力机制的效果。第二组实验将 HorNET 结构的模型复杂度与原始模型及 Swin Transfomer 结构进行对比,验证 HorNET 是否优于原始卷积及 Swin Transfomer结构。第三组进行消融实验,把本文算法逐个剔除各个改进部分并依次进行训练,并将训练后的 mAP指标与原始算法、本文改进算法以及数据集格式相同的主流算法 High-Resolution Net 进行对照,验证各个改进部分对姿态估计性能的提升效果。第四组实验首先比较改进后的算法与原始算法的混淆矩阵,验证在分类功能上的提升效果;随后在验证集上采用随机抽样检测的方法,抽取验证集中的图像进行实际检测效果的比较。3.5损失函数收敛对比改进前后的 YOLOv7-POSE 的验证集损失函数对比如图 7 所示。图 7 中曲线 A 为原始的YOLOv7-POSE 损失函数,曲线 B 为改进后的损失函数。从图 7 中可以看出,改进前模型的损失函数在初始约 20 轮的曲线下降较快,且曲线波动较大。在训练 60 轮之后,波动趋于平缓,损失函数逐渐减小。在训练约 100 轮时,损失函数逐渐稳定,模型逐渐收敛。而改进后模型的损失函数在训练约 50 轮趋于平缓,在训练约 80 轮时损失函数逐渐稳定。由此可见,改进后算法的损 失 函 数 收 敛 更 快,且 收 敛 后 损 失 函 数 的 值更低。3.6对比实验为 了 验 证 CA 注 意 力 的 效 果,采 用 Grad-CAM 可视化结构对引入 CA 注意力前后的模型进行对比验证,对比结果如图 8 所示。图 8(a)和图 8(b)分别是引入 CA 注意力前后的模型验证图。可以看出,引入了 CA 注意力后,模型能更好地聚焦于人体区域。各个模型的模型复杂程度如表 2 所示,由表中数据可得,HorNet网络结构的引入提升了模型精度,同时降低了模型的参数量以及计算量。而引入 Swin Transfomer 结构之后,虽然能够提升模型精度,但模型的大小、参数以及计算量大幅提升,因而在本检测任务中,HorNet结构优于原始结构以及 Swin Transfomer结构。本文通过对原始模型和各类改进方法的检测指标以及数据集格式相同的 High-Resolution Net算法进行对比来设计了消融实验,来验证改进部分对算法性能的提升效果,表 3 为引入不同表 2不同改进的模型复杂度Tab.2Different improved model complexityModelYOLOv7-POSEHorNetTransfomerSize/MB153153211Parameters/M8.038.018.9FLOPs/G102.399.4153.1mAP/%91.793.993.6图 7损失函数对比Fig.7Example of dataset images图 8特征关注对比图Fig.8Feature focus contrast diagram223第 39 卷液晶与显示改进方法后算法的检测指标。由表 3 数据可得,YOLOv7-POSE-E 引入表中所有改进项,mAP值达到 95.7%,比 High-Resolution Net 高 4.2%,比原始 YOLOv7-POSE 提高了 4%。YOLOv7-POSE-A 在 YOLOv7-POSE-E 的基础上去掉了CA 注意力机制,mAP 值为 94.8%,比原始 YOLOv7-POSE-E 下降了 1.3%。YOLOv7-POSE-B在 YOLOv7-POSE-E 的基础上去掉了 HorNet结构,mAP 值为 93.6%,比 YOLOv7-POSE-E 下降了 2.1%。YOLOv7-POSE-C 在 YOLOv7-POSE-E的基础上去掉了空洞空间金字塔池化,mAP值为 94.2%,比 YOLOv7-POSE-E 下 降 了 1.5%。YOLOv7-POSE-D 在 YOLOv7-POSE-E 的基础上去掉了 EIOU 损失函数,mAP 值为 95.4%,比YOLOv7-POSE-E下降了 0.2%。可以得出引入的各个改进项能带来精度的提升。3.7改进前后网络的动作分类性能对比改进前后网络的混淆矩阵分别由图 9、图 10所示。对比可见,改进后网络的躺姿抬腿类别的分类准确率提高了 15%,臀桥类别的分类准确率提高了13%,压腿类别的分类准确率提高了13%。改进后的动作分类性能显著提升。训练结束后,将改进前后的模型在测试集上推理测试,测试集中也包含了各类复杂背景下不同角度拍摄的动作,部分测试集中的结果如图 11和图12所示。图11为测试集在增加了分类功能的原始网络模型上的部分推理结果,图 12为测试集在改进后网络模型上的部分推理结果。由图11(a)和图 12(a)对比可得,改进前的模型在侧面躺姿抬腿图中的左髋、左膝和左踝 3 个关键点处的偏差较大;而改进后模型对上述 3 点的估计偏差明显减小,且算法置信度有所提升。由图 11(b)和图 12(b)对比可得,改进前模型在侧面臀桥图上漏检了左肩和右手腕处的关键点;而改进后模型对该图中的左肩和右手腕处关键点正确地进行表 3不同改进方法的性能指标Tab.3Performance index of different improvement methodsModelHigh-Resolution NetYOLOv7-POSEYOLOv7-POSE-AYOLOv7-POSE-BYOLOv7-POSE-CYOLOv7-POSE-DYOLOv7-POSE-ECA+HorNet+ASPP+EIOU+mAP/%90.591.794.893.694.295.495.7图 10改进后网络的混淆矩阵Fig.10Confusion matrix of the improved network图 9原始网络的混淆矩阵Fig.9Confusion matrix of original network224第 2 期付惠琛,等:健身行为的人体姿态估计及动作识别了估计。由图 11(c)和图 12(c)对比可得,改进前模型在上侧面臀桥图中整体关键点估计偏差较大,且把改图错误的分到了躺姿抬腿类别中;而改进后模型对该图中的关键点估计整体偏差较低,并将其正确地分类为臀桥类别,且置信度较高。由图 11(d)和图 12(d)对比可得,改进前模型在侧面俯卧撑图中对左膝和左踝两处关键点的估计偏差较大,且整体置信度偏低;而改进后模型对该图中所有关键点正确地进行了估计且置信度较高。由此可见,改进后模型对关键点估计和分类的效果有所提升。尤其对于臀桥类别,改进前模型的关键点估计偏差较高,分类精度较低,而在改进后模型的关键点估计和动作分类情况均有较大提升。4 结论针对健身行为的人体姿态估计和动作识别问题,本文提出了一种改进的 YOLOv7-POSE姿态估计及动作识别算法,通过自行拍摄不同环境下各种角度的健身动作制作了数据集。在原始YOLOv7-POSE 网络中添加了分类功能,并引入了 CA 注意力机制,沿两个空间方向分解了通道注意力并对其进行聚合特征,强化了网络模型对人体动作特征的学习。引入了 HorNet结构替代原模型中的 CBS 卷积核,强化了网络的模型容量,减少了网络模型的计算量并提高了关键点的估计准确率和动作识别。根据人体姿态估计要同时检测人体大目标和估计关节点小目标的任务,将主干网络中的空间金字塔池化结构替换为空洞空间金字塔池化结构,在不降低识别精度的同时加快了收敛速度和识别速度。将模型中目标检测部分的 CIOU 损失函数更改为 EIOU 损失函数,加速了损失收敛并提高了坐标回归的精度。改进后网络相比于原始网络,mAP 值提高了 4%,躺姿抬腿类别的分类准确率提高了 15%,臀桥类别的分类准确率提高了 13%,压腿类别的分类准确率提高了 13%,关键点错检、漏检的情况显著减少。图 11原始网络模型的识别效果Fig.11Recognition effect of original network model图 12改进后网络模型的识别效果Fig.12Recognition effect of improved network model225第 39 卷液晶与显示参 考 文 献:1 FROHLICH R,TAMAS L,KATO Z.Absolute pose estimation of central cameras using planar regions J.IEEE Transactions on Pattern Analysis and Machine Intelligence,2021,43(2):377-391.2 CHEN Q H,ZHANG C Y,LIU W W,et al.SHPD:surveillance human pose dataset and performance evaluation for coarse-grained pose estimation C.2018 25th IEEE International Conference on Image Processing(ICIP).Athens,Greece:IEEE,2018:4088-4092.3 CHEN T L,FANG C,SHEN X H,et al.Anatomy-aware 3D human pose estimation with bone-based pose decomposition J.IEEE Transactions on Circuits and Systems for Video Technology,2022,32(1):198-209.4 XU W,XIANG D H,WANG G T,et al.Multiview video-based 3-D pose estimation of patients in computer-assisted rehabilitation environment(CAREN)J.IEEE Transactions on Human-Machine Systems,2022,52(2):196-206.5 WU Q T,WU Y F,ZHANG Y,et al.A local-global estimator based on large kernel CNN and transformer for human pose estimation and running pose measurement J.IEEE Transactions on Instrumentation and Measurement,2022,71:5019612.6 DSOUZA G,MAURYA D,PATEL A.Smart gym trainer using human pose estimation C.2020 IEEE International Conference for Innovation in Technology(INOCON).Bangluru,India:IEEE,2020:1-4.7 KATO N,HONDA H,UCHIDA Y.Leveraging temporal joint depths for improving 3D human pose estimation in video C.2020 IEEE 9th Global Conference on Consumer Electronics(GCCE).Kobe,Japan:IEEE,2020:130-131.8 NGUYEN V N,HU Y L,XIAO Y,et al.Templates for 3D object pose estimation revisited:generalization to new objects and robustness to occlusions C.2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).New Orleans,LA,USA:IEEE,2022:6761-6770,.9 YAN J H,SHEN S H,LI Y,et al.An optimization based framework for human pose estimation J.IEEE Signal Processing Letters,2010,17(8):766-769.10 吴海滨,魏喜盈,刘美红,等.结合空洞卷积和迁移学习改进 YOLOv4的 X 光安检危险品检测 J.中国光学,2021,14(6):1417-1425.WU H B,WEI X Y,LIU M H,et al.Improved YOLOv4 for dangerous goods detection in X-ray inspection combined with atrous convolution and transfer learning J.Chinese Optics,2021,14(6):1417-1425.(in Chinese)11 林依林,林珊玲,林志贤.基于级联特征和图卷积的三维手部姿态估计算法 J.液晶与显示,2022,37(6):736-745.LIN Y L,LIN S L,LIN Z X.3D hand pose estimation algorithm based on cascaded features and graph convolution J.Chinese Journal of Liquid Crystals and Displays,2022,37(6):736-745.(in Chinese)12 林晋钢,李东年,陈成军,等.基于像素投票的人手全局姿态估计 J.光学 精密工程,2022,30(19):2379-2389.LIN J G,LI D N,CHEN C J,et al.Global hand pose estimation based on pixel voting J.Optics and Precision Engineering,2022,30(19):2379-2389.(in Chinese)13 毋宁,王鹏,李晓艳,等.基于自适应特征感知的轻量化人体姿态估计 J.液晶与显示,2023,38(8):1107-1117.WU N,WANG P,LI X Y,et al.Lightweight human pose estimation based on adaptive feature sensing J.Chinese Journal of Liquid Crystals and Displays,2023,38(8):1107-1117.(in Chinese)14 MUNEA T L,JEMBRE Y Z,WELDEGEBRIEL H T,et al.The progress of human pose estimation:a survey and taxonomy of models applied in 2D human pose estimation J.IEEE Access,2020,8:133330-133348.15 WU E Q,TANG Z R,XIONG P,et al.ROpenPose:a rapider OpenPose model for astronaut operation attitude detection J.IEEE Transactions on Industrial Electronics,2022,69(1):1043-1052.16 DING N,TAKEDA K,FUJII K.Deep reinforcement learning in a racket sport for player evaluation with technical and tactical contexts J.IEEE Access,2022,10:54764-54772.17 HOU Q B,ZHOU D Q,FENG J S.Coordinate attention for efficient mobile network design C.2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Nashville,TN,USA:IEEE,2021:226第 2 期付惠琛,等:健身行为的人体姿态估计及动作识别13708-13717.18 HU J,SHEN L,ALBANIE S,et al.Squeeze-and-excitation networks J.IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(8):2011-2023.19 RAO Y M,ZHAO W L,TANG Y S,et al.HorNet:efficient high-order spatial interactions with recursive gated convolutions C/Proceedings of the 36th International Conference on Neural Information Processing Systems.New Orleans,LA,USA:NeurIPS,2022.20 TANG Y L,GONG W G,CHEN X,et al.Deep inception-residual Laplacian pyramid networks for accurate single-image super-resolution J.IEEE Transactions on Neural Networks and Learning Systems,2020,31(5):1514-1528.21 CHEN L

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开