基于
改进
EfficientNet
木材
识别
研究
第 39 卷 第 4 期2023 年 7 月森 林 工 程FOREST ENGINEERINGVol.39 No.4Jul.,2023doi:10.3969/j.issn.1006-8023.2023.04.011基于改进 EfficientNet 的木材识别研究戴天虹,翟冰(东北林业大学 机电工程学院,哈尔滨 150040)摘 要:木材是一种常见的可再生资源,不同品种的木材有着不同的用途和商业价值。传统的木材分类工作主要依靠人工完成,工作效率较低。为提高木材识别效率,提出一种基于改进 EfficientNet 的木材识别方法。该方法以 EfficientNet 作为基准模型,采用大核注意力模块代替部分移动翻转瓶颈卷积(Mobile Inverted Bottleneck Convolution,MBConv)模块中的压缩激励网络(squeeze-and-excitation networks,SENet),联合 2 种注意力机制使网络能更有效地提取木材细粒度信息。训练过程中引入渐进式学习策略,采用不同尺寸大小的图像和不同丢弃概率的 Dropout 层进行训练,进一步提升模型训练速度和识别准确率。试验结果表明,改进后的 EfficientNet 模型识别准确率达到 99.83%,相比于未改进的 EfficientNet 模型提高了 0.49%,且模型参数仅 6.16 MB。该研究的模型能够很好地识别木材种类,为移动端部署木材种类识别模型提供参考。关键词:木材识别;EfficientNet;大核注意力;细粒度信息;渐进式学习中图分类号:TP391.4 文献标识码:A 文章编号:1006-8023(2023)04-0093-08 Wood Recognition Research Based on Improved EfficientNetDAI Tianhong,ZHAI Bing(College of Mechanical and Electrical Engineering,Northeast Forestry University,Harbin 150040,China)Abstract:Wood is a common renewable resource.Different kinds of wood have different uses and commercial values.The tradi-tional wood classification work mainly depends on manual work,and the work efficiency is low.In order to improve the efficiency of wood recognition,a wood recognition method based on improved EfficientNet is proposed.In this method,EfficientNet is used as the benchmark model,and the large kernel attention module is used to replace part of squeeze-and-excitation networks(SENet)in Mobile Inverted Bottleneck Convolution(MBconv),and combines the two attention mechanisms to enable the network to extract wood fine grain information more effectively.Progressive learning strategy is introduced in the training process,and images of different sizes and Dropout layers with different discarding probabilities are used for training,which further improves the training speed and recognition ac-curacy of the model.The experimental results show that the recognition accuracy of the improved EfficientNet model can reach 99.83%,which is 0.49%higher than that of the unimproved EfficientNet model,and the model parameters are only 6.16 MB.The proposed model can identify wood species well,and can provide reference for the deployment of wood species identification model in mobile terminal.Keywords:Wood recognition;EfficientNet;large kernel attention;fine-grained information;progressive learning收稿日期:2022-10-22基金项目:中央高校基本科研业务费专项资金资助(2572019CP17);黑龙江省自然科学基金项目(C201414);哈尔滨市科技创新人才项目(2014RFXXJ086)第一作者简介:戴天虹,教授,硕士生导师。研究方向为木材缺陷检测、图像处理、无线传感器网络路由协议及汇聚节点选址算法等。E-mail:th_2000 引文格式:戴天虹,翟冰.基于改进 EfficientNet 的木材识别研究J.森林工程,2023,39(4):93-100.DAI T H,ZHAI B.Wood recognition research based on im-proved EfficientNetJ.Forest Engineering,2023,39(4):93-100.0 引言木材是社会生产活动中重要的物质材料,与人们的生活息息相关。不同种类的木材具有不同的理化性质,从而导致其用途和商业价值各不相同。正确地识别木材类别,对于木材合理利用、质量评定和公平论价等都具有重要意义1。早期的木材分类工作主要依靠人工根据木材物理性质的直观表征,通过观察对比完成,这需要一定的专业经验知识,且容易出现误判,其效率较低。随着计算机视觉技术的发展,木材种类自动识别技术主要包括 2 类方法,一类是基于传统的机器学习的识别方法,另一类是基于深度学习的识别方法。基于传统的机器学习的识别方法需要人工提取图像特征,例如颜色和纹理等,再运用机器学习的方法进行识别。Wang 等2采用灰度共生矩阵(Grey Level Co-occurrence Matrix,GLCM)进行特征森 林 工 程第 39 卷提取,通过支持向量机(Support Vector Machine,SVM)实现分类,在 24 种木材的 480 个样本的数据采集达到了 91.7%的识别准确率。戴天虹等3利用 RGB 图像中 3 个颜色分量的颜色矩信息以及图片的均值和方差构建了 11 个特征向量对图像进行处理和分级。王克奇等4将图像从 RGB 空间转换到 Lab颜色空间,并利用模拟退火算法进行特征选择,最后结合 BP(Back Propagation)神经网络和 K 最近邻(K-Nearest Neighbor,KNN)2 种分类方法实现木材分类。Sugiarto 等5利用方向梯度直方图(Histogram of Oriented Gradient,HOG)提取木材的纹理,然后采用支持向量机进行识别。赵鹏等6对高光谱图像进行降维处理并采用非下采样轮廓波 变 换(Nonsub Sampled Contourlet Transform,NSCT)实现图像融合,再对融合图像使用改进的基本灰度光环矩阵(Improved-Basic Gray Level Aura Matrix,I-BGLAM)提取其纹理特征,同时将高光谱图像的全波段求均并进行光滑处理得到光谱特征,最后融合纹理特征和光谱特征并利用极限学习机(Extreme Learning Machine,ELM)实现分类。传统的机器学习方法在特征提取阶段效率较低,并且所提取的特征相对于样本数据的代表性将直接影响最终识别的效果。近年来,深度学习发展非常迅速,卷积神经网络(Convolutional Neural Networks,CNN)作为深度学习的重要组成部分,其显著的特征提取性能使他受到广泛关注7-12。Gao 等13提出一种结合卷积神经网络和注意力机制的模型对木材缺陷进行分类。Yang 等14采用在 ImageNet 预训练过的 VGG19 对 25 种木材进行特征提取和分类,识别准确率达到 93.63%。Liu 等15提出一种基于分割混洗残差(Split-Shuffle-Residual,SSR)的CNN,利用 SSR 模块在通道维度进行分割和洗牌操作,并通过与残差结构相结合减少了计算消耗成本,对橡胶木板的分类准确率达到了 94.86%。综上,为进一步提高木材图像识别准确率和速度,本研究提出一种基于改进 EfficientNet 的木材识别方法,通过消融试验证明该方法的有效性,为未来更高效地开展木材识别工作以及移动端设备的模型部署提供技术与方法。1 改进的 EfficientNet 模型1.1 EfficientNet 模型以往的卷积神经网络模型通常通过调整图像输入分辨率、网络的深度和通道宽度 3 个参数中的一个来优化模型性能,而这种优化方法需要手动调整网络模型,这使得网络设计的难度增大,且需要消耗更多的资源成本。Tan 等16提出了一种复合缩放方法对网络的宽度、深度和分辨率进行统一缩放调整,复合缩放公式如式(1)所示。depth:d=width:w=resolution:r=s.t.22 2 1,1,1。(1)式中:d、w、r 分别表示网络的深度、宽度和输入图像的分辨率;表示复合缩放系数;、表示对应的缩放基数。通过固定=1,并基于式(1)中的限制条件,利用网格搜索得到=1.2,=1.1,=1.15,至此得到EfficientNetB0 模型。以 EfficientNetB0 为基线模型,即固定、的值,对 取不同的值便可得到 Ef-ficientNetB1B7。因此,EfficientNet 共包括 8 个系列网络,即 EfficientNetB0B7,而 EfficientNetB0 作为基线模型他的参数量最小,运行速度最快,因此本研究选择 EfficientNetB0 为基准模型进行改进。EfficientNetB0 模型的结构如图 1 所示,由 2 个卷积层、16 个移动翻转瓶颈卷积(Mobile Inverted Bottleneck Convolution,MBConv)模块、1 个全局平均池化层和 1 个全连接层(Fully Connected Layers,FC)组成。其中,输入图像的尺寸大小为 2242243,首先通过 Conv33 进行升维操作得到 11211232 的特征图,然后利用一系列 MBConv 模块对特征图进行运算处理得到 77320 的特征图,最后利用Conv11、平均池化和全连接层实现输出结果。MBConv 模块结构如图 2 所示,主要由普通卷积、深度卷积(Depthwise Convolution)(包括 BN 和Swish)、SE(Squeeze-and-Excitation)模块和 Dropout层组成。其中深度卷积是逐通道的卷积运算,即1 个卷积核负责 1 个通道。而 11 的普通卷积也称为逐点卷积,可以在通道维度上对深度卷积产生的特征图进行加权运算,两者结合可有效降低模型的计算量与参数量。SE 模块是一种注意力机制,可获取不同通道的权重,通过权重与原始特征相乘得到加权后的输出特征,有助于模型在通道维度上对重要的特征信息产生更多的关注。49第 4 期戴天虹,等:基于改进 EfficientNet 的木材识别研究282840282880282880Stage?1Stage?2Stage?3Stage?4Stage?4Stage?5Stage?5Stage?5Stage?5Stage?6Stage?6Stage?6Stage?7Stage?7Stage?7Stage?7Stage?8Stage?9Stage?9224224311211232112112165656245656242828402828802828801414112141411214141127719277192771927719277320771?280Conv?33MBConv1?33MBConv6?33MBConv6?33MBConv6?55MBConv6?55MBConv6?33MBConv6?33MBConv6?33MBConv6?55MBConv6?55MBConv6?55MBConv6?55MBConv6?55MBConv6?55MBConv6?55MBConv6?33Conv?11Pooling?&?FC图 1 EfficientNetB0 模型Fig.1 EfficientNetB0 model输入特征图BNSwishBNSwishSwishSigmoidSENetBNFC1Conv?11FC2Conv?11DropoutGlobalAveragePoolingDepthwiseConv?33输出特征图图 2 MBConv 模块Fig.2 MBConv module1.2 模型改进近年来,注意力机制在计算机视觉中发挥着越来越重要的作用,可以看作是一个基于输入特征的自适应选择过程。计算机视觉中的注意力可分为通道注意力、空间注意力、时间注意力和分支注意力 4 个基本类别17,不同的注意力在视觉任务中有着不同的效果。除此之外,自注意机制18-19是另外一种特殊的注意力机制,起源于自然语言处理(Nat-ural Language Processing,NLP),由于其拥有捕获长距离依赖关系和自适应性的优点,逐渐在计算机视觉领域得到了广泛应用。大核注意力(Large Kernel Attention,LKA)20具有卷积操作和自注意力机制的优势,既兼顾了局部上下文信息和长距离依赖关系,又避免了自注意力机制忽略通道维度的适应性等缺点。大核注意力由 3 个部分组成:深度卷积、深度膨胀卷积(Depth-wise dilation convolution)和逐点卷积(Pointwise con-volution)。具体地说,1 个 KK 的卷积可以分解为1 个K/dK/d的深度膨胀卷积(d 为膨胀率,表示向上取整),1 个(2d-1)(2d-1)的深度卷积和 1 个 11 的普通卷积,因此连接上述分解后的模块便可组成大核注意力模块。特征图通过大核注意力模块可以计算 1 个像素点的重要性并生成注意力图。LKA 模块结构如图 3 所示。DepthwiseConvDepthwiseDilationConvConv11图 3 大核注意力模块Fig.3 Large kernel attention moduleLKA 模块可以描述为下式Attention=Conv11(DW-D-Conv(DW-Conv(F)。(2)Output=AttentionF。(3)式中:DW-D-Conv 表示深度膨胀卷积;DW-Conv 表示深度卷积;F RCHW表示输入特征图,C 为通道个数,H 为高度,W 为宽度;AttentionRCHW是注意力图,注意力图中的值表示每个特征元素的重要性表示元素相乘。LKA 能兼顾长距离依赖关系和局部上下文信息的同时实现通道维度的适应性,进一步优化模型性能。使用 LKA 模块代替 SE 模块得到改进后的LKA-MBConv 模块,其结构如图 4 所示(试验中 K=59森 林 工 程第 39 卷21,d=3)。由于 LKA 模块的参数量相比于 SE 模块较多且 2 种注意力机制各有其特点,因此不明显增加模型参数量以及联合 2 种注意力机制的作用使模型可以更有效地提取图像中的细粒度信息,仅针对含有 MBConv 模块的阶段(Stage)中的第一个MBConv 模块采用 LKA-MBConv 模块代替,最终改进后的 EfficientNetB0 如图 5 所示。BNSwishBNSwishDepthwiseDilate?Conv77Dilation=3LKABNConv?11Conv?11DropoutDepthwiseConv?55DepthwiseConv?33输出特征图Conv?11图 4 改进后的 LKA-MBConv 模块Fig.4 Improved LKA-MBConv module282840282880282880Stage?1Stage?2Stage?3Stage?4Stage?4Stage?5Stage?5Stage?5Stage?5Stage?6Stage?6Stage?6Stage?7Stage?7Stage?7Stage?7Stage?8Stage?9Stage?9224224311211232112112165656245656242828402828801414112141411214141127719277192771927719277320771?280Conv?33LKA-MBConv1?33MBConv6?33MBConv6?55MBConv6?33MBConv6?33MBConv6?55MBConv6?55MBConv6?55MBConv6?55MBConv6?55Conv?11Pooling?&?FCLKA-MBConv6?33LKA-MBConv6?55LKA-MBConv6?33LKA-MBConv6?55LKA-MBConv6?55LKA-MBConv6?33图 5 改进后的 EfficientNetB0 模型Fig.5 Improved EfficientNetB0 model1.3 渐进式学习策略图像分辨率的大小对训练效率起着重要的作用。在训练过程仅仅单一地改变图像分辨率的大小可能会导致模型准确率的下降。Tan 等21提出渐进式学习策略,即当采用不同分辨率大小的图像对模型进行训练时,也需要自适应地调整正则化程度以匹配当前图像分辨率,而非采用固定的正则化手段。具体地说,当采用较小分辨率的图像时,其包含的细粒度信息也会缩减,需要较弱的正则化手段促进模型快速学习到简单的特征表示,若此时采用较强的正则化手段则会进一步弱化图像的语义信息,从而难以获得理想的特征表示。当采用较大分辨率的图像时,其包含的细粒度信息较多,更容易过拟合,因此采用更强的正则化手段有助于提高模型的泛化性能。本研究基于渐进式学习策略将总迭代次数划分为多个阶段,不同阶段中采用不同尺寸的输入图像和不同丢弃概率的 Dropout 层,在训练过程中引入渐进式学习策略能够有效提高模型训练速度和识别准确率。2 试验与性能分析2.1 试验参数设置采用的操作系统是 Windows10 专业版,中央处理器为 Intel Core i7-12700H 2.30 GHz,显卡为NVIDIA GeForce RTX3060,显存大小为 6 GB,深度学习框架采用了 Pytorch 1.12。试验中基于渐进式学习策略进行模型训练,训练中的输入图像最小尺寸为 128128,最大尺寸为 224224,测试图像的尺寸始终为 224224,Dropout 层丢弃概率最小为 0(即不丢弃),最大为 0.2,使用 Adam 优化器训练 50 个周期,将总的迭代次数分为 5 个阶段,每个阶段 10个周期,在同一个阶段中采用的输入图像尺寸和Dropout 丢弃概率相同,渐进式学习中图像尺寸与Dropout 概率设置见表 1。此外,初始学习率设置为0.000 1,采用学习率指数衰减的方式更新学习率,衰减步长为 1 步,学习衰减率为 0.95。批处理大小设置为 16,损失函数采用交叉熵损失。69第 4 期戴天虹,等:基于改进 EfficientNet 的木材识别研究表 1 渐进式学习设置Tab.1 Progressive learning setup迭代周期Iteration图像尺寸Image sizeDropout 概率Dropout probability1101281280.0011201521520.0521301761760.1031402002000.1541502242240.202.2 数据集选择了东北地区常见的 5 类树种(白桦、红松、落叶松、水曲柳和柞木)的木材样本进行试验,木材图像在标准照明体为 D65(即色温为 6 500 K)的条件下采集,最终获得了包含 1 000 张图片的源数据库,图片尺寸大小均为 512512,每种木材又分为径切和弦切2 类,因此共得到 10 个类别,其中每种类别各100 张图片,各类别数据样本示例如图6 所示。(a)白桦径切(a)Betula platyphylladiameter?cutting(f)白桦弦切(f)Betula platyphyllastring cutting(b)红松径切(b)Pinus koraiensisdiameter cutting(g)红松弦切(g)Pinus koraiensisstring cutting(c)落叶松径切(c)Larix gmeliniidiameter cutting(h)落叶松弦切(h)Larix gmeliniichord cutting(d)水曲柳径切(d)Fraxinus mandshuricadiameter cutting(i)水曲柳弦切(i)Fraxinus mandshuricastring cutting(e)柞木径切(e)Quercus mongolicadiameter cutting(j)柞木弦切(j)Quercus mongolicastring?cutting图 6 木材图像样例Fig.6 Sample wood image2.3 数据增强针对源数据样本过少的缺点,对其采用离线数据增强进行扩充,采用的离线数据增强方法有:1)水平翻转,对源数据集图片进行水平翻转;2)随机旋转,对图像随机旋转固定角度(90、180 和270);3)随机添加高斯模糊,由于实际应用场景中图像清晰度各不相同,因此添加高斯模糊有助于模拟真实场景,增强后的图像样例如图 7 所示(以红松弦切为例)。通过以上离线数据增强最终获得扩充(a)原图(a)Original(b)水平翻转(b)Flip horizontally(c)随机旋转(c)Random rotation(d)高斯模糊(d)Gaussian blur图 7 数据增强样例Fig.7 Example of data enhancement后的数据集共 6 025 张木材图像。按照大约 8 2的比例划分训练集与测试集,最终得到训练集 4 814张图片,测试集 1 211 张图片,各类别木材图片数量统计见表 2。表 2 各类木材图片数目Tab.2 Number of pictures of various types of wood类别Category训练集Training set测试集Test set总计Total白桦径切Betula platyphylla diameter cutting474119593白桦弦切Betula platyphylla string cutting483121604红松径切Pinus koraiensis diameter cutting476120596红松弦切Pinus koraiensis string cutting494124618落叶松径切Larix gmelinii diameter cutting484122606落叶松弦切Larix gmelinii chord cutting490123613水曲柳径切Fraxinus mandshurica diameter cutting476120596水曲柳弦切Fraxinus mandshurica string cutting473119592柞木径切Quercus mongolica diameter cutting488123611柞木弦切Quercus mongolica string cutting47612059679森 林 工 程第 39 卷2.4 试验评价标准将正确分类的木材图像数量与总的木材图像数量的比值作为分类评价标准,如式(4)所示。P=NTNA 100%。(4)式中:P 为识别准确率,%;NT为分类正确的木材图像数量,个;NA为全部木材图像数量,个。2.5 不同模型性能对比采用 ResNet50、MobileNetV3、EfficientNetB0 和改进后的 EfficientNetB0 进行对比,评价指标包括4 项,分别是识别准确率(测试集)、模型参数、浮点运算量和批处理时间(批次大小为 16),试验结果见表 3。不同的模型在50 个 epoch 中的识别准确率变化曲线如图8 所示,训练损失值变化曲线如图9 所示。表 3 不同模型试验结果对比Tab.3 Comparison of experimental results of different models模型Model识别准确率(%)Recognition accuracy模型参数/MBModel parameter浮点运算量/MiBFLOPS批处理时间/sBatch processing timeResNet5098.51023.53066 107.4400.033MobileNetV398.9304.2103 727.5200.009EfficientNetB099.3404.0206 585.0000.016Our Model99.8306.16011 046.2000.021由表 3 可知,本算法的识别准确率达到了99.83%,要高于 ResNet50 和 MobileNetV3,且相比于基准模型 EfficientNetB0 提高了 0.49%。本模型对于内存的需求不大,模型参数量仅为 6.16 MB,要远低于 ResNet50,浮点运算量同样低于 ResNet50,而准确率要高于 ResNet50。虽然本模型参数量和浮点运算量与 MobileNetV3 和 EfficientNetB0 相比都10?20?30?40?50迭代次数Epoch准确率(%)Accuracy100908070605040302010ResNet50MobileNetV3EfficientNetB0Our?Model0图 8 识别准确率Fig.8 Recognition accuracy10?20?30?40?50迭代次数Epoch损失值Loss2.01.51.00.50.0ResNet50MobileNetV3EfficientNetB0Our?Model图 9 训练损失值Fig.9 Training loss value要高一些,但是其差距并不大,从批次处理时间上可以看出本模型仅仅高于基准模型 0.005 s,在实际应用中的影响较小,而识别准确率相比而言则是显得更为重要。因此整体而言,本模型针对木材识别问题具有一定的应用价值。2.6 消融试验1)试验 1为验证改进方法中不同模块和策略对模型性能的贡献,以 EfficientNetB0 为基准模型设计了消融试验。试验结果见表 4。由表 4 可知,单独引入LKA 模块后,识别准确率相比于基准模型提升了0.24%,但总的训练时间有所增长。单独采用渐进式学习策略时,识别准确率相比于基准模型提升了0.08%,同时总的训练时间更短。而联合 LKA 模块和渐进式学习策略 2 种改进后,相比于基准模型的识别准确率提升了 0.49%,总的训练时间也比基准模型更短。测试结果表明,LKA 模块和渐进式学习策略使模型性能均有所提升,二者同时添加的效果最好。因此本研究所提出的模型能更好地胜任木材识别任务。表 4 消融试验Tab.4 Ablation experiment基准模型Benchmark modelLKA 模块LKA module渐进式学习Progressive learning识别准确率(%)Recognition accuracy训练时间/sTraining time99.341 43099.581 79299.421 13799.831 398 2)试验 2针对 LKA 模块中 K 和 d 的取值对最终模型性89第 4 期戴天虹,等:基于改进 EfficientNet 的木材识别研究能的影响进行了试验。以本模型为基准进行了对比,结果见表 5。由表 5 可知,当 K 和 d 分别取值21 和 3 或 28 和 4 时,模型性能最好,这表明大核卷积对于视觉任务的重要性。与分解 2121 的大核卷积相比,采用分解 2828 的大核卷积的模型性能并无明显提升,但分解 2828 的大核卷积会使模型参数量增加,因此本模型在试验中将 K 和 d 设置为21 和 3。表 5 K 和 d 对试验结果的影响Tab.5 Influence of K and d on experimental resultsKd识别准确率(%)Recognition accuracy模型参数/MBModel parameter14399.676.0921399.836.1628499.836.223)试验 3针对基准模型中 MBConv 模块内的 SE 模块替换为 LKA 模块的方案设计了对比试验,即采用 2 种方案来验证不同的改进对模型性能的影响。方案 1是本模型,即基准模型中含有 MBConv 模块的阶段中的第一个 MBConv 模块内的 SE 模块替换为 LKA模块;方案 2 则是将基准模型中所有 MBConv 模块内的 SE 模块替换为 LKA 模块。试验结果见表 6。由表 6 可知,虽然方案 2 实现了比基准模型更高的识别准确率,但是方案 1(本模型)相比于基准模型提升更大,而且相比于方案 2,方案 1 的模型参数和浮点运算量更小,由此可见联合 2 种注意力机制的模型性能更好。因此综合考虑下,本模型更适合移动端的部署。表 6 2 种方案对试验结果的影响Tab.6 Influence of two programs on experimental results方案Program识别准确率(%)Recognition accuracy模型参数/MBModel parameter浮点运算量/MBFLOPS199.836.1611 046.20299.7511.6021 693.342.7 混淆矩阵混淆矩阵是表示精度评价的一种标准格式,经常被用来描述分类模型在测试数据上的性能。本试验中 10 个类别的混淆矩阵如图 10 所示,横轴表示预测类别,纵轴表示真实类别,蓝色深浅表示识别的准确性,颜色越深,识别准确率越高。从图 10可知,改进后的模型除了第 6 类(水曲柳径切)识别存在误差,其余类别均能百分百识别正确,总的识别率能达到 99%以上,因此改进的模型实现了预期效果,能够很好地识别多数木材种类,可以为自动化木材种类识别提供技术参考。0?1?2?3?4?5?6?7?8?901234567891.000.800.600.400.200.00真实标签True?label预测标签Predicted?label1.001.001.001.001.001.000.981.001.001.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.00 0.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.00 09 分别表示白桦径切、白桦弦切、红松径切、红松弦切、落叶松径切、落叶松弦切、水曲柳径切、水曲柳弦切、柞木径切和柞木弦切。09 respectively represent Betula platyphylla diameter cutting,Bet-ula platyphylla string cutting,Pinus koraiensis diameter cutting,Pinus koraiensis string cutting,Larix gmelinii diameter cutting,Larix gmelinii string cutting,Fraxinus mandshurica diameter cutting,Fraxinus mand-shurica string cutting,Quercus mongolica diameter cutting and Quercus mongolica string cutting.图 10 改进的模型识别木材的混淆矩阵Fig.10 Identification of wood confusion matrix by improved model3 结论针对木材识别问题提出一种基于改进 Efficient-Net 的识别方法。该方法引入大核注意力模块和渐进式学习策略,有效增强了模型对细粒度特征信息的提取能力,加快了模型训练速度,提高了模型识别准确率。消融试验对比了不同模块与策略对模型性能的影响。此外,虽然改进后的模型实现了更高的识别准确率,但其相比于基准模型在参数量和浮点运算量都有所提升,从批处理时间上来看该提升对模型处理图片速度影响甚微,仍适合部署于资源有限的移动端设备,但是还需进一步优化。同时,本试验所采用的木材数据集规模有限,因此如何进一步优化模型结构和进一步挖掘细粒度特征信息,使模型参数量和浮点运算量减小的同时更加适合移动端部署和更广泛的木材识别任务是下一步要研究的内容。99森 林 工 程第 39 卷【参 考 文 献】1 晁晓菲,樊李行,蔡骋,等.基于多特征提取和选择的木材分类与识别J.现代农业科技,2018(18):118-120.CHAO X F,FAN L X,CAI C,et al.Wood texture classi-fication and identification based on multi-feature extraction and selectionJ.Modern Agricultural Science and Tech-nology,2018(18):118-120.2 WANG B,WANG H,QI H.Wood recognition based on grey-level co-occurrence matrixC/2010 International Conference on Computer Application and System Modeling(ICCASM 2010).IEEE,2010,1:V1-269-V1-272.3 戴天虹,王克奇,白雪冰,等.基于神经网络和颜色特征对