收稿日期:2021-05-08修回日期:2021-05-15第40卷第2期计算机仿真2023年2月文章编号:1006-9348(2023)02-0390-05基于分离卷积二值化网络的模型压缩方法研究张雷,杨薪颖(沈阳航空航天大学电子信息工程学院,辽宁沈阳110136)摘要:深度卷积神经网络(DeepConvolutionalNeuralNetworks,DCNNs)在各个领域的应用愈加广泛,而在实际应用中DCNN需要大量的计算和内存资源,在资源有限的移动设备上难以部署。因此提出了一种基于深度可分离卷积二值化网络的模型压缩与优化加速的方法,首先在深度卷积神经网络中使用深度可分卷积代替传统的卷积,其次将网络中的权重和激活值进行二值化,并通过教师网络引导训练,在最大限度的增加计算速度和减少内存资源占用的同时,保持网络的分类精度。实验结果表明,使用上述方法对花卉数据集进行分类识别,在精度仅下降2.2%的情况下,可大幅减少计算时间和内存资源的占用,有利于移动设备的部署。关键词:模型压缩;深度可分离卷积;二值化网络中图分类号:TP391.9文献标识码:BModelCompressionBasedonSeparableConvolutionalBinarizedNeuralNetworkZHANGLei,YANGXin-ying(CollegeofElectronicInformationEngineering,ShenyangAerospaceUniversity,ShenyangLiaoning110136,China)ABSTRACT:DeepConvolutionalNeuralNetworks(DCNNs)aremoreandmorewidelyusedinvariousfields.How-ever,inpracticalapplications,DCNNrequiresalotofcomputingandmemoryresources,anditisdifficulttodeployonmobiledeviceswithlimitedresources.Thispaperproposesamodelcompressionandoptimizationaccelerationmethodbasedondeepseparableconvolutionalbinarizednetwork.Firstly,thedeepseparableconvolutioniswasusedtoreplacethetraditionalconvolutioninthedeepconvolutionneuralnetwork.Secondly,theweightsandactivationvaluesinthenetworkawererebinarized,andthetrainingwaissguidedthroughtheteachernetworktomaintaintheclassificationaccuracyofthenetwork,increasethecalculationspeedandreducetheoccupationofmemoryresources.Theexperimentalresultsshowthatusingtheproposedmethodtoclassifyandrecognizetheflowerdatasetcangreatlyreducethecalculationtimeandmemoryresourceoccupationwhentheaccuracyisonlyreducedby2.2%,whichisbeneficialtothedeploymentofmobiledevices.KEYWORDS:Modelcompression;De...