第35卷第1期重庆邮电大学学报(自然科学版)Vol.35No.12023年2月JournalofChongqingUniversityofPostsandTelecommunications(NaturalScienceEdition)Feb.2023DOI:10.3979/j.issn.1673⁃825X.202109130327基于改进Transformer的生成式文本摘要模型收稿日期:2021⁃09⁃13修订日期:2023⁃01⁃10通讯作者:刘群liuqun@cqupt.edu.cn基金项目:国家自然科学基金(61772096);国家重点研发计划(2018YFC0832100,2018YFC0832102)FoundationItems:TheNationalNaturalScienceFoundationofChina(61772096);StateKeyR&DProgramFundedProjects(2018YFC0832100,2018YFC0832102)赵伟1,王文娟2,任彦凝3,刘群3,胥钟予2,彭露3(1.重庆邮电大学国际合作与交流处,重庆400065;2.国网重庆市电力公司信息通信分公司调控中心,重庆401121;3.重庆邮电大学计算机科学与技术学院,重庆400065)摘要:基于循环神经网络(recurrentneuralnetwork,RNN)注意力机制的序列到序列模型在摘要信息提取服务中已经取得了较好的应用,但RNN不能较好地捕捉长时序信息,这使现有模型受限。为此,提出了基于改进Transformer的生成式文本摘要模型。该模型利用Transformer提取全局语义,使用局部卷积提取器提取原文细粒度特征,并设计全局门控单元以防止信息冗余和弥补语义不足,筛选出利于摘要生成的文本关键信息。实验结果表明,所提模型在大规模中文短文本摘要数据集(largescaleChineseshorttextsummarization,LCSTS)上的效果有明显的提升,在电力运维摘要数据集上,也有良好效果,具有可扩展性。关键词:生成式摘要;序列到序列;改进Transformer;局部卷积中图分类号:TP391.1文献标志码:A文章编号:1673⁃825X(2023)01⁃0185⁃08Agenerativeabstractivesummarization...