第26卷第3期2023年7月西安文理学院学报(自然科学版)JournalofXi̓anUniversity(NaturalScienceEdition)Vol26No3Jul2023文章编号:1008 ̄5564(2023)03 ̄0049 ̄05基于BERT+BiLSTM+Attention的对抗训练新闻文本分类模型汪辉ꎬ于瓅(安徽理工大学计算机科学与工程学院ꎬ安徽淮南232001)摘要:新闻文本分类是长文本分类的典型问题ꎬ因此提取词与词之间的关系特征就尤为重要.提出了基于双向Transformer编码表示的预训练模型(BidirectionalEncoderRepresentationsfromTransformersꎬBERT)和双向长短时记忆网络(Bi-directionalLongShort-TermMemoryꎬBiLSTM)以及注意力机制的对抗训练分类模型(BBA-AT).将预处理新闻文本数据经过BERT进行训练得到词嵌入编码ꎬ在训练后的词向量级别上进行扰动达到数据增广的效果ꎬ以此来进行对抗训练ꎬ之后通过双向长短时记忆网络对数据集进行编码提取双向语义表征.本文提出的BBA-AT模型F1值在TNEWS数据集上比BERT模型提升了1.34%.关键词:BiLSTMꎻ新闻文本分类ꎻ对抗训练ꎻBERT中图分类号:TP391.1文献标志码:AAModelforAdversarialTrainingNewsTextClassificationBasedonBERT+BiLSTM+AttentionWANGHuiꎬYULi(SchoolofComputerScienceandEngineeringꎬAnhuiUniversityofScienceandTechnologyꎬHuainan232001ꎬChina)Abstract:Newstextclassificationisatypicalprobleminlongtextclassificationꎬsoextractingtherelationshipfeaturesbetweenwordsisparticularlyimportant.InthispaperꎬapretrainingmodelbasedonBidirectionalEncoderRepresentationsfromTransformers(BERT)ꎬtheBidi ̄...