分享
基于负训练和迁移学习的关系抽取方法.pdf
下载文档

ID:3063115

大小:1.38MB

页数:5页

格式:PDF

时间:2024-01-19

收藏 分享赚钱
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
基于 训练 迁移 学习 关系 抽取 方法
2023 08 10计算机应用,Journal of Computer Applications2023,43(8):2426-2430ISSN 10019081CODEN JYIIDUhttp:/基于负训练和迁移学习的关系抽取方法陈克正1,2,郭晓然3,钟勇1,2*,李振平1,2(1.中国科学院 成都计算机应用研究所,成都 610213;2.中国科学院大学 计算机科学与技术学院,北京 100049;3.西北民族大学 数学与计算机科学学院,兰州 730124)(通信作者电子邮箱)摘要:远程监督是关系抽取任务中常用的数据自动标注方法,然而该方法会引入大量的噪声数据,从而影响模型的表现效果。为了解决噪声数据的问题,提出一种基于负训练和迁移学习的关系抽取方法。首先通过负训练的方法训练一个噪声数据识别模型;然后根据样本的预测概率值对噪声数据进行过滤和重新标注;最后利用迁移学习的方法解决远程监督存在的域偏移问题,从而进一步提升模型预测的精确率和召回率。以唐卡文化为基础,构建了具有民族特色的关系抽取数据集。实验结果表明,所提方法的F1值达到91.67%,相较于SENT(Sentence level distant relation Extraction via Negative Training)方法,提升了 3.95 个百分点,并且远高于基于 BERT(Bidirectional Encoder Representations from Transformers)、BiLSTM+ATT(Bi-directional Long Short-Term Memory And Attention)、PCNN(Piecewise Convolutional Neural Network)的关系抽取方法。关键词:远程监督;负训练;知识图谱;关系抽取;迁移学习;自然语言处理中图分类号:TP391.1 文献标志码:ARelation extraction method based on negative training and transfer learningCHEN Kezheng1,2,GUO Xiaoran3,ZHONG Yong1,2*,LI Zhenping1,2(1.Chengdu Institute of Computer Application,Chinese Academy of Sciences,Chengdu Sichuan 610213,China;2.School of Computer Science and Technology,University of Chinese Academy of Sciences,Beijing 100049,China;3.School of Mathematics and Computer Science,Northwest Minzu University,Lanzhou Gansu 730124,China)Abstract:In relation extraction tasks,distant supervision is a common method for automatic data labeling.However,this method will introduce a large amount of noisy data,which affects the performance of the model.In order to solve the problem of noisy data,a relation extraction method based on negative training and transfer learning was proposed.Firstly,a noisy data recognition model was trained through negative training method.Then,the noisy data were filtered and relabeled according to the predicted probability value of the sample,Finally,a transfer learning method was used to solve the domain shift problem existing in distant supervision tasks,and the precision and recall of the model were further improved.Based on Thangka culture,a relation extraction dataset with national characteristics was constructed.Experimental results show that the F1 score of the proposed method reaches 91.67%,which is 3.95 percentage points higher than that of SENT(Sentence level distant relation Extraction via Negative Training)method,and is much higher than those of the relation extraction methods based on BERT(Bidirectional Encoder Representations from Transformers),BiLSTM+ATT(Bi-directional Long Short-Term Memory and Attention),and PCNN(Piecewise Convolutional Neural Network).Key words:distant supervision;negative training;knowledge graph;relation extraction;transfer learning;Natural Language Processing0 引言 关系抽取是信息抽取领域1的重要研究任务,也是构建知识图谱2的基础,被广泛应用在搜索引擎3、智能问答4、文本检索5、辅助诊疗6等领域,基于深度神经网络的抽取方法虽然准确率较高,但对数据量要求高、标注成本大,尤其在特定的领域,例如医疗、佛学等,必须由专业人士才能完成。因此,目前常使用基于远程监督7的方法自动标注,远程监督的方法基于一种简单的假设:即如果两个实体之间存在某种关系,那么包含两个实体的句子都具有这种关系。根据这一假设可以在半结构化的数据基础上扩充训练数据,但由于这一假设在现实语料中不一定成立,导致扩充数中引入大量的噪声数据。表1为通过远程监督的方式自动标注并引入噪声数据的例子。标注过程为:根据已知“观音”和“观世音菩萨”之间是“别称”的关系,将未标注语料中包含(观音、观世音菩萨)的句子都标注为“别称”这一关系。文章编号:1001-9081(2023)08-2426-05DOI:10.11772/j.issn.1001-9081.2022071004收稿日期:20220711;修回日期:20221103;录用日期:20221121。基金项目:四川省科技成果转移转化平台项目(2020ZHCG0002);中央高校基本科研业务费(青年教师创新)项目(31920210090)。作者简介:陈克正(1998),男,山东济宁人,硕士研究生,CCF会员,主要研究方向:自然语言处理、大数据;郭晓然(1981),女,河北藁城人,副教授,博士,主要研究方向:信息抽取、知识图谱;钟勇(1966),男,四川岳池人,研究员,博士,CCF会员,主要研究方向:大数据、人工智能、软件过程;李振平(1990),男,河南郑州人,博士研究生,主要研究方向:自然语言处理。第 8 期陈克正等:基于负训练和迁移学习的关系抽取方法通过表 1的标注结果可以得出:第 1句和第 2句标注正确,但第3句和第4句虽然包含“观音”“观世音菩萨”,但无法表达出别称这一关系,故为错误标注。为了解决错误标注问题,文献 8 中引入多示例学习的方法,将包含相同实体对的句子作为一个包,并在每个包中只保留一个置信度最高的句子,以减少噪声数据的影响。随着深度学习的发展,文献 9-10 中使用深度神经网络的方式提取语句的特征,从而更充分挖掘句子的语义信息;文献 11-12中运用注意力机制的方式降低噪声数据的权重,从而缓解噪声数据对模型的影响;文献 13-15 中使用对比学习的方法,通过构造正例样本和负例样本,挖掘噪声数据内部的相关性;文献 16 中使用聚类的方式纠正错误标签,以提高训练语料的质量;文献 17 中提出使用负训练的方法过滤远程监督产生的噪声数据,通过在构造的负样本上训练模型来识别并过滤噪声数据,这一方法取得了当时最优的效果,但是没有考虑远程监督扩充数据集和目标域数据集分布不同,会产生的域偏移问题。在以上研究的基础上,本文提出一种基于负训练和迁移学习的关系抽取方法。首先,通过负训练的方式训练一个噪声数据识别模型,来识别远程监督产生的噪声数据;然后,根据样本的预测值对识别出的噪声数据进行重标,将它转化为有用的训练数据;最后,通过迁移学习的方法解决远程监督扩充数据集和目标域数据集分布不同导致的域偏移问题。实验结果表明,与基线方法相比,本文方法在使用较少的标注数据情况下,取得了更优的效果。另外本文还构建了一个基于唐卡文化的中文数据集,解决在远程监督关系抽取领域中中文数据集稀缺的问题,数据集包括人工标注数据5 515条,通过远程监督的方式扩展数据18 282条,共计23 797条数据,数据链接为https:/ 相关工作 1.1负训练负训练18的思想最早源于图像领域,它的核心思想是通过对噪声数据训练建模,使模型具有识别噪声数据的能力。它随机选取样本原标签之外的其他标签作为该样本的标签以构建噪声数据集,如果无法判断样本的原标签是否正确,那么把这个样本标记为原标签之外的其他标签,则有更高的置信度认为此时的标记是错的。通过这种方式构造噪声数据集,并在此噪声数据集上训练模型,使模型具有识别噪声数据的能力。在关系抽取领域,通过远程监督的方式对样本进行关系类型标注,虽不能确定是否标注正确,但如果给该样本标记为远程监督产生的标签之外的其他关系标签,则有更高的置信度认为此标注是错的,通过这种方式构造噪声数据集,并在此数据集上建模训练,使模型具有识别噪声数据的能力。1.2迁移学习传统的深度学习算法,遵循训练数据和实际落地应用数据符合同一分布这一假设,然而在实际的应用中,受限于训练数据集的采集方式不同和采集成本的限制,模型的训练数据分布和实际落地应用数据的分布不一致,这一现象被称为域偏移。在远程监督关系抽取任务中,由于通过远程监督的方式扩充的数据集与人工标注的数据集的分布不同,因此会产生域偏移的问题,从而影响模型的表现效果。迁移学习19是解决域偏移问题的常用方法,它把在源领域学习的知识迁移到目标领域中,使模型在目标领域取得更好的效果。迁移学习适用于目标领域数据量较少,而源领域数据较多的情况。根据源领域和目标领域的相似度,迁移学习可分为归纳式迁移学习、无监督迁移学习和直推式迁移学习20,迁移学习技术现在已被广泛应用在文本分类21、命名实体识别22、关系抽取23等自然语言处理任务中。基于深度学习网络的迁移方式是归纳迁移的一种,具有更强的特征提取能力和关系映射能力。在深度神经网络模型的迁移学习方法中,微调24是最常用且非常有效的手段。本文使用深度神经网络模型的迁移方法,解决远程监督产生的域偏移问题,从而进一步提升了关系抽取的准确率。2 基于负训练和迁移学习的关系抽取方法 本文提出的基于负训练和迁移学习的关系抽取方法的整体框架如图1所示,该框架主要由数据精炼、关系抽取和模型迁移三部分组成。按照顺序依次执行:首先,执行数据精炼部分,对远程监督的方式扩充的数据集进行过滤和精炼;然后,将精炼后的数据集和人工标注数据集作为输入,构建并训练关系抽取模型;最后,将上一步训练的模型迁移到人工标注的数据集上进行微调,引导模型学习目标域的知识,从而解决远程监督扩充数据集与目标域数据分布不同而产生的域偏移问题。2.1数据精炼数据精炼部分的主要功能是对远程监督的方式扩充的数据集进行过滤和精炼,主要包含BERT(Bidirectional Encoder Representations from Transformers)编码层、全连接层、负训练、噪声数据过滤和噪声数据重标5个过程,具体执行过程如下。1)首先将远程监督扩充的数据集作为输入,通过BERT编码层提取语句的特征;2)通过全连接层将提取到的特征进行合并,并将特征向量地转变为特定的输出维度;3)通过负训练的方式优化数据精炼模型,使噪声数据对应的预测值降低;4)通过噪声数据的过滤模块,将噪声数据集从数据集中分离出来;表1远程监督标注句子Tab.1Sentences labelled by distant supervision序号1234句子观音观音,即观世音菩萨观世音菩萨观音观音一般指的就是观世音菩萨观世音菩萨多罗观音观音为观世音菩萨观世音菩萨的修行伴侣千手观音观音是观世音菩萨观世音菩萨的三十二相之一远程监督标签别称别称别称别称是否标注正确正确正确错误错误图1基于负训练和迁移学习的关系抽取方法的整体框架Fig.1Overall framework of relation extraction method based on negative training and transfer learning2427第 43 卷计算机应用5)通过噪声数据重新标注模块,将分离出的噪声数据重新标注,将噪声数据转化为正确标注的数据。在训练过程中不断迭代第1)5)步,使得噪声数据不断减少,从而过滤掉远程监督产生的噪声数据,得到精炼后的数据集。2.1.1BERT编码层BERT 是 一 种 预 训 练 语 言 表 示 模 型25,它 使 用Transformer26网络结构的编码层作为基本结构,通过在大规模语料中随机遮蔽输入语句的字词,并根据上下文信息预测被遮蔽的字词的方式进行预训练。使用BERT预训练语言模型,能更加充分挖掘词的上下文信息。本文主要使用BERT预训练语言模型作为编码层提取语义特征。如式(1)(3)所示,将句子向量x、头实体向量xhead和尾实体向量xtail作为输入,s代表句子编码后的矩阵表示,h代表头实体编码后的矩阵表示,t代表尾实体编码后的矩阵表示。S=BERT(x)(1)h=BERT(xhead)(2)t=BERT(xtail)(3)2.1.2全连接层输入数据经过BERT编码层提取特征后,得到句子编码矩阵s、头实体编码矩阵h和尾实体编码矩阵t。全连接层的主要作用是将这些矩阵进行合并,并转化到固定的输出维度,如式(4)所示:V=Linear(S;h;t)(4)其中:S;h;t表示拼接后的句子、头实体和尾实体编码矩阵;V表示经过全连接层维度转化之后的编码矩阵。2.1.3负训练负训练的主要作用是使噪声数据对应标签的预测值降低,从而为2.1.4节中实现噪声数据的识别和过滤奠定基础。远程监督扩充数据集中的每一个输入样本,在经过BERT编码层和全连接层后可以得到一个特征矩阵V,每一个输入样本都具有特定的原标签,由于样本的原标签通过远程监督的方式标注产生,所以无法确定原标签是否标注正确,但是如果在所有的标签中随机选择一个原标签之外的其他标签作为该样本的标注,则有更高的置信度认为此时的标签为错误标签。根据这一原理,设置损失函数如式(5)所示,使得该样本对应的错误标签的预测值不断减小。VLoss=-i=1cy i(1-pi)(5)y i表示选择互补标签作为标注时,输入样本属于第i个类别的概率值;pi表示选择互补标签作为标注时,输入样本预测为第i个类别的概率值;c表示样本的标签类别总数。由式(5)可知随着模型的不断优化,VLoss不断减小,样本预测为互补标签对应类别的概率值也越来越小,由于互补标签是随机选择的该样本原标签之外的其他标签,所以基本可以认为是错误标签,因此预测为错误标签对应类别的概率值也越来越小。2.1.4噪声数据过滤根据2.1.3节可以得出,随着模型的不断优化,错误标签对应的预测值不断减小,在模型优化10轮之后,将远程监督数据集重新加载到训练好的模型中,此时噪声数据对应原标签的预测值会很低。根据这一原理,设置阈值与输入样本预测为原标签的预测值比较:将小于阈值的数据作为噪声数据、不小于阈值的数据作为干净数据进行分离。2.1.5噪声数据重新标注噪声数据重新标注的主要作用是将分离出的噪声数据转化为正确的训练数据。输入样本在经过负训练的方式训练的模型预测后,会对每一个标签产生一个预测值,预测值的大小表示预测为该标签的可能性,输入样本的所有标签预测值中的最大值称为该样本的最大标签预测值。重新标注过程为:首先设置重标阈值,然后判断噪声数据的最大标签预测值是否大于重标阈值:如果大于重标阈值,表示该条数据存在正确标签,将该条数据标注为该条数据的最大标签预测值对应的标签;否则,该数据无法找到正确标签,删除该条数据。2.2关系抽取远程监督扩充的数据集通过数据精炼部分的处理后,得到精炼后的数据集,该数据集相较于人工标注的数据集,数据量更大并且句子结构更加复杂,将该数据集和人工标注的训练集作为模型的输入,可以使得模型学习到更加丰富的特征,关系抽取模型如图1所示,主要由BERT编码层、全连接层构成,使用交叉熵损失函数。对于每一个输入样本首先经过BERT编码层提取样本的语义特征得到句子编码矩阵、头实体编码矩阵和尾实体编码矩阵,然后通过全连接层对上述矩阵进行拼接,并将其转化为特定维度的输入样本编码矩阵V,执行过程与 2.1.1 节和2.1.2节相同。2.2.1Softmax函数使用Softmax函数将2.1节得到的输入样本编码矩阵V转化为预测为每种标签的可能性,如式(6)所示:p(Vi)=exp(Vi)j=1cexp(Vj)(6)其中:c表示样本标签的总数,p(Vi)表示的输入样本预测为第i个类别标签的期望值。2.2.2损失函数使用交叉熵损失函数对模型进行优化,如式(7)所示:VLoss=-i=1cyilog(pi)(7)其中:c表示样本标签的类别总数,yi表示输入样本属于第i个类别的概率值,pi表示输入样本预测为第i个类别的概率值。2.3模型迁移模型迁移目的是解决远程监督的方法扩充的数据集与目标域数据分布不同而产生的域偏移的问题。将训练的2.2节训练的关系抽取模型迁移到人工标注的训练数据集上进行微调,模型迁移过程如图1所示。迁移模型在人工标注的训练数据集上继续进行训练优化,优化过程如式(8)所示:mini=1nLoss(Ii,Yi,)(8)其中:n表示人工标注的训练集包含的样本总数,Ii表示第i个输入样本的编码矩阵,Yi表示第i个样本的标签,表示模型的参数。模型迁移前,模型的参数是在包含大量的远程监督扩充的数据集上训练得到;模型迁移后,随着模型在人工标注的训练数据上不断训练,模型的参数不断地调整。3 数据集的构建 3.1数据收集在远程监督关系抽取任务领域中,中文领域的数据集非2428第 8 期陈克正等:基于负训练和迁移学习的关系抽取方法常稀少,本文收集整理了一个基于唐卡文化的中文数据集,该数据集包括人工标注数据5 515条和通过远程监督的方式扩展的数据18 282条,共计23 797条数据。数据集主要来自宗教词典和百度百科词条。首先总结和整理数据集,确定了梵音译、化身、藏文、梵意译、别称、简称、藏音译、合称、藏意译和梵文10种关系类型;然后根据设定的关系对收集到的数据集进行人工标注;最终得到了 5 515 条人工标注的数据集,数据集的分布如表2所示。3.2远程监督数据扩充基于如果两个实体之间存在某种关系,那么包含这个实体对的句子都具有这种关系的远程监督假设,对数据进行自动化标注。图2为通过远程监督的方法对从百度百科的数据进行标注的过程。根据实体对齐的结果,对包含已知三元组实体对的句子进行自动标注。例如,图 2 中语句 1 和语句 3 中都包含头实体1,尾实体1,而已知三元组中包含头实体1,关系1,尾实体1,因此语句 1和语句 3被标记为关系1,通过此种方式扩充得到18 282条远程监督扩充数据集,数据分布如表3所示。4 实验与结果分析 4.1实验数据和评价指标实验使用的数据集主要由5 515条人工标注的数据集和18 282条远程监督的方式自动标注扩充的数据集构成,将人工标注数据按照 10 1 划分训练集和测试集,划分训练集5 013条,测试集502条,远程监督扩充的数据集不做划分。为了更加准确评估模型的效果,采用通过计算精确率、召回率和F1值指标衡量模型的效果。4.2实验参数设置本文使用 Ubuntu 操作系统,使用 Python 3.7 环境和Pytorch1.1计算框架,NVIDIA3060 12 GB 显卡,所使用的模型参数设置为:Batch Size大小为3,使用梯度累加机制,每迭代4个批次更新1次网络参数,实验学习率为0.000 2,正训练次数epoch为25,过滤噪声时迭代10轮,每轮负训练次数为10,输入句子最大长度为 256,预训练语言模型使用 Bert-Base,Chinese 版本,隐向量的长度为768,使用BertAdam优化器对模型参数进行自适应学习,过滤阈值参数为0.02,重标阈值参数为0.7。4.3实验与结果分析为了更加充分地验证模型的有效性,本文选择 SENT(Sentence level distant relation Extraction Via Negative Training)17方 法 和 基 于 BERT25、PCNN(Piecewise Convolutional Neural Network)9、BiLSTM(Bi-directional Long Short-Term Memory)27、BiLSTM+ATT(Bi-directional Long Short-Term Memory and Attention)28的关系抽取方法作为基线模型,在唐卡中文数据集上实验,实验结果如表4所示。实验结果表明,无论是精确率、召回率和F1的值,所提模型相较于其他模型都获得了显著的提升。相较于SENT方法,F1值提升了3.95百分点,相较于其他关系抽取方法F1值获得了10个百分点以上的提升。本文认为这主要归功于:1)通过负训练的方法可以有效地过滤远程监督产生的噪声数据;2)通过迁移学习的方法,能够有效地解决远程监督产生的域偏移问题,使模型的精确率和召回率进一步提升。5 结语 本文提出了一种基于负训练和迁移学习的关系抽取方法,有效地过滤远程监督产生的噪声数据,并解决了扩充数据存在的域偏移问题。实验结果表明,本文方法的关系抽取准确率和召回率显著提升,但该方法没有充分利用关系标签的语义信息,比如使用图神经网络的方法对关系标签的语义信息进行挖掘和增强,这也将是下一步的研究方向。参考文献(References)1 郭喜跃,何婷婷.信息抽取研究综述 J.计算机科学,2015,42(2):14-17.(GUO X Y,HE T T.Survey about research on information extractionJ.Computer Science,2015,42(2):14-17.)2 姚萍,李坤伟,张一帆.知识图谱构建技术综述 J.信息系统工程,2020(5):121-121,123.(YAO P,LI K W,ZHANG Y F.Summary of knowledge graph construction technologyJ.China CIO News,2020(5):121-121,123.)3 沈航可,祁志卫,张子辰,等.知识图谱的候选实体搜索与排序J.计算机系统应用,2021,30(11):46-53.(SHEN H K,QI Z 表2人工标注数据集的关系类型分布Tab.2Distribution of relation types of manually labelled dataset关系类型梵音译化身藏文梵意译别称三元组数8691333455871 894关系类型简称藏音译合称藏意译梵文三元组数2921 1731 1737889图2远程监督自动标注Fig.2Automatic labelling by distant supervision表3远程监督扩充数据集的关系类型分布Tab.3Distribution of relation types of dataset augmented by distant supervision关系类型梵音译化身藏文梵意译别称三元组数82563129544510 629关系类型简称藏音译合称藏意译梵文三元组数2 800493 48803 071表4不同模型的实验结果对比Tab.4Comparison of experimental results of different models模型PCNNBiLSTMBiLSTM+ATTBERTSENT本文模型精确率0.695 50.703 40.732 80.805 60.909 10.939 6召回率0.638 70.659 90.603 20.786 40.855 80.910 1F10.661 40.678 90.683 30.791 50.877 20.916 72429第 43 卷计算机应用W,ZHANG Z C,et al.Candidate entity search and ranking of knowledge map J.Computer Systems and Applications,2021,30(11):46-53.)4 BACH N,BADASKAR S.A review of relation extraction EB/OL.2022-06-22.https:/www.cs.cmu.edu/nbach/papers/A-survey-on-Relation-Extraction.pdf.5 XIONG C Y,POPWER R,CALLAN J.Explicit semantic ranking for academic search via knowledge graph embedding C/Proceedings of the 26th International Conference on World Wide Web.Republic and Canton of Geneva:International World Wide Web Conferences Steering Committee,2017:1271-1279.6 ZHANG Y Z,JIANG Z T,ZHANG T,et al.MIE:a medical information extractor towards medical dialogues C/Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics.Stroudsburg,PA:ACL,2020:6460-6469.7 MINTZ M,BILLS S,SNOW R,et al.Distant supervision for relation extraction without labeled dataC/Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP.Stroudsburg,PA:ACL,2009:1003-1011.8 RIEDEL S,YAO L M,McCALLUM A.Modeling relations and their mentions without labeled textC/Proceedings of the 2010 Joint European Conference on Machine Learning and Knowledge Discovery in Databases,LNCS 6323.Berlin:Springer,2010:148-163.9 ZENG D J,LIU K,CHEN Y B,et al.Distant supervision for relation extraction via piecewise convolutional neural networks C/Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing.Stroudsburg,PA:ACL,2015:1753-1762.10 QU J F,OUYANG D T,HUA W,et al.Distant supervision for neural relation extraction integrated with word attention and property features J.Neural Networks,2018,100:59-69.11 LIN Y K,SHEN S Q,LIU Z Y,et al.Neural relation extraction with selective attention over instances C/Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics.Stroudsburg,PA:ACL,2016:2124-2133.12 XIAO Y,JIN Y C,CHENG R,et al.Hybrid attention-based Transformer block model for distant supervision relation extractionJ.Neurocomputing,2022,470:29-39.13 ZHOU Y R,PAN L M,BAI C Y,et al.Self-selective attention using correlation between instances for distant supervision relation extraction J.Neural Networks,2021,142:213-220.14 CHEN T,SHI H Z,TANG S L,et al.CIL:contrastive instance learning framework for distantly supervised relation extraction C/Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing.Stroudsburg,PA:ACL,2021:6191-6200.15 LI D,ZHANG T,HU N,et al.HiCLRE:a hierarchical contrastive learning framework for distantly supervised relation extractionC/Findings of the Association for Computational Linguistics:ACL 2022.Stroudsburg,PA:ACL,2022:2567-2578.16 SHANG Y M,HUANG H Y,MAO X L,et al.Are noisy sentences useless for distant supervised relation extraction?C/Proceedings of the 34th AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2020:8799-8806.17 MA R T,GUI T,LI L Y,et al.SENT:sentence-level distant relation extraction via negative trainingC/Proceedings of 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing(Volume 1:Long Papers).Stroudsburg,PA:ACL,2021:6201-6213.18 KIM Y,YIM J,YUN J,et al.NLNL:negative learning for noisy labelsC/Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision.Piscataway:IEEE,2019:101-110.19 TORREY L,SHAVLIK J.Transfer learning M/OLIVAS E S,GUERRERO,J D M,MARTINEZ-SOBER M,et al.Handbook of Research on Machine Learning Applications and Trends:Algorithms,Methods,and Techniques.Hershey,PA:IGI Global,2010:242-264.20 PAN S J,YANG Q.A survey on transfer learningJ.IEEE Transactions on Knowledge and Data Engineering,2010,22(10):1345-1359.21 CHEN C,JIANG B Y,CHENG Z W,et al.Joint domain matching and classification for cross-domain adaptation via ELMJ.Neurocomputing,2019,349:314-325.22 GUO H L,ZHU H J,GUO Z L,et al.Domain adaptation with latent semantic association for named entity recognition C/Proceedings of Human Language Technologies:The 2009 Annual Conference of the North American Chapter of the Association for Computationa

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开