清华大学实验组18篇论文被ACL 2022录用

共 9240字,需浏览 19分钟

 ·

2022-02-28 21:45


近日,ACL 2022录用结果出炉,我组18篇论文被ACL 2022录用,其中主会论文13篇,Findings论文5篇。以下为论文列表及介绍:

 一 

ACL 2022主会

Packed Levitated Marker for Entity and Relation Extraction

作者:叶德铭,林衍凯,李鹏,孙茂松
类型:Long Paper
摘要:最近的命名实体识别和关系抽取工作专注于研究如何从预训练模型中获得更好的span表示。然而,许多工作忽略了span之间的相互关系。在这篇文章中,我们提出了一种基于悬浮标记的span表示方法,我们在编码过程中通过特定策略打包标记来考虑span之间的相互关系。对于命名实体识别任务,我们提出了一种面向邻居span的打包策略,以更好地建模实体边界信息。对于关系抽取任务,我们设计了一种面向头实体的打包策略,将每个头实体以及可能的尾实体打包,以共同建模同头实体的span对。通过使用增强的标记特征,我们的模型在六个NER数据集上优于基线模型,并在ACE04/ACE05端到端关系抽取数据集上以更快的速度获得了4 F1以上的提升。论文代码开源于https://github.com/thunlp/PL-Marker。该工作与腾讯微信模式识别中心合作完成。

QuoteR: A Benchmark of Quote Recommendation for Writing

作者:岂凡超,杨延辉,易靖,程志立,刘知远,孙茂松

类型:Long Paper

摘要:在写作中人们经常引用名言名句来提高文章文采和说服力。为了帮助人们更快地找到合适的名言名句,研究者提出了名言名句推荐任务。该任务旨在自动推荐适合当前上下文的名言名句。现在已经有许多名言名句推荐方法,但是他们的评测基于不同的未公开数据集。为了推进这一领域的研究,我们构建了一个名为QuoteR的大规模名言名句推荐数据集。该数据集完全公开,由英语、现代汉语、古诗文三部分构成,每一部分都比此前的相应未公开数据集要大。基于该数据集,我们对此前的所有名言名句推荐方法进行了公平而详尽的评测。此外,我们还提出了一个名言名句推荐模型,其性能显著超过前人方法。

以下为根据上下文从盘面上看,股票价格会呈现某种带漂移的无规则行走,涨跌无常,难以捉摸。[Quote],这话放在投资领域也同样受用。事物是在不断变化的,历史数据只能起一定程度的参考作用。投资者想凭借历史数据准确预测未来几乎是不可能的。推荐的名言示例:


MSP: Multi-Stage Prompting for Making Pre-trained Language Models Better Translators

作者:谭知行,张祥文,王硕,刘洋
类型:Long Paper
摘要:提示方法在近期已成为应用预训练模型到下游任务的前沿方法。我们提出多阶段提示,一种简单且自动的应用预训练模型到翻译任务上的方法。为了更好地减少预训练与翻译之间的差异,多阶段提示将使用预训练模型进行翻译的过程分解为三个独立的阶段:编码阶段、再编码阶段、解码阶段。在每个阶段,我们独立地采用连续型提示来使得预训练模型能够更好地转移到翻译任务上。实验表明我们的方法能够显著提升预训练模型进行机器翻译的性能。

Integrating Vectorized Lexical Constraints for Neural Machine Translation 

作者:王硕,谭知行,刘洋
类型:Long Paper
摘要词汇化约束的神经机器翻译(NMT)使用预先指定的短语对来控制的NMT模型的生成结果。该任务在许多实际场景中有着重要的意义。但是,由于NMT模型内部是连续的向量,和离散的词汇约束存在着表示形式上的差异。现有的大多数工作都讲NMT模型视作一个黑盒子,仅在数据层面或者解码算法上施加词汇约束,不考虑其模型内部的信息处理方式。在本工作中,我们将离散的词汇约束进行向量化,将其映射为注意力机制可以直接利用的连续型键(key)和值(value),从而可以直接将约束集成到NMT模型中。实验结果表明,我们的方法在四个语言对上始终优于几个具有代表性的基线方法。

Pass off Fish Eyes for Pearls: Attacking Model Selection of Pre-trained Models

作者:朱璧如,秦禹嘉,岂凡超,邓仰东,刘知远, 孙茂松,顾明
类型:Long Paper
摘要:为特定的下游任务选择合适的预训练模型 (PTM) 通常需要在该下游任务上微调来确定,然而这一过程是十分缓慢的。为了加速这一过程,研究人员提出了基于特征的模型选择 (FMS) 方法,该方法无需微调即可快速评估 PTM 对特定任务的可迁移性。在这项工作中,我们认为当前的 FMS 方法具有安全方面的隐患。为了验证我们的观点,我们分别从模型层面和数据层面设计了两种算法评估FMS的鲁棒性。实验结果证明,这两种方法都能成功地使 FMS 错误地判断PTM的可迁移性。我们的研究指出了提高FMS鲁棒性的新方向。该工作与清华大学软件学院邓仰东老师团队合作完成。

PPT: Pre-trained Prompt Tuning for Few-shot Learning

作者:顾煜贤,韩旭,刘知远,黄民烈
类型:Long Paper
摘要:随着预训练语言模型的参数量越来越大,如何高效地将大模型向下游任务适配逐渐受到研究者们的关注。最近,一种被称为 prompt tuning 的方法提供了一种可能的解决方式。这种方法通过在固定整体模型参数的情况下,端到端地调整拼接在输入前的一组 soft prompt, 从而在下游数据充足的情况下达到和训练整体模型参数相当的结果。但是,我们发现 soft prompt 的优化较为困难,导致 prompt tuning 在数据量较少的情况下性能较差。因此,我们提出了一个新的训练框架 PPT (Pre-trained Prompt Tuning)。在这个框架中,为了解决 soft prompt 优化困难的问题,我们将 soft prompt 先在无标注数据上进行预训练,从而得到一个较好的初始化,然后再通过上述的 prompt tuning 向下游任务适配。为了提升我们框架的通用性,我们将多个经典的文本分类任务归为了三种形式,并为每种形式分别设计了一种预训练任务。我们通过大量的实验证明,PPT 框架可以显著提升 prompt tuning 在少数据场景下的性能,达到甚至超过模型整体参数微调的水平。并且,在数据量增多时,PPT 的优势仍然可以保持。该工作与清华大学黄民烈老师团队合作完成。

Prototypical Verbalizer for Prompt-based Few-shot Tuning

作者:崔淦渠,胡声鼎,丁宁,黄龙涛,刘知远
类型:Long Paper
摘要:针对预训练语言模型(PLM)的提示微调(prompt-based tuning)在少次学习中十分有效。通常,提示微调会将输入文本包装成填空问题。为了做出预测,这种方法通过一个表达器(verbalizer)将输出的单词映射到标签上。该表达器可以是人工设计的,也可以是自动构建的。然而,人工表达器严重依赖于特定领域的先验知识,而自动寻找合适的标签词仍然是一项挑战,本文提出了直接从训练数据中构建的原型表达器ProtoVerb。具体而言,ProtoVerb通过对比学习将学到的原型(prototype)向量作为表达器。通过这种方式,原型归纳了训练实例,并且能够包含丰富的类级别语义。我们在主题分类和实体分类任务上进行了实验,实验结果表明,ProtoVerb的性能明显优于现有的自动生成的表达器,特别是在训练数据极其匮乏的场景下。更令人惊讶的是,即使是在未微调的预训练语言模型上,ProtoVerb也能够提升提示微调的性能,这表明ProtoVerb也是一种优雅的非微调预训练模型利用方式。该工作与阿里AAIG自然语言处理实验室黄龙涛老师团队合作完成。

bert2BERT: Towards Reusable Pretrained Language Models

作者:陈诚,尹伊淳,尚利峰,蒋欣,秦禹嘉,王凤玉,王智,陈晓,刘知远,刘群
类型:Long Paper
摘要:近年来,研究人员倾向于不断训练更大的语言模型,以探索深度模型的上限。然而,大型语言模型预训练需要消耗大量的计算资源,并且大多数模型都是从头开始训练的,没有重复利用现有的预训练模型,这是一种浪费。在本文中,我们提出了bert2BERT,它可以通过参数初始化有效地将现有较小的预训练模型的知识转移到大型模型,提高大模型的预训练效率。具体来说,我们在基于 Transformer 的语言模型上扩展了之前的Net2Net方法。此外,我们提出了一种两阶段的预训练方法,以进一步加快训练过程。我们对具有代表性的 PLM(例如,BERT 和 GPT)进行了广泛的实验,并证明 (1) 我们的方法与从头开始学习、StackBERT和 MSLT在内的基线方法相比可以节省大量的训练成本; (2) 我们的方法是通用的,适用于不同类型的预训练模型。该工作由华为诺亚实验室刘群老师团队主导完成。

 Cross-Lingual Contrastive Learning for Fine-Grained Entity Typing for Low-Resource Languages

作者:韩旭,罗宇琦,陈暐泽,刘知远,孙茂松,周伯通,费昊,郑孙聪
类型:Long Paper
摘要:细粒度实体分类(Fine-grained Entity Typing,FGET)旨在为文本中的实体标注细粒度实体类型,这对于诸多与实体相关的 NLP 任务具有重要意义。FGET 的一个关键挑战是资源不足问题 —— 为拥有复杂层次结构的实体类型来讲,手动标记数据比较困难,尤其对于英语以外的语言来讲,人工标注的数据更是十分稀缺。在本文中,我们提出一个跨语言对比学习框架来学习低资源语言上的 FGET 模型。具体来说,我们以多语言预训练语言模型作为模型主干,帮助将实体分类所需知识从资源丰富的语言(如英语)转移到资源匮乏的语言(如中文)。此外,我们引入了基于实体对的启发式规则以及机器翻译来获取跨语言远程监督数据,并在远程监督数据上实施跨语言对比学习来增强模型的实体分类能力。实验结果表明,基于上述框架,可以较为轻松地为低资源语言学习有效的 FGET 模型,即使没有任何特定语言的人工标记数据。该工作与腾讯 TencentNLP Oteam 郑孙聪老师团队合作完成。

Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt Verbalizer for Text Classification

作者:胡声鼎,丁宁,汪华东,刘知远,王金刚,李涓子,武威,孙茂松
类型:Long Paper
摘要:使用特定任务提示微调(prompt-tuning)预训练语言模型(PLM)是一种很有前景的文本分类方法。先前的研究表明,与具有额外分类器的普通微调方法相比,提示微调在低数据场景中具有显着优势。提示微调的核心思想是在输入中插入文本片段,即模板,并将分类问题转换为掩码语言建模(MLM)问题,其中关键步骤是在标签空间和标签词空间之间构建投影,即表达器(verbalizer)。表达器通常是手工制作或通过梯度下降搜索的,这可能缺乏覆盖范围,并给结果带来相当大的偏差和高方差。在这项工作中,我们专注于将外部知识整合到表达器中,形成知识增强的提示微调方法(KPT),以改善和稳定表达器。具体来说,我们使用外部知识库(KB)扩展表达器的标签词空间,并在使用扩展的标签词空间进行预测之前使用预训练模型本身对扩展的标签词空间进行细化。零样本和少样本文本分类任务的广泛实验证明了知识增强的提示微调的有效性。该工作与美团搜索与NLP部门合作完成。

Fully Hyperbolic Neural Networks

作者:陈暐泽,韩旭,林衍凯,赵和旭,刘知远,李鹏,孙茂松,周杰
类型:Long Paper
摘要双曲神经网络在复杂数据建模方面有着巨大潜力。然而,现有的大部分双曲神经网络并不能称之为「完全双曲」的,因为它们仅是在双曲空间中编码特征,而仍在双曲空间原点的切空间(一个欧几里得子空间)中进行大部分操作。在不同的空间中频繁切换引入额外的开销和不稳定性。在本文中,我们提出了一个完全的双曲框架,基于洛伦兹变换(包括Boost和Rotation)来建立基于洛伦兹模型的双曲神经网络,以实现神经网络的基本操作。此外,我们还证明了现有双曲神经网络所使用的切空间的线性变换是洛伦兹Rotation的一种松弛情况,且无法表达洛伦兹Boost,限制了现有双曲神经网络的能力。在四个NLP任务上的实验结果表明,我们的方法在构建浅层和深层网络方面都有更好的表现。该工作与腾讯微信模式识别中心合作完成。

Program Transfer for Complex Question Answering over Knowledge Bases

者:曹书林,史佳欣,姚子俊,吕鑫,侯磊,李涓子,刘知远,肖镜辉,于济凡,张含望

类型:Long Paper

摘要在知识库(KB)上回答复杂问题的程序归纳法旨在将问题分解为一个由多个函数组合而成的程序,程序在知识库的执行从而最终答案。程序归纳的学习依赖于给定知识库的大量平行问题-程序对。然而,对于大多数知识库来说,通常是缺乏这样的标注的,这使得学习非常困难。在本文中,我们提出了Program Transfer的方法,其目的是利用富资源知识库上的程序标注作为外部监督信号来帮助缺乏程序标注的低资源知识库的程序归纳。对于Program Transfer,我们设计了一个新颖的两阶段解析框架,并设计了一个高效的基于知识库本体的剪枝策略。首先,一个Sketch解析器将问题翻译成sketch,即函数的组合;然后,给定问题和sketch,一个参数分析器从知识库中搜索具体的函数参数。在搜索过程中,我们结合知识库的本体来调整搜索空间。在ComplexWebQuestions和WebQuestionSP上的实验表明,我们的方法明显优于SOTA方法,证明了Program Transfer和我们框架的有效性。该工作与清华大学李涓子老师团队和华为诺亚实验室刘群老师团队合作完成。

 A Simple but Effective Pluggable Entity Lookup Table for Pre-trained Language Models

作者:叶德铭,林衍凯,李鹏,孙茂松,刘知远
类型:Short Paper
摘要:预训练的语言模型难以记住大规模语料库中丰富事实知识,对于出现频率比较低的实体,预训练模型更容易遗忘它们的上下文信息。在本文中,我们通过聚合一个实体在不同句子中的的输出表示,按照需求构建了一个可插拔的实体词表。构建的词向量可以兼容地插入句子中直接作为输入,将实体知识注入预训练语言模型中。与之前的知识增强型模型相比,我们的方法只需要2‰~5%的预计算量,并且能够从新领域文本获取知识实现领域迁移。在知识探测任务和关系分类任务上的实验表明,我们的方法可以灵活地将知识注入BERT/RoBERTa/BART等多种不同架构的预训练模型。该工作与腾讯微信模式识别中心合作完成。

 二 

Findings of ACL 2022

Sememe Prediction for BabelNet Synsets Using Multilingual and Multimodal Information

作者岂凡超,吕传承,刘知远,孟笑君,孙茂松,郑海涛

类型:Long Paper

摘要:在语言学中,义原被定义为语义的最小单位。人工标注单词的义原知识库已成功应用到各种NLP任务中。然而,现有的义原知识库只涵盖了少数几种语言,阻碍了义原的广泛利用。针对这一问题,文章提出了BabelNet同义词集的义位预测任务(SPBS),旨在基于BabelNet多语言百科词典构建多语言义原知识库。通过自动预测BabelNet同义词集的义原,该同义词集中的多个语言的词将同时获得义原注释。然而,以往的SPBS方法并没有充分利用BabelNet中丰富的信息。在本文中,我们利用BabelNet中的多语言同义词、多语言定义和图像来实现SPBS。我们设计了一个多模态信息融合模型,对这些信息进行编码和组合,进行义原预测。实验结果表明,我们的模型明显优于以前的方法。该工作与清华大学深圳研究院郑海涛老师团队合作完成。

Going "Deeper": Structured Sememe Prediction via Transformer with Tree Attention

作者:叶奕宁,岂凡超,刘知远,孙茂松

类型:Long Paper

摘要:含有单词和最小语义单位的义原知识库在很多NLP任务中有较好的表现。由于人工构建义原知识库费时费力,一些研究试图通过对未标注词语的义原进行预测来实现自动的知识库构建。然而已有的研究忽略了义原语义系统中非常重要的一部分——层次结构。本篇工作中,我们首次尝试结构化的义原预测,即将单词对应的义原预测为树状结构。同时,我们针对性地修改了注意力计算方法,由此设计了基于transformer的义原树预测模型,并在实验中验证了它的有效性。我们也对模型的效果进行了定量和定性的分析。本工作的代码将会开源。

Do Pre-trained Models Benefit Knowledge Graph Completion? A Reliable Evaluation and a Reasonable Approach

作者:吕鑫,林衍凯,曹艺馨,侯磊,李涓子,刘知远,李鹏,周杰
类型:Long Paper
摘要:近年来,预训练语言模型(PLM)已被证明可以从大量文本中捕获事实性知识,这促使了基于PLM的知识图谱补全(KGC)模型的提出。然而,这些模型在性能上仍然落后于目前最佳的KGC模型。在本工作中,我们发现了这些模型性能较弱的两个主要原因。即(1) 不准确的评估设定。在封闭世界假设(CWA)下的评估可能会低估基于PLM的KGC模型,因为这类模型引入了更多的外部知识;(2)对PLM的不恰当利用。大多数基于PLM的KGC模型只是简单地将实体和关系的标签拼接起来作为输入,这导致句子的不连贯,这无法利用PLM中的隐性知识。为了缓解这些问题,我们提出了在开放世界假设(OWA)下的更准确的评估方式,即人工检查不在知识图谱中的知识的正确性。此外,我们还提出了一个新的基于PLM的KGC模型(PKGC)。其基本思想是将每个三元组及额外信息转换为自然的提示句,并进一步将其输入PLM进行分类。我们在两个KGC数据集上的实验结果表明,OWA在评估KGC方面更为可靠,尤其是在链接预测方面。此外,我们的PKCG模型在CWA和OWA设置下均取得了很好的性能。该工作与清华大学李涓子老师团队和腾讯微信模式识别中心周杰老师团队合作完成。

ELLE: Efficient Lifelong Pre-training for Emerging Data

作者:秦禹嘉,张家杰,林衍凯,刘知远,李鹏,孙茂松,周杰
类型:Long Paper
摘要:当前的预训练语言模型(PLM)通常使用固定的、不更新的数据进行训练,而忽略了在现实世界场景中,各种来源的数据可能会不断增长,而这需要 PLM 能够持续地整合各方面的信息。虽然这个目标可以通过对所有新老数据重新大规模训练来实现,但众所周知,这样的过程在计算上是十分昂贵的。为此,我们提出了ELLE,旨在对新来的数据进行高效的持续预训练。具体来说,ELLE包括 (1) 功能维持的模型扩展,它能够灵活地扩展现有 PLM 的宽度和深度,以提高知识获取的效率;(2) 预植领域提示词(prompt),从而让模型能够更好地区分预训练期间学到的通用知识,正确地激发下游任务的知识。我们在 BERT 和 GPT 上使用来自5个领域的数据来试验,结果表明ELLE在预训练效率和下游性能方面优于各种传统的持续学习方法。该工作与腾讯微信模式识别中心周杰老师团队合作完成。

Prompt Tuning for Discriminative Pre-trained Language Models

作者:姚远,董博文,张傲,张正彦,谢若冰,刘知远,林乐宇,孙茂松,王建勇
类型:Short Paper
摘要:在精调预训练语言模型方面,Prompt Tuning取得了令人印象深刻的成果。然而,现有的工作主要集中在对生成式预训练语言模型的Prompt Tuning上,其预训练任务为还原遮盖的文本符号,如BERT。对于判别式的预训练语言模型,例如ELECTRA,是否以及如何能够有效地进行Prompt Tuning,仍然是一个开放挑战。在这项工作中,我们提出了DPT,这是第一个用于判别式预训练语言模型的Prompt Tuning框架,它将NLP任务重新形式化为一个判别式语言建模问题。在文本分类和问答任务上的实验结果表明,与传统精调方法相比,DPT取得了明显更高的性能,同时也避免了在全量数据和低资源场景下精调大模型的不稳定问题。该工作与清华大学计算机系王建勇老师团队以及腾讯搜索应用部林乐宇老师团队完成。

国际计算语言学年会(Annual Meeting of the Association for Computational Linguistics,简称ACL)是自然语言处理领域顶级学术会议,在世界范围内每年召开一次,2022年是第60届会议,将于5月22-27日在爱尔兰首都都柏林以线上线下混合形式举行。


本次ACL会议首次与滚动审稿ARR合作,并首次在OpenReview系统上进行审稿匹配。在滚动审稿中,作者先将论文提交到论文池进行集中滚动审阅,在充分完善后,再将论文、ARR审稿意见等提交至ACL 2022。


大会官网:https://2022.aclweb.org/。


浏览 86
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报