近期必读的六篇 EMNLP 2020【知识图谱】相关论文和代码

共 3961字,需浏览 8分钟

 ·

2020-11-17 20:08



  新智元报道  

来源:专知

编辑:SF

【新智元导读】六篇论文涵盖知识图谱表示、常识、任务型对话、多语种知识库补全、开放式KG表示、社会常识推理等。

一年一度的全球学术大会EMNLP是计算机语言学和自然语言处理领域最受关注的国际学术会议之一,由国际语言学会(ACL)旗下SIGDAT组织。据悉,EMNLP 2020共收到有效投稿3114篇,录用602篇长文和150篇短文。

近期,所有Paper list 放出,也包括(Findings of EMNLP),知识图谱表示及其应用相关的接受paper很多,在其他领域比如CV、数据挖掘、推荐等也广受关注。

为此,这期小编为大家奉上EMNLP 2020必读的六篇知识图谱(Knowledge Graph)相关论文——知识图谱表示、常识、任务型对话、多语种知识库补全、开放式KG表示、社会常识推理

EMNLP 2020 Accepted Papers :
https://2020.emnlp.org/papers/main

ICLR2020CI、ICML2020CI

1. AutoETER: Automated Entity Type Representation for Knowledge Graph Embedding


作者:Guanglin Niu, Bo Li, Yongfei Zhang, Shiliang Pu, Jingyang Li
摘要:知识图谱嵌入(KGE)可以表示连续向量空间中的实体和关系。一些利用附加类型信息的传统KGE模型可以改善实体的表示,但这些模型完全依赖于显式类型(explicit types),或者忽略了特定于各种关系的不同类型表示。此外,现有的方法中没有一种方法能够同时推断对称、反转、合成的所有关系模式以及1-N、N-1和n-N关系的复杂属性。

为了探索任何KG的类型信息,我们提出了一种新的KGE框架自动实体类型表示(AutoETER),通过将每个关系看作是两个实体类型之间的转换(translation)操作来学习每个实体的潜在类型嵌入,并利用关系感知映射机制来学习每个实体的潜在类型嵌入。

特别是,我们设计的自动类型表示学习机制是一个可插拔的模块,可以很容易地与任何KGE模型集成。此外,我们的方法可以对所有的关系模式和复杂关系进行建模和推理。在四个数据集上的实验表明,该模型在链接预测任务上的性能优于最新的基线,类型聚类的可视化清楚地解释了类型嵌入的原因,验证了该模型的有效性。
网址:
https://www.zhuanzhi.ai/paper/aa816ee93d98243012f3ad0e460c5785

2. COSMIC: COmmonSense knowledge for eMotion Identification in Conversations


作者:Deepanway Ghosal, Navonil Majumder, 
Alexander Gelbukh, Rada Mihalcea, Soujanya Poria
摘要:在本文中,我们利用常识知识解决了会话中语言级别的情感识别问题。我们提出了COSMIC,这是一个新的框架,它融合了不同的常识元素,如心理状态、事件和因果关系,并在它们的基础上学习参与对话的对话者之间的互动。

目前最先进的方法在上下文传播、情感转移检测和区分相关情感类别方面经常遇到困难。通过学习不同的常识表示,COSMIC解决了这些挑战,并在四个不同的基准对话数据集上取得了新的情感识别最先进的结果。
代码:
https://github.com/declare-lab/convemotion.
网址:
https://www.zhuanzhi.ai/paper/cf5cc4ecab2e09aeb068b9c6244aeec6


3. Learning Knowledge Bases with Parameters for Task-Oriented Dialogue Systems


作者:Andrea Madotto, Samuel Cahyawijaya,
Genta Indra Winata, Yan Xu, Zihan Liu, Zhaojiang Lin, Pascale Fung
摘要:面向任务的对话系统要么通过单独的对话状态跟踪(DST)和管理步骤实现模块化,要么是端到端可训练。在这两种情况下,知识库(KB)在满足用户请求方面起着至关重要的作用。模块化系统依赖DST与知识库交互,这在注释和推理时间方面是昂贵的。端到端系统直接使用知识库作为输入,但当知识库大于几百个条目时,它们无法进行扩展。

在本文中,我们提出了一种将任意大小的知识库直接嵌入到模型参数中的方法。所得到的模型不需要任何DST或模板响应,也不需要知识库作为输入,并且它可以通过微调来动态更新其知识库。

我们在五个小、中、大的KB的面向任务的对话数据集中对我们的解决方案进行了评估。我们的实验表明,端到端模型可以有效地将知识库嵌入到它们的参数中,并在所有被评估的数据集上获得具有竞争力的性能。
代码:
https://github.com/HLTCHKUST/ke-dialogue
网址:
https://www.zhuanzhi.ai/paper/52d313f42ec03418f2016f30c30cf445

4. Multilingual Knowledge Graph Completion via Ensemble Knowledge Transfer


作者:Xuelu Chen, Muhao Chen, Changjun Fan, Ankith Uppunda, Yizhou Sun, Carlo Zaniolo
摘要:预测知识图(KG)中的缺失事实是知识库构建和推理中的一项重要任务,也是近年来利用知识图嵌入(KG embeddings)进行研究的一个重要课题。

虽然现有的KG嵌入方法主要是在单个KG中学习和预测事实,但考虑到不同KG在数据质量和覆盖范围方面有各自的优势和局限性,一个更合理的解决方案是从多个特定语言KG中的知识去尝试融合。但这是相当具有挑战性的,因为多个独立维护的KG之间的知识迁移经常受到比对信息不足和描述事实不一致的障碍。

在本文中,我们提出了一种新的框架KENS,用于嵌入学习和跨多个特定语言的KG进行集成知识迁移。KENS将所有KG嵌入到一个共享的嵌入空间中,在那里基于自学习捕获实体之间的关联。

然后,KENS进行集成推理,合并来自多个特定语言KG嵌入的预测结果,并为此研究了多个集成技术。在五个实际语言特定的KG上的实验表明,KENS通过有效地识别和利用互补知识,不断改进KG补全的最新方法。
网址:
hhttps://www.zhuanzhi.ai/paper/cdb66907132d750044e2ef7f83f25427

5. Out-of-Sample Representation Learning for Knowledge Graphs

作者:Marjan Albooyeh, Rishab Goel, Seyed Mehran Kazemi
摘要:许多重要问题都可以表示为知识图中的推理。表示学习已经被证明对直推式推理(transductive reasoning)非常有效,在transductive 推理中,一个人需要对已经观察到的实体做出新的预测,属性图(其中每个实体都有初始特征向量)和非属性图(其中唯一的初始信息来自与其他实体的已知关系)都是如此。

对于样本外推理( out-of-sample reasoning),人们需要对训练时看不到的实体进行预测,许多以前的工作都考虑属性图。然而,对于非属性图的样本外推理,并没有得到充分的研究。

在本文中,我们研究了非属性知识图的样本外表示学习问题,为这一任务创建了基准数据集,开发了几个模型和基线,并对所提出的模型和基线进行了实证分析和比较。
网址:
https://arxiv.org/abs/2004.13230

6. Social Commonsense Reasoning with Multi-Head Knowledge Attention

作者:Debjit Paul, Anette Frank
摘要:社会常识推理需要对文本的理解,对社会事件及其实际含义的了解以及常识推理能力。在这项工作中,我们提出了一种新的多头知识注意模型,该模型对半结构化常识推理规则进行编码,并学习将其合并到基于transformer的推理单元中。

我们评估了该模型在两个需要不同推理技能的任务上的性能:作为一项新任务的归纳自然语言推理(Abductive Natural Language Inference)和反事实不变性预测(Counterfactual Invariance Prediction)。

我们表明,我们提出的模型在两个推理任务上都比最先进模型(即Roberta)提高了性能。值得注意的是,据我们所知,我们是第一个证明学习执行反事实推理的模型有助于在溯因推理任务中预测最佳解释的人。通过对知识的扰动,我们验证了模型推理能力的健壮性,并对模型的知识融合能力进行了定性分析。


网址:
https://www.zhuanzhi.ai/paper/97225d0afad9d08ad967d628619c8a56




浏览 40
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报