轻松上手,通过微调Transformers完成命名实体识别任务

大数据文摘

共 5757字,需浏览 12分钟

 ·

2021-04-02 12:44

大数据文摘授权转载自THU数据派
作者:Lars Kjeldgaard
翻译:王闯(Chuck)
校对:和中华

在本文中,我们将介绍如何通过简单微调(fine-tune)任意预训练的(pretrained)自然语言处理transformer,来完成任意语言中的命名实体识别(Named-Entity Recognition, NER)任务。
 
为什么这个话题值得你关注?因为NER是一项强大的自然语言处理任务,在诸多领域都有实际应用,在Towards Data Science之前的帖子中已有详细介绍。然而要想得到不错的NER模型效果,通常需要基于预训练的transformer对NER模型进行特定语言或领域的微调,这在计算资源有限的情况下,是比较可行的办法,而且能看到实际效果。
 
为了展示如何做到,我们使用python的NERDA包调用BERT transformer对NER模型进行微调。
 
NERDA是一套通用的NER系统,可用于以最少的代码量对任意语言的NER任务和任意transformer进行微调。
 

命名实体识别简介

 
如果你还不熟悉NER,请查看维基百科上的定义:
 
命名实体识别(也称(命名)实体标识,实体片取或实体提取)是用于信息提取的自然语言处理子任务,旨在将非结构化文本中提到的命名实体定位并分到预定义的类别,例如人名,组织机构名,地名,医疗代码,时间,数量,货币值,百分比等。
 
我们可以通过一个NER任务的例子来作进一步解释。
 
任务:在文本中标识人名和组织机构名:
 
Jim bought 300 shares of Acme Corp.
 
解答:人名:'Jim',组织机构名:'Acme Corp.'
 
若你想获得本文中提到的其他概念和技术的介绍,请移步文末“参考资料”部分,那里我们列了许多Towards Data Science先前的帖子。
 

工具箱

 
现在,我们要实际上手为NER微调transformer了。
 
无论你选择哪一种transformer和目标语言,我们这里介绍的步骤都是通用的。
 
我们将利用python的NERDA包来完成这项工作。

“NERDA” Python包的官方徽标,由Ekstra Bladet新闻提供
 
NERDA拥有为NER任务进行transformers微调的易用接口。它基于流行的机器学习框架PyTorch和Hugging Face transformers。
 
NERDA是开源的,可在Python Package Index(PyPI)上获得。它可通过如下方式安装:
 
pip install NERDA

数据集
 
我们将使用带有NER标注的CoNLL-2003英文数据集来训练和验证我们的模型。

首先,我们下载数据集并加载预定义且拆分过的训练数据和验证数据。
 
from NERDA.datasets import get_conll_data, download_conll_data download_conll_data()training = get_conll_data('train')validation = get_conll_data('valid')

CoNLL-2003使用以下类型的命名实体(相当标准的类别)进行操作:
 
1. 人名(PER)
2. 组织机构名(ORG)
3. 地名(LOC)
4. 其他(MISC)
5. 未命名实体(O)

CoNLL-2003数据集中的每一条观测值都是一个经过分词的句子,每个分词都带有一个命名实体标签。

下面,你将看到CoNLL数据集中随机取出的一个句子示例,同时列出了其分词与对应的命名实体标签([标签])。
 
Germany [B-LOC]'s [O]representative [O]to [O] the [O]European [B-ORG] Union [I-ORG] 's [O]veterinary [O] committee [O]Werner [B-PER] Zwingmann [I-PER]said [O]on [O] Wednesday [O]...

数据集采用了IOB标注方式。
 
IOB标注法的意思是,以'B-'标记命名实体开头的单词,以'I-'标记命名实体中间的单词。
 
在上面的示例中,“Germany”标记为地名(LOC),“European Union”标记为组织机构名(ORG),“ Werner Zwingmann”标识为人名(PER)。
 

建模

 
第一步,我们为任务指定可用的NER标签(不包括特殊的O(Outside,表示不在短语中)标签)。
 
tag_scheme = [ 'B-PER','I-PER','B-ORG','I-ORG','B-LOC','I-LOC','B-MISC','I-MISC' ]

接下来,我们必须做出选择,要微调Hugging Face上众多transformers中的哪一个。这里我们以uncased multilingual BERT transformer为例(常见选择之一)。
 
transformer = 'bert-base-multilingual-uncased'
 
同时,我们为网络层及模型训练本身提供一套基本的超参数配置。
 
# hyperparameters for networkdropout = 0.1# hyperparameters for trainingtraininghyperparameters = {'epochs' : 4,'warmup_steps' : 500,'train_batch_size': 13,'learning_rate': 0.0001}

整合

 
现在,使用NERDA模型接口将各个部分整合到一个完整的模型配置中。

from NERDA.models import NERDAmodel = NERDA(dataset_training = training,dataset_validation = validation,tag_scheme = tag_scheme, tag_outside = 'O',transformer = transformer,dropout = dropout,hyperparameters = training_hyperparameters)
 
在底层NERDA实现了一个torch神经网络,该神经网络建立在所选的transformer(在本例中为BERT)上。默认情况下,网络架构将类似于Hvingelby等人2020年发表的论文中提出的模型之一。(如果你愿意,也可以提出自己的网络架构)。
 
为了训练模型并微调BERT transformer,接下来唯一要做的就是调用train方法。

model.train()
 
注意:这将花上一些时间,具体取决于特征的维度(如果你想略过模型训练,则可以直接使用NERDA中提供的预训练模型)。
 
到这就大功告成了。现在,我们已经为NER微调了属于自己的一个基于BERT的最优效果 (state-of-the-art)模型。
 
让我们看看该模型在独立测试集上的表现(通过F1得分评估)。

>>> test = get_conll_data('test')>>> model.evaluate_performance(test)级别F1-分数B-PER 0.963 I-PER 0.987 B-ORG 0.887 I-ORG 0.866 B-LOC 0.922 I-LOC 0.817 B- MISC 0.823 I-MISC 0.680 AVG_MICRO 0.907

“ AVG_MICRO”:跨实体标签的F1分数的微平均值(micro-averaged F1-score)。
 
如你所见,模型表现看起来很棒。
 
现在,我们可以使用该模型来识别新文本中的命名实体,例如:

>>> model.predict_text('Cristiano Ronaldo plays for Juventus FC')([['Cristian', 'Ronaldo', 'plays', 'for', 'Juventus', 'FC']], [['B-PER', 'I-PER', 'O', 'O', 'B-ORG', 'I-ORG']])
 
该模型(正确地)将“ Cristiano Ronaldo”(足球运动员)标识为人名,并将“ Juventus FC”(足球俱乐部)标识为组织机构名。
 

微调任意Transformer

 
Hugging Face上目前已提供了超过5000种transformer模型。那么你应该微调哪一个呢?我们不想让你失望,但答案是:这要视情况而定。天下没有免费的午餐。Transformer模型都有各自的优缺点。此外,当你挑选transformer的时候,也要相应照顾到到计算资源的预算,和节能环保的意识。
 
如前所述,BERT通常是一个不错的选择。但是,与BERT相比,后起之秀ELECTRA则轻巧许多,计算效率更高,并且在NER任务上仍然表现出色。
 
无论你选择哪种transformer,NERDA都提供支持。在上面的代码示例中,如果想要把transformer从BERT改成ELECTRA,只需要更改transformer参数,即:

model = NERDA(...,transformer = 'google/electra-small-discriminator',...)
 

微调任意语言

 
NERDA可以用于微调任意语言的transformer,比如使用你自己的数据集。为了微调NER中丹麦语的transformer,我们可以利用DaNE数据集,该数据集由带有NER注释的丹麦语句子组成。
 
为实现此目的,你只需要在前一个代码示例中做出非常简单的改变:

from NERDA.datasets import get_dane_datamodel = NERDA(...,dataset_training = get_dane_data('train'),dataset_validation = get_dane_data('dev'),...)
 
如果你没有任何(或是还不够)所需语言的经过NER标注的训练数据,那么你可以利用doccano之类的工具来批量标注新文本。
 
出乎意料的是,NERDA对特定语言的微调并不需要你想像那么多的带标注的数据,因为NERDA可以利用transformer中已经存在的知识。例如,丹麦NER数据集DaNE包含的句子虽不超过5500个,却足以训练NERDA模型,性能还不错。
 

关于NERDA

 
NERDA是丹麦小报Ekstra Bladet在“新闻智能平台(PIN)”开发活动中的一部分成果。PIN是一个业界研究项目,合作方包括丹麦技术大学,哥本哈根大学和哥本哈根商学院,获得了丹麦创新基金的资助。该项目的起止时间为2020年至2023年,用于研发新闻发布的推荐系统和自然语言处理系统,其部分研究成果已开源,如NERDA。
 
原文标题:
Easy Fine-Tuning of Transformers for Named-Entity Recognition
原文链接:
https://towardsdatascience.com/easy-fine-tuning-of-transformers-for-named-entity-recognition-d72f2b5340e3

参考资料: 

https://github.com/ebanalyse/NERDA

https://huggingface.co/

https://pytorch.org/

https://github.com/google-research/bert

“DaNE: A Named Entity Ressource for Danish”, Hvingelby et. al (2020):http://www.lrec-conf.org/proceedings/lrec2020/pdf/2020.lrec-1.565.pdf

https://github.com/google-research/electra

https://towardsdatascience.com/what-are-transformers-and-how-can-you-use-them-f7ccd546071a

https://towardsdatascience.com/bert-explained-state-of-the-art-language-model-for-nlp-f8b21a9b6270

https://towardsdatascience.com/understanding-electra-and-training-an-electra-language-model-3d33e3a9660d

 
编辑:于腾凯
校对:林亦霖


点「在看」的人都变好看了哦!
浏览 37
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报