在本文中,我们将介绍如何通过简单微调(fine-tune)任意预训练的(pretrained)自然语言处理transformer,来完成任意语言中的命名实体识别(Named-Entity Recognition, NER)任务。为什么这个话题值得你关注?因为NER是一项强大的自然语言处理任务,在诸多领域都有实际应用,在Towards Data Science之前的帖子中已有详细介绍。然而要想得到不错的NER模型效果,通常需要基于预训练的transformer对NER模型进行特定语言或领域的微调,这在计算资源有限的情况下,是比较可行的办法,而且能看到实际效果。为了展示如何做到,我们使用python的NERDA包调用BERT transformer对NER模型进行微调。NERDA是一套通用的NER系统,可用于以最少的代码量对任意语言的NER任务和任意transformer进行微调。命名实体识别简介
命名实体识别(也称(命名)实体标识,实体片取或实体提取)是用于信息提取的自然语言处理子任务,旨在将非结构化文本中提到的命名实体定位并分到预定义的类别,例如人名,组织机构名,地名,医疗代码,时间,数量,货币值,百分比等。Jim bought 300 shares of Acme Corp.解答:人名:'Jim',组织机构名:'Acme Corp.'若你想获得本文中提到的其他概念和技术的介绍,请移步文末“参考资料”部分,那里我们列了许多Towards Data Science先前的帖子。工具箱
现在,我们要实际上手为NER微调transformer了。无论你选择哪一种transformer和目标语言,我们这里介绍的步骤都是通用的。我们将利用python的NERDA包来完成这项工作。“NERDA” Python包的官方徽标,由Ekstra Bladet新闻提供NERDA拥有为NER任务进行transformers微调的易用接口。它基于流行的机器学习框架PyTorch和Hugging Face transformers。NERDA是开源的,可在Python Package Index(PyPI)上获得。它可通过如下方式安装:我们将使用带有NER标注的CoNLL-2003英文数据集来训练和验证我们的模型。首先,我们下载数据集并加载预定义且拆分过的训练数据和验证数据。from NERDA.datasets import get_conll_data, download_conll_data download_conll_data()
training = get_conll_data('train')
validation = get_conll_data('valid')
CoNLL-2003使用以下类型的命名实体(相当标准的类别)进行操作:CoNLL-2003数据集中的每一条观测值都是一个经过分词的句子,每个分词都带有一个命名实体标签。下面,你将看到CoNLL数据集中随机取出的一个句子示例,同时列出了其分词与对应的命名实体标签([标签])。Germany [B-LOC]
's [O]
representative [O]
to [O]
the [O]European [B-ORG]
Union [I-ORG]
's [O]
veterinary [O]
committee [O
]Werner [B-PER]
Zwingmann [I-PER]
said [O]
on [O]
Wednesday [O]
...
IOB标注法的意思是,以'B-'标记命名实体开头的单词,以'I-'标记命名实体中间的单词。在上面的示例中,“Germany”标记为地名(LOC),“European Union”标记为组织机构名(ORG),“ Werner Zwingmann”标识为人名(PER)。建模
第一步,我们为任务指定可用的NER标签(不包括特殊的O(Outside,表示不在短语中)标签)。tag_scheme = [
'B-PER',
'I-PER',
'B-ORG',
'I-ORG',
'B-LOC',
'I-LOC',
'B-MISC',
'I-MISC'
]
接下来,我们必须做出选择,要微调Hugging Face上众多transformers中的哪一个。这里我们以uncased multilingual BERT transformer为例(常见选择之一)。transformer = 'bert-base-multilingual-uncased'
同时,我们为网络层及模型训练本身提供一套基本的超参数配置。# hyperparameters for network
dropout = 0.1
# hyperparameters for trainingtraining
hyperparameters = {
'epochs' : 4,
'warmup_steps' : 500,
'train_batch_size': 13,
'learning_rate': 0.0001
}
整合
现在,使用NERDA模型接口将各个部分整合到一个完整的模型配置中。from NERDA.models import NERDA
model = NERDA(
dataset_training = training,
dataset_validation = validation,
tag_scheme = tag_scheme,
tag_outside = 'O',
transformer = transformer,
dropout = dropout,
hyperparameters = training_hyperparameters
)
在底层NERDA实现了一个torch神经网络,该神经网络建立在所选的transformer(在本例中为BERT)上。默认情况下,网络架构将类似于Hvingelby等人2020年发表的论文中提出的模型之一。(如果你愿意,也可以提出自己的网络架构)。为了训练模型并微调BERT transformer,接下来唯一要做的就是调用train方法。注意:这将花上一些时间,具体取决于特征的维度(如果你想略过模型训练,则可以直接使用NERDA中提供的预训练模型)。到这就大功告成了。现在,我们已经为NER微调了属于自己的一个基于BERT的最优效果 (state-of-the-art)模型。让我们看看该模型在独立测试集上的表现(通过F1得分评估)。>>> test = get_conll_data('test')
>>> model.evaluate_performance(test)
级别F1-分数
B-PER 0.963
I-PER 0.987
B-ORG 0.887
I-ORG 0.866
B-LOC 0.922
I-LOC 0.817
B- MISC 0.823
I-MISC 0.680
AVG_MICRO 0.907
“ AVG_MICRO”:跨实体标签的F1分数的微平均值(micro-averaged F1-score)。现在,我们可以使用该模型来识别新文本中的命名实体,例如:>>> model.predict_text('Cristiano Ronaldo plays for Juventus FC')
([['Cristian', 'Ronaldo', 'plays', 'for', 'Juventus', 'FC']],
[['B-PER', 'I-PER', 'O', 'O', 'B-ORG', 'I-ORG']])
该模型(正确地)将“ Cristiano Ronaldo”(足球运动员)标识为人名,并将“ Juventus FC”(足球俱乐部)标识为组织机构名。微调任意Transformer
Hugging Face上目前已提供了超过5000种transformer模型。那么你应该微调哪一个呢?我们不想让你失望,但答案是:这要视情况而定。天下没有免费的午餐。Transformer模型都有各自的优缺点。此外,当你挑选transformer的时候,也要相应照顾到到计算资源的预算,和节能环保的意识。如前所述,BERT通常是一个不错的选择。但是,与BERT相比,后起之秀ELECTRA则轻巧许多,计算效率更高,并且在NER任务上仍然表现出色。无论你选择哪种transformer,NERDA都提供支持。在上面的代码示例中,如果想要把transformer从BERT改成ELECTRA,只需要更改transformer参数,即:model = NERDA(
...,
transformer = 'google/electra-small-discriminator',
...
)
微调任意语言
NERDA可以用于微调任意语言的transformer,比如使用你自己的数据集。为了微调NER中丹麦语的transformer,我们可以利用DaNE数据集,该数据集由带有NER注释的丹麦语句子组成。为实现此目的,你只需要在前一个代码示例中做出非常简单的改变:from NERDA.datasets import get_dane_data
model = NERDA(
...,
dataset_training = get_dane_data('train')
,dataset_validation = get_dane_data('dev'),
...
)
如果你没有任何(或是还不够)所需语言的经过NER标注的训练数据,那么你可以利用doccano之类的工具来批量标注新文本。出乎意料的是,NERDA对特定语言的微调并不需要你想像那么多的带标注的数据,因为NERDA可以利用transformer中已经存在的知识。例如,丹麦NER数据集DaNE包含的句子虽不超过5500个,却足以训练NERDA模型,性能还不错。关于NERDA
NERDA是丹麦小报Ekstra Bladet在“新闻智能平台(PIN)”开发活动中的一部分成果。PIN是一个业界研究项目,合作方包括丹麦技术大学,哥本哈根大学和哥本哈根商学院,获得了丹麦创新基金的资助。该项目的起止时间为2020年至2023年,用于研发新闻发布的推荐系统和自然语言处理系统,其部分研究成果已开源,如NERDA。Easy Fine-Tuning of Transformers for Named-Entity Recognitionhttps://towardsdatascience.com/easy-fine-tuning-of-transformers-for-named-entity-recognition-d72f2b5340e3https://github.com/ebanalyse/NERDA
https://huggingface.co/
https://pytorch.org/
https://github.com/google-research/bert
“DaNE: A Named Entity Ressource for Danish”, Hvingelby et. al (2020):http://www.lrec-conf.org/proceedings/lrec2020/pdf/2020.lrec-1.565.pdf
https://github.com/google-research/electra
https://towardsdatascience.com/what-are-transformers-and-how-can-you-use-them-f7ccd546071a
https://towardsdatascience.com/bert-explained-state-of-the-art-language-model-for-nlp-f8b21a9b6270
https://towardsdatascience.com/understanding-electra-and-training-an-electra-language-model-3d33e3a9660d