白话NLP中的语义匹配方法
1 语义匹配的场景
语义匹配的核心其实是评价两个query之间的相似度,可以看看现在常用的场景:
搜索领域,语义向量召回是一个比较新潮的召回方式,灵活性更高,下游的精排部分也可以通过语义相似度来进行排序。 智能客服,之前的阿里小蜜的文章也提过,对于长尾的结果,可以通过向量召回的方式来进行处理。 对话领域,可以说是智能客服的眼神,闲聊类的,可以通过语义匹配完成闲聊的回复,当然多轮也有多轮的玩法。
可以看到,各种领域,其实语义匹配的舞台非常大,了解这方面的方案对NLP技术栈的了解非常有用。
2 方法选型
2.1 文本层面的相似
最简单的方法往往就是最浅层的方案,所以还是文本层面的相似,方法逐步升级是这样的:
编辑距离,这应该是最严格的一种相似了。 cqr,分子是句子1和句子2词汇的交集词汇量,分母是句子1和句子2的并集词汇量。 加权的cqr,可以做一个简单的词权重,然后做加权的cqr。 BM25。传统搜索的常用方法。
文本层面的方法,在搜索领域已经非常成熟,BM25已经具有很高的准度,结合上游常用的一些改写,其实已经能够达到很好的效果,这也是经典搜索最常用的一套范式。
2.2 向量表征作召回
向量召回是当前比较流行的一种新的搜索技术,这里以来两个关键技术点,向量索引和句子表征技术。
向量索引的是指就是一种向量最近邻的搜索方案,最常用的场景就是KNN,而在我们的场景中,就是把句子表征成一个向量,构建索引,新来一个句子,用同样的放哪个还是构建一个向量,就可以完成相似度召回,常用的构建索引方式推荐两种,这两种都已经有开源工具支持。
annoy,一种基于树的构造方法。 hnsw,一种基于图的构造方法,这应该是目前我已知速度最快的方法了。
说完了向量索引,就要说向量表征了,只有足够好的向量表征,上面说的向量召回,召回的东西才会足够好,为什么我说好呢,就是因为这里涉及的好的维度多:
准确率足够高,召回的内容真的是和句子足够接近。 有比较强的泛化能力,这也是语义向量召回相比传统搜索的相似召回最突出的优势,只要语义足够接近,“查询”和“查看”就可能匹配到,“幂幂”和“杨幂”也能打中,这样能降低我们挖掘数据带来的成本。 好的相似度匹配能识别关键词,只需要模型端到端处理,不需要单独抽关键词。
那么,这个语义表征,一般都是什么方法呢,这里也是提几个:
word2vector预训练。如果语料不足甚至没有语料,我们其实可以用开源的预训练好的w2v词向量作为基线,取均值就能拿到句向量。 如果有一些平行样本,可以开始考虑用一些平行预料(sentence1,setence2,label)进行finetuning,说白了就是两个向量分别去词向量后均值,最终用余弦或者欧氏距离计算相似度就行。 数据量足够后,就可以开始在上面搭积木了,CNN、LSTM之类的都可以尝试,当然经验之谈,self-attention可以尝试。 数据量再多点,我们就可以上bert之类的大家伙了。
现在的语义相似度,更多是通过优化交互特征来提升相似度计算的效果,但是在向量召回这里,由于目前只能支持简单的相似度召回,两个query只有在计算相似度的最后一步才能够见面,因此query之间的交互特征是无法提取的,所以很多现在流行的方法是用不了的。
2.3 语义相似度
如果语义相似度要被用在后续的精排,无论是搜索、对话甚至是推荐,在经历初筛之后,我们往往有更多时间和经历来比对剩余的结果和用户query之间的相似程度,此时我们就可以使用交互特征逐一匹配,完成最后的精排,这些方案往往在大量比赛中就有提到,以DSSM为基,升级很多方案,包括很多人知道的EISM等,当然比赛的经验也告诉我们,模型本身还可以加入更多的文本特征来协助衡量语义相似度,因此在用语义相似度模型的同时,可以加入一些人工特征来协助优化,这也是推荐系统的wide&deep中所提到的深浅层特征均用的思想。
这里给一篇蚂蚁金服比赛的文章吧,大家可以根据这个思路去参考优化:https://blog.csdn.net/u014732537/article/details/81038260
3 优化手段
当然,上面的方式是让大家用最快的速度去完成一个demo或者说baseline,然后我们需要一系列的手段进行优化,在这里也给大家介绍一些有用的方案。
如果你的场景里需要一些英文,可以加入一些英文文本去finetuning,开放域的。 针对问答场景,由于用户的问题都有明显意图,因此做一些词权重、attention的操作有利于效果提升,包括提槽,当然在浅层模型的情况下,词的归一化也有好处。 通过传统的搜索,用ES召回之类而方式,可以召回很多文本接近但是语义遥远的case,通过人工标注的样本对效果的提升很有好处。 同样是hard case挖掘,用自己的语义模型做召回,召回在阈值附近的case,做一下人工的复核,这样做样本也对效果提升有好处,这其实用的是主动学习的思想。
4 小结
做完搜索,后来又开始做向量表征和召回,感觉就很奇妙,能够理解传统搜索和相对新潮的向量表征召回之间的关系,这两者之间的关系还是挺微妙地,互相借鉴的过程中能够产生一些火花,例如向量检索之前可以召回一些相似的、标准的query然后来检索,这样能大幅提升准确率,也一定程度降低了对模型深度的要求。(隐约感觉是时候写一篇有关模型和规则特征之间关系的文章了?)