【NLP】探索NLP模型可解释性的7种姿势

机器学习初学者

共 2799字,需浏览 6分钟

 ·

2021-11-15 10:13

每次看badcase时,都会怀疑自己的能力,是我哪里做的不对吗?这都学不会?

幸运的话,会找到一批有共性的问题,再有针对性地加入训练数据或者改动模型解决。而不幸的话,就是这儿错一个那儿错一个,想改动都无从下手。

今天,就推荐一篇香侬科技出品的「NLP模型可解释性综述」,帮大家寻找模型预测结果的根据所在,从而更有针对性地进行优化。

论文:Interpreting Deep Learning Models in Natural Language Processing: A Review

这篇文章描述的「可解释性」,旨在理解模型为什么给出当前的预测结果。从预测结果根据的出处来看,作者把可解释性方法分为三类:

  1. Training-based:从训练数据找根据,比如某条训练样本使得模型将当前测试样本预测为A类
  2. Test-based:从测试数据本身找根据,比如某个词、某个片段
  3. Hybrid-based:同时从训练数据和测试数据找根据

从可解释性方法的使用来看,又可以分为两种:

  1. Joint methods:把负责可解释性的模块加入到模型中一起训练
  2. Pos-hoc methods:在训练后加入可解释性模块

接下来的梳理主要以第一种分类体系为主线,不过作者也同时给出了每个方法的使用方式:

Training-based

Influence Functions

这类方法主要通过一个函数,来衡量训练样本z对于测试样本x的影响。最naive的方法就是去掉z再训练一个模型,但这样测完的时候就可以领盒饭走人了。不过我们有数学呀!于是在计算训练loss的时候,我们可以给样本z的loss加一个扰动,然后就能计算出z对于模型权重的影响,再把x输入进去,就能计算出每个z对每个x的影响情况。

由于公式太复杂,我就不列出来杀大家的脑细胞了。其中有个问题是Hessian矩阵比较难算,对于深度模型简直是灾难。于是又有学者提出了更简单的方法:Turn over dropout

该方法的核心思想是,在训练完模型后,得到每个样本的一个mask矩阵m(z),应用mask之后可以分离出那些不受样本z影响的神经元。于是我们可以应用矩阵得到两个子网络,再输入x后预测,就能计算出预测的diff。

KNNs Based Interpretation

基于KNN的方法旨在通过测试样本的隐层表示找到相近的训练样本

这个方法理解起来就容易多了,而且很实用。比如我们在做分类任务时,有的测试样本置信度没那么高,这时就可以通过KNN的方法去找相近的TopK个训练样本,根据它们的label分布来帮助预测:

Kernel based Interpretation

这类方法比较老了,参考文献都是18、19年的。具体做法是,先用核函数对预测样本x和多个训练样本l计算相似度K(x,l),之后把相似度矩阵投影成更高维的表示,再输入神经网络进行预测。之后再利用LRP(Layerwise Relevance Propagation)反向计算每层、每个神经元的相关性分数,传导回训练样本那一层就能知道每个样本对测试数据的影响了。

在训练时,Kernel和投影层都是一起训练的,所以这种方法既需要在训练时加入,又需要训练后的计算。

Test-based

Saliency-based Interpretation

这种方法的核心思想是利用一些metric计算测试样本中token、spen的重要程度。作者列出了很多种可以用的metirc:

Attention-based Interpretation

这个相信大家都熟悉了,就是通过观察attention矩阵来分析token的重要程度

但有意思的事,作者也在参考文献中发现了一些质疑的声音:Attention确实能给可解释性提供帮助吗?

在一篇19年的工作《Attention is not explanation》中,该作者提到,如果注意力权重真的能提供可解释性,那它应该具备两个性质

  1. 注意力权重应该和基于特征的Saliency-based方法有很高的相关性
  2. 改变注意力权重会影响预测结果

但是之后,该作者通过一系列的实验,证实attention不具备上述两个性质。所以直到现在(2021年11月),注意力机制是否能提供可解释性这个问题还处于争论之中。

不过该工作的实验是基于BiLSTM+Attention的,仍然有很多基于BERT的实验表明,注意力机制确实学到了不少的语言知识。

Explanation Generation

这个方法就有意思了,上述我们介绍的可解释性方法,对于人类来说可读性都比较弱。而这类方法就要求输出对人类更友好的「解释」。比如:

  1. Extractive/Abstractive Rationale:通过抽取或者生成的方式,把样本中对结果影响大的部分输出出来
  2. Concept-based:将预测样本联系到一些抽象概念上,比如在对餐厅的评价中,哪些词语是形容口味的、环境的等等,相当于给出了推理过程
  3. Hierarchical:自底向上分别给句子的每个token、span打分,哪个片段是正向、哪个是负向,也相当于给出了推理过程

总结

可解释性算是一个没那么热的方向,首先是深度模型确实太复杂了、太随机了,有时候自己想的一堆idea都没用,一个bug反而有提升。到了解释的时候全靠猜,可能是哪里分布不一致?或者是模型已经足够强了,我加的输入知识它不需要?其次是大部分人都是结果导向,有时间研究不确定的可解释性,不如花心思在指标提升上。

要说可解释性重不重要,那肯定是重要的。如果对模型的了解更深入,就可以避免一些高风险的badcase。比如风控领域,一个反动内容可能会灭了一家公司,再比如医疗领域,一个错误的预测可能影响患者的生命

论文的结尾,作者列出了很多的开放问题等待大家探索:

  1. 到底怎样才算可解释?
  2. 如何评估这些探究可解释性的方法?
  3. 是为算法工程师提供解释,还是为看到结果的用户提供解释?
  4. 目前的可解释性方法大多研究分类任务,而其他任务呢?
  5. 很多可解释性方法提供的结果不一致
  6. 是否要牺牲性能获取更高的可解释性?
  7. 可解释性方法如何应用?它的价值有多少?

那么最后,深度模型是否真的可解释?这个问题我也没有想清楚,世上无法解释的东西太多了


往期精彩回顾




站qq群554839127,加入微信群请扫码:
浏览 45
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报