关于机器学习模型的可解释性算法!
数据派THU
共 2230字,需浏览 5分钟
·
2022-01-09 04:14
来源:Datawhale 本文约1400字,建议阅读5分钟
本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术。
Partial Dependence Plot (PDP);
Individual Conditional Expectation (ICE)
Permuted Feature Importance
Global Surrogate
Local Surrogate (LIME)
Shapley Value (SHAP)
例如,一个特征可能与一半数据的预测正相关,与另一半数据负相关。那么PDP图将只是一条水平线。
首先,我们使用经过训练的黑盒模型对数据集进行预测; 然后我们在该数据集和预测上训练可解释的模型。
注:代理模型可以是任何可解释的模型:线性模型、决策树、人类定义的规则等。
由于代理模型仅根据黑盒模型的预测而不是真实结果进行训练,因此全局代理模型只能解释黑盒模型,而不能解释数据。
https://www.twosigma.com/articles/interpretability-methods-in-machine-learning-a-brief-survey/
编辑:于腾凯
校对:林亦霖
评论