在机器学习术语中,特征效应(如SHAP效应)和特征重要性之间是否有区别?
发布于 2021-08-03 15:18:40
在一种解释模型预测的统一方法中,作者将SHAP值定义为“特征重要性的统一度量”。也就是说,SHAP值是许多估计特性重要性的方法之一。
这本电子书也提供了一个很好的解释:
SHAP的目标是通过计算每个特性对预测的贡献来解释实例x的预测。...形状特征重要性是置换特征重要性的一种替代。这两种重要度量方法有很大的不同:排列特征的重要性是基于模型性能的下降。SHAP基于特征属性的大小。
发布于 2021-08-03 14:31:03
SHAP值估计特征对预测的影响,而特征导入估计特征对模型拟合的影响。
https://datascience.stackexchange.com/questions/99650
复制相似问题