我完全理解为什么人们会使用SHAP或LIME之类的方法来解释黑匣子机器学习模型,比如随机森林或神经网络。然而,我在网上看到了很多内容,人们使用这些类型的即席XAI方法来解释固有的可解释模型,如线性支持向量机或logistic回归。
如果我的目的是解释逻辑回归的预测,那么使用石灰而不是简单地看回归系数有什么好处吗?当功能数量非常多时,这是否与功能之间的交互有关呢?
发布于 2022-08-15 12:36:03
我也认为,互动将是主要原因。你可以从下面的定义中看到莱姆和沙普是如何工作的-
LIME -在考虑的数据点附近创建局部数据点,然后通过最小化实际模型和局部模型误差的结果创建局部模型,然后进行推理。
SHAP -迭代所有可能的子集(样本),以查看交互,有和没有特性。
https://stackoverflow.com/questions/73305081
复制相似问题