如何解决理解不同 SHAP 方法的假设
我有兴趣将 SHAP 值应用于我在机器学习方面所做的一些工作,并注意到在 github 页面上可以选择多种不同的方法:https://github.com/slundberg/shap
我有一个神经网络模型,据我所知,我可以使用以下函数:DeepExplainer、GradientExplainer 或 KernelExplainer。我知道 DeepExplainer 基于 DeepLift,而 GradientExplainer 基于集成梯度,但我真的很难找到每种方法所做假设的清晰轮廓。 有没有人能够弄清楚每种方法所做的假设,或者为我指明来源的方向?
明确地说,我不是在谈论每个的具体速度,我正在考虑以下几点:它们中的任何一个都假设模型的某些属性吗?他们是否假设输入是独立的?哪些适合混合单热编码和连续变量?简而言之,我找不到明确的参考资料,甚至找不到关于 GradientExplainer 算法正在做什么的明确参考资料。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。