首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >图神经网络中Captum与GNNExplainer的可解释性

图神经网络中Captum与GNNExplainer的可解释性
EN

Data Science用户
提问于 2022-09-13 06:22:06
回答 1查看 163关注 0票数 1

我是图神经网络的新手,我对探索框架感兴趣,这些框架允许识别作为预测基础的节点/边缘。

我偶然发现:(1) GNNExplainer(模型体系结构)以及(2) 工具(卡普姆)

这两者似乎都达到了这个目标,但我无法理解两者之间的差异。是否与所有模型体系结构(包括GNNExplainer )一起工作?谁能给我指出每种方法的优缺点,或者用应用程序/功能来区分它们呢?

EN

回答 1

Data Science用户

发布于 2023-02-09 18:37:18

最新的Pytorch几何库支持直接使用GNNExplainer和将模型转换为captum,这可以进一步用于特征属性。

GnnExplainer是一个计算最小子图的框架,它产生与原始图相同的输出。

卡普图姆是一个图书馆,它是为可解释性而建的。Captum主要支持集成梯度,这是一种基于输入属性的解释方法,可以应用于任何可微性模型,而不仅仅是GNN。

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/114375

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档