首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏DeepHub IMBA

    可解释神经网络5个GNN解释方法

    由于结构的不规则性,现有的解释方法难以适用于神经网络。 Gianluca Malato的《How to explain neural networks using SHAPE[3]》提供了一个使用SHAPE来解释神经网络的例子,该神经网络被训练来预测给定33 Javier Marin的可解释深度神经网络[5]提出了一种新的方法来可视化深度神经网络中的隐藏层,从而通过拓扑数据分析了解整个网络中的数据是如何转换的。 为什么很难用现有的方法来解释GNN? 然而,当涉及到神经网络(GNN)时,事情就变得有点棘手了。与cnn所操作的高度规则网格不同,结构的不规则性带来了许多挑战。 networks using SHAPE [4] Explainable AI (XAI) — A guide to 7 Packages in Python to Explain Your Models [5]

    2K40发布于 2021-07-01
  • 来自专栏强化学习专栏

    神经网络(GNN)

    文章分类在学习摘录和笔记专栏: 学习摘录和笔记(26)---《神经网络(GNN)》 神经网络(GNN) 1 神经网络(GNN)介绍 不但包含数据,也包含数据之间的依赖关系,因而神经网络 神经网络(GNN)最擅长处理和建模结构数据。 GNN的工作原理简单概况就是,聚合节点的邻居节点/边的信息,来更新节点的向量表征。 最后,清楚的结构和转化后,该如何选择合适的神经网络进行学习? 1. 对于同构图,总结了一类成为homogeneous GNN的神经网络类型。 5 编码器-解码器模型 Encoder-decoder架构可以说是近年来NLP领域中应用最为广泛的框架之一。在不同任务场景中,如何因地制宜地设计encoder,decoder。 语义角色标注(Semantic Role Labelling) 参考:新智元 《自然语言处理中神经网络从入门到精通》 文章若有不当和不正确之处,还望理解与指出。

    50510编辑于 2024-12-03
  • 来自专栏自然语言处理

    神经网络(01)-学习(上)

    来源:百度Aistudio 神经网络7日打卡营 (graph)近来正逐渐变成机器学习的一大核心领域,在开始PGL框架学习之前,我们先简单学习一下图论的基本概念,图论的经典算法,以及近些年来学习的发展 ()) degree_sequence = list(G_karate.degree()) [(0, 16), (1, 9), (2, 10), (3, 6), (4, 3), (5, 4), (6, 4), (7, 4), (8, 5), (9, 2), (10, 3), (11, 1), (12, 2), (13, 5), (14, 2), (15, 2), (16, 2), (17, 2), ( 6), (5, 10), (5, 16), (6, 16), (8, 30), (8, 32), (8, 33), (9, 33), (13, 33), (14, 32), (14, 33), (15 传统同构图(Homogeneous Graph)数据中只存在一种节点和边,因此在构建神经网络时所有节点共享同样的模型参数并且拥有同样维度的特征空间。

    3.5K32发布于 2021-01-27
  • 来自专栏图学习

    神经网络基础

    神经网络基础 神经网络用于挖掘事物的“普遍联系”,理解原理、应用技术。本文汇总图神经网络相关介绍和基础模型。 及特性 是由顶点和边组成的,如下图左所示。 神经网络数据和神经网络进行结合,在数据上进行端对端的计算。 现实生活中的大量的业务数据都可以用来表示。万事万物皆有联系,顶点+关系这样一种表示覆盖很广。 由此我们可以粗浅地给神经网络模型下一个定义,针对结构这一非欧几里得结构数据,利用神经网络来聚合邻域信息,从而更新节点或者边的表达的模型就可以称为是神经网络。 [20190615211333542.png] 神经网络的应用 数据的结构普遍存在,所以神经网络的应用场景丰富多样。 __biz=MjM5MzY4NzE3MA==&mid=2247484604&idx=1&sn=1276e275f5a2c4bcf81a07fbc67e568e https://zhuanlan.zhihu.com

    2.3K113发布于 2021-11-04
  • 来自专栏算法之名

    神经网络整理

    关于的概念可以参考图论整理 ,这里不再赘述。 神经网络Graph neural networks(GNNs)是深度学习在领域的基本方法,它既不属于CNN,也不属于RNN。 神经网络很难可视化,它不像图像或者声音那样有可以确定的样子和波形,过于抽象,错综复杂。 在a的CNN中的中间层是一个3*3的卷积核,往下扩大就是一个5*5的卷积核,再往下扩大的话可以扩大到7*7、9*9。 图卷积神经网络(Graph Convolution Networks) GCN是一种可以直接作用于图上的卷积神经网络,它能够提取的特征。 在上图中有5个节点,谁和谁相连是知道的。每一个节点都有一串数字,对应的特征。我们还知道红色和蓝色的节点各属于一类。还有2个节点,我们不知道它们属于哪一类。

    1K40编辑于 2022-05-06
  • 来自专栏机器学习与推荐算法

    嵌入算法到神经网络

    在这之后,嵌入算法逐渐过渡到神经网络时代,涌现出一大批优质的神经网络模型,包括 SDNE (2016) 与 GraphSAGE (2017) 等等,在工业界大放异彩。 依据 Wu et. al (2019) 的定义,神经网络可分为五大类: 图卷积网络(Graph Convolution Networks):简称为 GCN,是目前最主流的神经网络算法,其余四种神经网络皆由 image.png 总结 神经网络相对于传统的卷积神经网络和循环神经网络的不同之处,在于其高度的可塑性和多样性。 以下呈现笔者总结的模型择优策略,供读者参考: 【1】任务目的:分类【2】、节点分类【3】、节点嵌入【4】、关系预测【15】 【2】数据规模:大型【9】、小型【10】 【3】数据规模:大型【5】、小型【 Spectral CNN, ChebNet【3】数据规模:大型【5】、小型【7】 【11】使用 SDNE 等高效应对稀疏数据的 <基于空间的自编码器> 对节点进行编码后进入【13】 【12】使用能进行节点级别分类任务的

    2.2K31发布于 2020-04-21
  • 来自专栏机器学习/数据可视化

    神经网络3-神经网络的基础、前言和应用

    公众号:尤而小屋作者:Peter编辑:Peter神经网络GNN和传统深度学习网络的对比:循环神经网络(1997)和卷积神经网络(2012):擅长处理图像等欧式数据或者文本和信号等序列数据神经网络:擅长处理社交网络 、推荐系统、药物发现和程序分析中的和流行结构等数据结构数据不适合高度规则化的神经网络结构,比如RNN或者CNN等。 神经网络基础GNN方法GNN的理论理解GNN的可扩展性GNN的可解释性GNN的对抗鲁棒性GNN方法GNN是专门设计的用于在结构数据上进行操作的神经网络架构,其目的是通过聚合邻居节点的表征及其前一次迭代中的表征来迭代更新节点表征 有监督的GNN无监督的GNN训练深度神经网络的问题:过平滑问题(其中所有的节点都有类似的特征)GNN的理论理解GNN能够达到一维Weisfeiler-Lehman测试的表达能力,甚至超越该能力,包含附加随机属性 对抗性攻击对抗性训练神经网络前沿分类和预测链接生成和转换图匹配和结构学习动态神经网络异质神经网络基于神经网络的AutoML和自监督学习神经网络应用构建:具有显式或隐式结构的输入数据图表征学习

    41700编辑于 2023-11-23
  • 神经网络入门指南

    神经网络入门指南神经网络已经适应了的结构和特性。我们探讨了构建神经网络所需的组件,并解释了其背后的设计选择。将鼠标悬停在下图中的一个节点上,观察它如何通过网络中的各层从周围节点累积信息。 神经网络神经网络(GNN)是对的所有属性(节点、边、全局上下文)进行可优化的变换,同时保持的对称性(置换不变性)。GNN 采用“输入,输出”的架构。 所有聚合后的消息通过一个更新函数(通常是一个学习到的神经网络)。通过堆叠消息传递 GNN 层,一个节点最终可以整合来自整个的信息。 GCN 作为子函数近似器:k 层的 GCN 可以看作是在大小为 k 的子的学习嵌入上操作的神经网络。边与的对偶: G 上的边预测任务可以表述为 G 的对偶图上的节点级别预测。 本文概述了研究人员在构建基于神经网络处理模型方面的一些里程碑,并探讨了使用这些架构时必须做出的一些重要设计选择。近年来 GNN 的成功为各种新问题创造了巨大机遇。FINISHED

    9410编辑于 2026-04-17
  • 来自专栏大数据和机器学习

    神经网络模型总结

    image.png 二、有两个基本特征: 每个节点都有自己的特征信息 图谱中的每个节点还具有结构信息 神经网络相关: 在了解神经网络之前,我们来复习一下与神经网络相关的一些概念 一、Graph deep learning方法搭建的网络统称为神经网络GNN 神经网络 神经网络(Graph Neural Network, GNN)是指神经网络在图上应用的模型的统称,根据采用的技术不同和分类方法的不同 神经网络是一种直接作用在结构上面的神经网络。 一、定义 在论文《Relational inductive biases, deep learning, and graph networks》中作者定义了神经网络的通用结构,也就是现在的神经网络的开山鼻祖 answer/332657604拉普拉斯公式推倒细节,包括谱分解和傅立叶变换 [4] http://tkipf.github.io/graph-convolutional-networks 两篇论文细讲 [5]

    2.6K11发布于 2020-01-20
  • 来自专栏图与推荐

    漫谈神经网络 (二)

    (Graph)到图卷积(Graph Convolution): 漫谈神经网络 (二) 作者: SivilTaram 编辑: Houye 在从(Graph)到图卷积(Graph Convolution ): 漫谈神经网络 (一)中,我们简单介绍了基于循环神经网络的两种重要模型,在本篇中,我们将着大量笔墨介绍图卷积神经网络中的卷积操作。 接下来,我们将首先介绍一下图卷积神经网络的大概框架,借此说明它与基于循环的神经网络的区别。接着,我们将从头开始为读者介绍卷积的基本概念,以及其在物理模型中的涵义。 但在这种非欧空间中,结点有多少邻居并不固定。目前绿色结点的邻居结点有2个,但其他结点也会有5个邻居的情况。 基于频域卷积的方法则从信号处理起家,包括 Spectral CNN[5], Cheybyshev Spectral CNN(ChebNet)[6], 和 First order of ChebNet(

    1.5K32发布于 2020-04-07
  • 来自专栏Tom

    Cora神经网络Pytorch

    return test_acc 输出: 正如我们看到的,效果很差,一个重要的原因就是有标签的节点数量过少,训练的时候会有一些过拟合 接下来我们介绍图卷积神经网络: 然后开始构建我们的神经网络: : 通过visualize的函数处理,7维特征的节点被映射到2维的平面上,可以看到有点“同类节点群聚”的现象 接下来,构建我们的神经网络: from torch_geometric.nn import test_acc test_acc=test() print(f"Test Accuracy:{test_acc:.4f}") 输出: 可以看到准确率已经提高到了80%,与前面获得59%的测准确率的MLP神经网络相比 ,GCN神经网络准确性要高的多,这表明节点的邻接信息再取得更好的准确率方面起着更关键的作用。 再来做个看看吧: 通过上面这个发现,同类节点群聚的现象更加明显了,这意味着在训练后,GCN神经网络生成的节点表征质量更高了。 完

    59610编辑于 2024-02-01
  • 来自专栏图与推荐

    漫谈神经网络 (一)

    (Graph)到图卷积(Graph Convolution): 漫谈神经网络 (一) 作者: SivilTaram 编辑: Houye 作者最近看了一些与图卷积神经网络的论文,深感其强大,但一些 因此,本文试图沿着神经网络的历史脉络,从最早基于不动点理论的神经网络(Graph Neural Network, GNN)一步步讲到当前用得最火的图卷积神经网络(Graph Convolutional 不过,因为神经网络的发展分支非常之多,笔者某些叙述可能并不全面,一家之言仅供各位读者参考: 神经网络的概念最早在2005年提出。 2014年,在word2vec [4]的启发下,Perozzi等人提出了DeepWalk [5],开启了深度学习时代图表示学习的大门。 Compositionality, http://papers.nips.cc/paper/5021-distributed-representations-of-words-andphrases [5]

    1.5K21发布于 2020-04-07
  • 来自专栏自然语言处理

    神经网络14-TextGCN:基于神经网络的文本分类

    GCN属于一类图形神经网络,称为消息传递网络,其中消息(在这种情况下,边缘权重乘以节点表示形式)在邻居之间传递。 我们可以将这些消息传递网络视为帮助学习节点表示的方法,该节点表示法考虑了其结构的附近邻居。因此,的构造方式,即在哪些节点之间形成哪些边,非常重要。 Text-GCN:基于神经网络的文本分类 ? 文本Graph的构建 构造“文本”的细节如下。首先,节点总数是文档 ? 数加上不同词语 ? 的个数。节点特征矩阵是恒等矩阵 ? 比较是在5个数据集上执行的。 ? 总的来说,我认为本文显示了神经网络的强大能力及其在我们可以定义和构建某种有用结构的任何领域中的适用性。

    3.7K32发布于 2021-06-01
  • 来自专栏图与推荐

    漫谈神经网络 (三)

    (Graph)到图卷积(Graph Convolution): 漫谈神经网络 (三) 作者: SivilTaram 编辑: Houye 恭喜你看到了本系列的第三篇! 前面两篇分别介绍了基于循环的神经网络和基于卷积的神经网络,那么在本篇中,我们则主要关注在得到了各个结点的表示后,如何生成整个的表示。 读出操作(ReadOut) 读出操作,顾名思义,就是用来生成图表示的。它的别名有粗化(翻译捉急,Graph Coarsening)/池化(Graph Pooling)。 这就是典型的**重构(Graph Isomorphism)**问题。比如下面左右两个,其实是等价的: ? 重构 为了使得同构图的表示能够保持一致,读出的操作就需要对结点顺序不敏感。 基于学习的方法(Learning Category) 基于统计的方法的一个坏处大概是它没办法参数化,间接地难以表示结点到向量的这个“复杂”过程。基于学习的方法就是希望用神经网络来拟合这个过程。

    62731发布于 2020-04-07
  • 来自专栏深度学习自然语言处理

    【GNN】神经网络综述

    二、有哪些神经网络 三、神经网络的应用 一、什么是神经网络? 同时嵌入的深度学习方法也属于神经网络,包括基于自动编码器的算法(如DNGR和SDNE)和无监督训练的图卷积神经网络(如GraphSage)。下图描述了嵌入和神经网络在本文中的区别。 ? 二、有哪些神经网络? 训练完成后,对一组随机行走中节点的共现矩阵进行正则化,我们可以得到一个新的5、Graph Spatial-Temporal Networks 时空网络同时捕捉时空的时空相关性。 5、Others 除了以上四个领域外,神经网络还已被探索可以应用于其他问题,如程序验证、程序推理、社会影响预测、对抗性攻击预防、电子健康记录建模、脑网络、事件检测和组合优化。

    2.1K41发布于 2020-02-18
  • 来自专栏学习

    机器学习——神经网络

    神经网络(GNN):理解复杂网络数据的有效工具 神经网络(Graph Neural Network, GNN)是近年来机器学习领域的热门话题。 本文将深入探讨神经网络的基本概念、主要模型及其应用,并通过代码示例展示如何从头实现一个 GNN。 1. 神经网络基础 1.1 什么是? 1.2 神经网络的目标 神经网络的主要目标是通过的结构和节点的特征来进行学习。具体来说,GNN 可以用来解决以下问题: 节点分类:例如,在社交网络中预测用户的兴趣。 分类:例如,判断一个分子是否具有某种化学性质。 2. 神经网络的工作原理 GNN 的核心思想是通过迭代地聚合每个节点邻居的信息来更新节点的表示。 5. GNN 的优势与挑战 5.1 优势 灵活性:GNN 可以处理任意拓扑结构的数据,特别适合于非欧几里得数据(如社交网络、分子等)。

    4.8K10编辑于 2024-10-20
  • 来自专栏图与推荐

    神经网络的概率模型解释器

    从贝叶斯学派的代表方法——概率模型的角度对神经网络加以解释。它的强大之处在于生成的解释具有丰富的统计信息,能够以条件概率的形式自然的表达出节点之间的依赖关系。 ? Graphical Model Explanations for Graph Neural Networks 论文地址:https://arxiv.org/pdf/2010.05788.pdf 0.摘要 在神经网络 对于解释域 的选取,可以选择 的边子集、特征矩阵 的实例子集。本文采用了[17]中提出的神经网络的解释模型框架,并认为 是一个可解释模型家族。 fig9 5(a)给出了两个解释的例子,红框内是每种解释方法生成的解释节点;可以看出 PGM 给出的解释节点和 superpixel 最匹配; 5(b)是10个用户根据他们主观意识,评估红框内节点对 5. Conclusion 本文提出了 PGM-Explainer,该方法能以可理解的方式解释任何 GNN 模型的预测。

    2.3K10发布于 2021-04-22
  • 来自专栏海边的拾遗者

    神经网络的重要分支:时间网络

    神经网络的研究已经成为今年机器学习领域 炙手可热 的话题之一。最近,神经网络在生物学、化学、社会科学、物理学和许多其他领域的问题上,取得了一系列成功。 到目前为止,神经网络模型主要是针对静态而开发的,静态不会随着时间而改变。然而,许多有趣的现实世界都是动态的,并且会随着时间的推移而不断变化,突出的例子包括社交网络、金融交易和推荐系统。 该事件流由编码器神经网络接受,这个编码器神经网络的每个节点生成时间相关的嵌入。然后,可以将嵌入馈送到为特定任务而设计的解码器中。 这类似于在消息传递神经网络【4】中计算的消息。该消息是在节点 i 和 j 在时刻 t 之前交互时的内存函数,交互时刻 t 和边特征为【5】: ? ? 内存更新程序 用于使用新消息更新内存。 【5】 《 量子化学的神经信息传递》(Neural Message Passing for Quantum Chemistry),J.

    1.5K30发布于 2020-08-20
  • 来自专栏算法进阶

    神经网络(GNN)和神经网络的关系

    (2)神经网络的性能表现与其关系的聚类系数和平均路径长度存在密切关联,呈现平滑的函数关系; (3)本文的发现适用于多种不同的任务和数据集,具有广泛的适用性; (4)能够有效地识别出最佳点; (5)表现最佳的神经网络结构上与真实的生物神经网络呈现出高度的相似性 例如,用4节点关系图表示2层神经网络,第一层宽度5,第二层宽度9,则4个节点在第一层的尺寸为{2,1,1,1},在第二层的尺寸为{3,2,2,2}。 相关性,如图5(左)所示。 我们研究发现,表现最佳的关系与生物神经网络惊人地相似,如表2和6所示。顶级人工神经网络度量与生物神经网络高度相似,且关系图表示能将生物神经网络转化为5层MLP,优于基线完整。 我们对经过训练的神经网络进行“逆向工程”,研究其关系结构。在CIFAR-10上训练全连接的5层MLP,通过特定步骤推断网络底层关系结构。

    60210编辑于 2024-01-23
  • 来自专栏NLP/KG

    PGL学习之神经网络GraphSAGE、GIN采样算法

    PGL学习之神经网络GraphSAGE、GIN采样算法[系列七] 本项目链接:https://aistudio.baidu.com/aistudio/projectdetail/5061984? contributionType=1 机器学习(GML)&神经网络(GNN)原理和代码实现(前置学习系列二):https://aistudio.baidu.com/aistudio/projectdetail contributionType=1 在神经网络中,使用的数据集可能是亿量级的数据,而由于GPU/CPU资源有限无法一次性全送入计算资源,需要借鉴深度学习中的mini-batch思想。 传统的深度学习mini-batch训练每个batch的样本之间无依赖,多层样本计算量固定;而在神经网络中,每个batch中的节点之间互相依赖,在计算多层时会导致计算量爆炸,因此引入了采样的概念。 95.60% 94.8% Maxpool 94.95% 94.8% LSTM 95.13% 95.4% 4.2 Graph Isomorphism Network (GIN) 图同构网络(GIN)是一个简单的神经网络

    1.7K20编辑于 2022-12-21
领券