在这次综述中,我们对图神经网络进行了全面的时间序列分析(GNN4TS),包括四个基本维度:预测、分类、异常检测和插补。我们的目标是指导设计师和实践者理解,构建应用,并推进GNN4TS的研究。 在图1中,我们提供了图神经网络用于时间序列分析(GNN4TS)的概述。 然后,我们深入探讨了GNN4TS领域内的六个热门应用领域,并提出了几个潜在的未来研究方向。我们的综述旨在为对图神经网络在时间序列分析中的最新进展感兴趣的机器学习从业者提供全面的内容。 4. 图神经网络在时间序列异常检测中 时间序列异常检测旨在识别与数据生成过程的正常模式不符合的数据观测[141]。 本综述通过详细回顾最新进展并提供一个统一的分类法,从任务和方法的角度对现有工作进行分类,弥合了图神经网络在时间序列分析(GNN4TS)领域的知识差距。
文章分类在学习摘录和笔记专栏: 学习摘录和笔记(26)---《图神经网络(GNN)》 图神经网络(GNN) 1 图神经网络(GNN)介绍 图不但包含数据,也包含数据之间的依赖关系,因而图神经网络 2 GNN面临的挑战 GNN4NLP面临诸多挑战: 如何自动地把文本数据转换成有效的图结构数据,并保留对下游任务有帮助的重要信息; 如何针对不同类型的图结构数据,开发出有效的GNN模型; 如何端到端地学习复杂类型数据之间的映射关系 4 图表示学习 当从非结构化的文本中获取到了想要的图后,将进行图表示学习。 最后,清楚图的结构和转化后,该如何选择合适的图神经网络进行学习? 1. 对于同构图,总结了一类成为homogeneous GNN的图神经网络类型。 结构化数据到文本的生成(Structural-data to text),4.
来源:百度Aistudio 图神经网络7日打卡营 图(graph)近来正逐渐变成机器学习的一大核心领域,在开始PGL框架学习之前,我们先简单学习一下图论的基本概念,图论的经典算法,以及近些年来图学习的发展 相对地,如果节点之间的边非常多,则该图是密集的(dense) Neo4J 的关于图算法的书给出了清晰明了的总结: ? 存储图的方式有三种,取决于你想用它做什么: 存储为边列表: 1 2 1 3 1 4 2 3 3 4 ... 传统同构图(Homogeneous Graph)数据中只存在一种节点和边,因此在构建图神经网络时所有节点共享同样的模型参数并且拥有同样维度的特征空间。 主要的图算法 目前大多数框架(比如 Python 的 networkx 或 Neo4J)支持的图算法类别主要有三个: Pathfinding(寻路):根据可用性和质量等条件确定最优路径。
图神经网络基础 图神经网络用于挖掘事物的“普遍联系”,理解原理、应用技术。本文汇总图神经网络相关介绍和基础模型。 图及特性 图是由顶点和边组成的,如下图左所示。 图神经网络将图数据和神经网络进行结合,在图数据上进行端对端的计算。 现实生活中的大量的业务数据都可以用图来表示。万事万物皆有联系,顶点+关系这样一种表示覆盖很广。 由此我们可以粗浅地给图神经网络模型下一个定义,针对图结构这一非欧几里得结构数据,利用神经网络来聚合邻域信息,从而更新节点或者边的表达的模型就可以称为是图神经网络。 解决方案使用了 4 个字段。某个请求在某个IP哪个域名注入了某种脚本,以及 POST 特征码。前三个字段(请求事件ID,IP,域名)构成了一个图,是模型的输入。 __biz=MjM5MzY4NzE3MA==&mid=2247484604&idx=1&sn=1276e275f5a2c4bcf81a07fbc67e568e https://zhuanlan.zhihu.com
关于图的概念可以参考图论整理 ,这里不再赘述。 图神经网络Graph neural networks(GNNs)是深度学习在图领域的基本方法,它既不属于CNN,也不属于RNN。 这个是图神经网络核心的概念。 图任务(Graph Tasks) 上图是一个节点的分类任务,在左边的部分,有些节点有颜色,有些节点没颜色。 图神经网络很难可视化,它不像图像或者声音那样有可以确定的样子和波形,过于抽象,错综复杂。 在d图中,可以对图结构中的每一个节点也可以进行分类,我们可以把每一个节点类比于图像分割中每一个像素的分类。 GNN的应用 一切皆是图 图神经网络可以应用于物理上,也可以应用于化学上或者生物上。 图卷积神经网络(Graph Convolution Networks) GCN是一种可以直接作用于图上的卷积神经网络,它能够提取图的特征。
需要注意的是,该算法的时间复杂度为 O(kn^3),k为迭代次数,为保证所有可达节点配对存在直接相连的边,算法的运算消耗最高可接近O(n^4)。 依据 Wu et. al (2019) 的定义,图神经网络可分为五大类: 图卷积网络(Graph Convolution Networks):简称为 GCN,是目前最主流的图神经网络算法,其余四种图神经网络皆由 image.png 4 图时空网络 Graph Spatial-temporal Networks,专门用于处理时空图数据。 image.png 总结 图神经网络相对于传统的卷积神经网络和循环神经网络的不同之处,在于其高度的可塑性和多样性。 以下呈现笔者总结的模型择优策略,供读者参考: 【1】任务目的:图分类【2】、节点分类【3】、节点嵌入【4】、关系预测【15】 【2】数据规模:大型【9】、小型【10】 【3】数据规模:大型【5】、小型【
公众号:尤而小屋作者:Peter编辑:Peter图神经网络GNN和传统深度学习网络的对比:循环神经网络(1997)和卷积神经网络(2012):擅长处理图像等欧式数据或者文本和信号等序列数据图神经网络:擅长处理社交网络 、推荐系统、药物发现和程序分析中的图和流行结构等数据图结构数据不适合高度规则化的神经网络结构,比如RNN或者CNN等。 图神经网络基础GNN方法GNN的理论理解GNN的可扩展性GNN的可解释性GNN的对抗鲁棒性GNN方法GNN是专门设计的用于在图结构数据上进行操作的神经网络架构,其目的是通过聚合邻居节点的表征及其前一次迭代中的表征来迭代更新节点表征 有监督的GNN无监督的GNN训练深度图神经网络的问题:过平滑问题(其中所有的节点都有类似的特征)GNN的理论理解GNN能够达到一维Weisfeiler-Lehman测试的表达能力,甚至超越该能力,包含附加随机属性 对抗性攻击对抗性训练图神经网络前沿图分类和预测链接图生成和图转换图匹配和图结构学习动态图神经网络异质图神经网络基于图神经网络的AutoML和自监督学习图神经网络应用图构建:具有显式或隐式图结构的输入数据图表征学习
然而,大多数现实世界的图在类别和节点度两个方面都遵循长尾分布。 图1(c)展示了不同分布节点子集下的分类准确率,其中HH表示共同属于头类别以及头节点的节点,其他三类节点表示类似,从而证明了联合考虑两种长尾分布的重要性。图2则展示了图1(c)中准确率分布趋势的细节。 本文联合考虑到类别与度长尾分布,提出了LTE4G模型,以提升GNN的整体泛化能力。 02 — 本文方法 本文方法的整体框架如图3所示。 本文模型与基线模型的节点分类对比如表3、4、5所示,本文模型在不同不平衡率下基本都取得了最先进的结果。 本文的消融实验如表6、7所示。 LTE4G首先考虑类和度分布,将图中的节点分成四个平衡的子集,并在每个平衡的子集上训练一个专家。然后,采用了头度、尾度学生学习的知识蒸馏技术。
图神经网络入门指南神经网络已经适应了图的结构和特性。我们探讨了构建图神经网络所需的组件,并解释了其背后的设计选择。将鼠标悬停在下图中的一个节点上,观察它如何通过网络中的各层从周围节点累积信息。 图神经网络图神经网络(GNN)是对图的所有属性(节点、边、全局上下文)进行可优化的变换,同时保持图的对称性(置换不变性)。GNN 采用“图输入,图输出”的架构。 所有聚合后的消息通过一个更新函数(通常是一个学习到的神经网络)。通过堆叠消息传递 GNN 层,一个节点最终可以整合来自整个图的信息。 GCN 作为子图函数近似器:k 层的 GCN 可以看作是在大小为 k 的子图的学习嵌入上操作的神经网络。边与图的对偶:图 G 上的边预测任务可以表述为 G 的对偶图上的节点级别预测。 本文概述了研究人员在构建基于神经网络的图处理模型方面的一些里程碑,并探讨了使用这些架构时必须做出的一些重要设计选择。近年来 GNN 的成功为各种新问题创造了巨大机遇。FINISHED
image.png 二、图有两个基本特征: 每个节点都有自己的特征信息 图谱中的每个节点还具有结构信息 图神经网络相关: 在了解图神经网络之前,我们来复习一下与图神经网络相关的一些概念 一、Graph deep learning方法搭建的网络统称为图神经网络GNN 图神经网络 图神经网络(Graph Neural Network, GNN)是指神经网络在图上应用的模型的统称,根据采用的技术不同和分类方法的不同 图神经网络是一种直接作用在图结构上面的神经网络。 一、定义 在论文《Relational inductive biases, deep learning, and graph networks》中作者定义了图神经网络的通用结构,也就是现在的图神经网络的开山鼻祖 s__biz=MzI4MDYzNzg4Mw==&mid=2247490775&idx=3&sn=d14a585aa789d057f52396241b8428b1&chksm=ebb42403dcc3ad150dec4f57242ea2f8defb157d0a6ee58fce82f7e1fd628629218a9a5ff4d4&
从图(Graph)到图卷积(Graph Convolution): 漫谈图神经网络 (二) 作者: SivilTaram 编辑: Houye 在从图(Graph)到图卷积(Graph Convolution ): 漫谈图神经网络 (一)中,我们简单介绍了基于循环图神经网络的两种重要模型,在本篇中,我们将着大量笔墨介绍图卷积神经网络中的卷积操作。 接下来,我们将首先介绍一下图卷积神经网络的大概框架,借此说明它与基于循环的图神经网络的区别。接着,我们将从头开始为读者介绍卷积的基本概念,以及其在物理模型中的涵义。 这两条实际上也是后续图卷积神经网络的设计原则,图卷积的本质是想找到适用于图的可学习卷积核。 图卷积框架(Framework) 上面说了图卷积的核心特征,下面我们先来一窥图卷积神经网络的全貌。 而 PATCHY-SAN 算法 [4] 另辟蹊径,它将图结构转换成了序列结构,然后直接利用卷积神经网络在转化成的序列结构上做卷积。
return test_acc 输出: 正如我们看到的,效果很差,一个重要的原因就是有标签的节点数量过少,训练的时候会有一些过拟合 接下来我们介绍图卷积神经网络: 然后开始构建我们的图神经网络: training=self.training) x = self.conv2(x, edge_index) return x 然后可视化由未经过训练的GCN图神经网络生成的节点表征 : 通过visualize的函数处理,7维特征的节点被映射到2维的平面上,可以看到有点“同类节点群聚”的现象 接下来,构建我们的图神经网络: from torch_geometric.nn import }") 输出: 可以看到准确率已经提高到了80%,与前面获得59%的测准确率的MLP图神经网络相比,GCN图神经网络准确性要高的多,这表明节点的邻接信息再取得更好的准确率方面起着更关键的作用。 再来做个图看看吧: 通过上面这个图发现,同类节点群聚的现象更加明显了,这意味着在训练后,GCN图神经网络生成的节点表征质量更高了。 完
从图(Graph)到图卷积(Graph Convolution): 漫谈图神经网络 (一) 作者: SivilTaram 编辑: Houye 作者最近看了一些图与图卷积神经网络的论文,深感其强大,但一些 因此,本文试图沿着图神经网络的历史脉络,从最早基于不动点理论的图神经网络(Graph Neural Network, GNN)一步步讲到当前用得最火的图卷积神经网络(Graph Convolutional 不过,因为图神经网络的发展分支非常之多,笔者某些叙述可能并不全面,一家之言仅供各位读者参考: 图神经网络的概念最早在2005年提出。 2014年,在word2vec [4]的启发下,Perozzi等人提出了DeepWalk [5],开启了深度学习时代图表示学习的大门。 Spectral networks and locally connected networks on graphs, https://arxiv.org/abs/1312.6203 [4].
或多或少接触NLP的同学,应该比较清楚目前文本分类的模型众多,比如Text-RNN(LSTM),Text-CNN等,但是当时很少有关于将神经网络用于文本分类的任务中。 GCN属于一类图形神经网络,称为消息传递网络,其中消息(在这种情况下,边缘权重乘以节点表示形式)在邻居之间传递。 我们可以将这些消息传递网络视为帮助学习节点表示的方法,该节点表示法考虑了其图结构的附近邻居。因此,图的构造方式,即在哪些节点之间形成哪些边,非常重要。 Text-GCN:基于图神经网络的文本分类 ? 文本Graph的构建 构造“文本”图的细节如下。首先,节点总数是文档 ? 数加上不同词语 ? 的个数。节点特征矩阵是恒等矩阵 ? 总的来说,我认为本文显示了图神经网络的强大能力及其在我们可以定义和构建某种有用图结构的任何领域中的适用性。
从图(Graph)到图卷积(Graph Convolution): 漫谈图神经网络 (三) 作者: SivilTaram 编辑: Houye 恭喜你看到了本系列的第三篇! 前面两篇分别介绍了基于循环的图神经网络和基于卷积的图神经网络,那么在本篇中,我们则主要关注在得到了各个结点的表示后,如何生成整个图的表示。 假设我们有100个介于[-3,1]的数字,如果我们直接将它们求和,如左图所示,我们完全看不出这100个数据的分布;而如果我们将[-3, 1]等分成4个区域,比如说就是[-3,-2),[-2,-1),[- 如果直接求和,全局的特征向量是 [-2+-1+-1, 1+2+1] 即 [-4,4]。 基于学习的方法(Learning Category) 基于统计的方法的一个坏处大概是它没办法参数化,间接地难以表示结点到图向量的这个“复杂”过程。基于学习的方法就是希望用神经网络来拟合这个过程。
二、有哪些图神经网络 三、图神经网络的应用 一、什么是图神经网络? 同时图嵌入的深度学习方法也属于图神经网络,包括基于图自动编码器的算法(如DNGR和SDNE)和无监督训练的图卷积神经网络(如GraphSage)。下图描述了图嵌入和图神经网络在本文中的区别。 ? 二、有哪些图神经网络? 4、Graph Generative Networks 图生成网络的目标是在给定一组观察到的图的情况下生成新的图。图生成网络的许多方法都是特定于领域的。 4、Chemistry 在化学中,研究人员应用图神经网络研究分子的图结构。在分子图中,原子为图中的节点,化学键为图中的边。
图神经网络(GNN):理解复杂网络数据的有效工具 图神经网络(Graph Neural Network, GNN)是近年来机器学习领域的热门话题。 本文将深入探讨图神经网络的基本概念、主要模型及其应用,并通过代码示例展示如何从头实现一个 GNN。 1. 图神经网络基础 1.1 什么是图? 1.2 图神经网络的目标 图神经网络的主要目标是通过图的结构和节点的特征来进行学习。具体来说,GNN 可以用来解决以下问题: 节点分类:例如,在社交网络中预测用户的兴趣。 图分类:例如,判断一个分子是否具有某种化学性质。 2. 图神经网络的工作原理 GNN 的核心思想是通过迭代地聚合每个节点邻居的信息来更新节点的表示。 GAE 可以有效地学习图的潜在结构,特别适合于节点嵌入和链接预测任务。 4.
tutorials/36 本文地址:http://www.showmeai.tech/article-detail/236 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMeAI查看更多精彩内容 [神经网络反向传播与计算图 [神经网络与反向传播] 本讲内容的深度总结教程可以在这里 查看。视频和课件等资料的获取方式见文末。 ② 计算图与反向传播 ③ 神经网络训练实用知识技能 正则化(用于环节过拟合) 向量化 非线性表达能力 参数初始化 优化算法 学习率策略 1.简单神经网络的梯度矩阵与建议 1.1 权重矩阵的导数 [权重矩阵的导数 计算图和反向传播] 我们把神经网络方程表示成一个图 源节点:输入 内部节点:操作 边传递操作的结果 Forward Propagation:前向传播 Back Propagation:沿着边回传梯度 现在,当把图层放在一起时,就不需要那么多了 2.13 总结 [总结] 我们已经掌握了神经网络的核心技术 反向传播:沿计算图递归应用链式法则 downstream gradient = upstream
从贝叶斯学派的代表方法——概率图模型的角度对图神经网络加以解释。它的强大之处在于生成的解释具有丰富的统计信息,能够以条件概率的形式自然的表达出节点之间的依赖关系。 ? Graphical Model Explanations for Graph Neural Networks 论文地址:https://arxiv.org/pdf/2010.05788.pdf 0.摘要 在图神经网络 对于解释域 的选取,可以选择图 的边子集、特征矩阵 的实例子集。本文采用了[17]中提出的神经网络的解释模型框架,并认为 是一个可解释模型家族。 本文使用 分数如下: 是变量 上的数据, 是贝叶斯网络 的维度, 是贝叶斯网络的参数,函数 是 和 之间的 log- likelihood,即 ,(4) fig5 4 Experiments 小编提示:对于不同的数据集、不同的任务,GNN 解释任务的 ground-truth(即真实标签)定义的形式是不同的,目前的论文中有些 ground-truth 设计的相对主观
图神经网络的研究已经成为今年机器学习领域 炙手可热 的话题之一。最近,图神经网络在生物学、化学、社会科学、物理学和许多其他领域的问题上,取得了一系列成功。 到目前为止,图神经网络模型主要是针对静态图而开发的,静态图不会随着时间而改变。然而,许多有趣的现实世界图都是动态的,并且会随着时间的推移而不断变化,突出的例子包括社交网络、金融交易和推荐系统。 该事件流由编码器神经网络接受,这个编码器神经网络为图的每个节点生成时间相关的嵌入。然后,可以将嵌入馈送到为特定任务而设计的解码器中。 这类似于在消息传递图神经网络【4】中计算的消息。该消息是在节点 i 和 j 在时刻 t 之前交互时的内存函数,交互时刻 t 和边特征为【5】: ? ? 内存更新程序 用于使用新消息更新内存。 【4】 为简单起见,我们假设该图是无向的。在有向图的情况下,需要两个不同的消息函数,一个用于源,一个用于目的地。