首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏阿泽的学习笔记

    GCN】万字长文带你入门 GCN

    ; 针对这个问题,学者提出了第二代 GCN。 3.5 GCN-3 第二代 GCN 解决了图卷机要求特征分解的问题,但是在计算图卷积操作时,依然每次都要进行矩阵乘法,时间复杂度为 ,于是学者继续优化。 3.7 Experiment 简单看下第三代 GCN 的试验。 由于 GCN 比较复杂,所以这里我将给出两种实验,一种是 GCN 的效果实验,另一种是模拟 GCN 运行的实验。 3.7.1 Effect 我们来看一下实验部分,GCN 与其他模型的对比: ? 可以看到 GCN 的结果在不同数据集上都取得了非常好的效果,远超其他模型。 3.7.2 Simulation 为了更加形象的理解 GCN,我们来对 GCN 进行模拟。 首先,以一个简单有向图模型为例: ?

    5.9K21发布于 2020-07-21
  • 来自专栏算法进阶

    GCN】万字长文带你入门 GCN

    ;针对这个问题,学者提出了第二代 GCN。 3.5 GCN-3 第二代 GCN 解决了图卷机要求特征分解的问题,但是在计算图卷积操作时,依然每次都要进行矩阵乘法,时间复杂度为 ,于是学者继续优化。 3.7 Experiment 简单看下第三代 GCN 的试验。 由于 GCN 比较复杂,所以这里我将给出两种实验,一种是 GCN 的效果实验,另一种是模拟 GCN 运行的实验。 3.7.1 Effect 我们来看一下实验部分,GCN 与其他模型的对比: 可以看到 GCN 的结果在不同数据集上都取得了非常好的效果,远超其他模型。 ,下图为每个类别只标注一个样本的分类结果: 3.7.2 Simulation 为了更加形象的理解 GCN,我们来对 GCN 进行模拟。

    2K41编辑于 2022-06-01
  • 来自专栏阿泽的学习笔记

    【图神经网络】GCN-3(semi-GCN

    使用了一个两层的GCN进行节点分类任务作为例子: 首先计算 ,两层GCN的forward公式如下: 其中 为输入层到隐藏层的变换, 为隐藏层到输出层的变换 对于半监督分类问题,使用所有有标签节点上的交叉熵作为损失函数 小批量的随机梯度下降可以环节这个问题,需要考虑GCN的层数,及节点的K阶邻域必须存储在内存中。(2)不能处理有向图特征本文GCN模型只适用于无向图。 作者隐式地假设局部性(依赖于具有K层的GCN的K阶邻域),自连接与相邻节点的边同等重要,然而,对于某些数据集,在Ã的定义中引入权重参数λ可能比较好: ? 可以看到,基于GCN的半监督学习效果相对其他模型有较大的提高 五、Conclusion 本文采用一阶近似卷积的方式提出GCN模型,具有以下特性 局部性(以某节点为中心加上k阶邻居的信息) 一阶性,但是可以通过多层 GCN叠加来获得K阶特性 参数共享,(后面会单独出一篇文章总结GCN的参数共享) 三代GCN论文阅读到这里了(前二分别为GCN-1谱图卷积,chebynet)

    77420发布于 2021-04-29
  • 来自专栏机器学习初学者精选文章

    【论文解读】GCN论文总结

    本次要总结和分享的是ICLR2017的关于GCN方面的代表作之一论文:SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS,论文链接为 上图的实验中,评价指标为节点分类的ACC,加粗的GCN(this paper) 为论文中的所提的有两层叠加的图卷积网络,GCN(rand,splits) 与GCN(this paper) 网络结构一样, 由上图可以看出,本论文提出的GCN网络分类效果最好。 除此之外,论文中还和以往的一些GCN网络进行了对比实验: ? 在这里插入图片描述 显然也是本论文中所提的带有Renormalization trick的GCN效果最好。 class GCN(nn.Module): def __init__(self, nfeat, nhid, nclass, dropout): super(GCN, self).

    2K20发布于 2021-04-16
  • 来自专栏AI科技大本营的专栏

    GraphSAGE: GCN落地必读论文

    Hamilton, Rex Ying, Jure Leskovec 来源 | NIPS17 导读:图卷积网络(Graph Convolutional Network,简称GCN)最近两年大热,取得不少进展 PinSAGE( PinSage: 第一个基于 GCN 的工业级推荐系统)为 GCN 落地提供了实践经验,而本文是 PinSAGE 的理论基础,同样出自斯坦福,是 GCN 非常经典和实用的论文。 概括 在大规模图上学习节点 embedding ,在很多任务中非常有效,如学习节点拓扑结构的 DeepWalk 以及同时学习邻居特征和拓扑结构的 semi-GCN 。 本文提出归纳学习— GraphSAGE(Graph SAmple and aggreGatE) 框架,通过训练聚合节点邻居的函数(卷积层),使 GCN 扩展成归纳学习任务,对未知节点起到泛化作用。 2.2 聚合函数 伪代码第 5 行可以使用不同聚合函数,本小节介绍五种满足排序不变量的聚合函数:平均、GCN 归纳式、LSTM、pooling 聚合器。

    5.5K32发布于 2019-08-20
  • 来自专栏技术圈

    GCN 论文英语表达总结

    主要是将一些GCN的英文表达方式记录下来,收藏起来慢慢学习 ! 经典GCN是这样来描述 从本质上讲,GCN 是谱图卷积(spectral graph convolution) 的局部一阶近似(localized first-order approximation)。 GCN的另一个特点在于其模型规模会随图中边的数量的增长而线性增长。总的来说,GCN 可以用于对局部图结构与节点特征进行编码。 2. To resolve these issues, we further apply a Contextualized GCN (C-GCN) model, where the input word vectors 这里解释了C-GCN, 其实C-GCN很好理解,其实就是在word embedding 和 GCN layer之间插一个Bi-LSTM层(有时也被称为contextualized layer), 现将word

    1K10发布于 2020-04-08
  • 来自专栏阿泽的学习笔记

    【GNN】GraphSAGE:GCN 可能没我强

    针对这一痛点,本文作者在 GCN 的基础上提出了 GraphSAGE 算法(SAmple and aggreGatE)用于归纳学习节点的 Embedding 向量,其不仅将 GCN 扩展到无监督的归纳学习任务中 ,还泛化了 GCN 的聚合函数。 与 GCN 直接学习某个节点的 Embedding 向量不同的是,GraphSAGE 「是利用一组聚合函数进行学习」。 第五行是将当前节点的特征和邻居特征拼接并经过一个全连接网络得到当前节点的新特征; 第七行是归一化; 第八行是通过 K 层 GCN 后进行输出。 Conclusion 一句话总结:GraphSAGE 通过聚合节点邻居的特征将 GCN 扩展成归纳学习的方式,解决了未知 Embedding 的难题。

    2.6K20发布于 2020-07-21
  • 来自专栏阿泽的学习笔记

    【GNN】R-GCNGCN 在知识图谱中的应用

    无疑开创了使用 GCN 框架去建模关系网络的先河。 (只发到 C 可能是因为 R-GCN 表现不太好) 这篇论文主要有两大贡献: 证明了 GCN 可以应用于关系网络中,特别是链接预测和实体分类中; 引入权值共享和系数约束的方法使得 R-GCN 可以应用于关系众多的网络中 R-GCN RGCN 首先,目前的 GCN 可以视为一个简单可微的消息传递框架的特殊情况: 其中, 表示隐藏层 l 的节点 ; 表示消息传入; 表示激活函数。 从上面这个公式中我们可以得到以下几点信息: R-GCN 的每层节点特征都是由上一层节点特征和节点的关系(边)得到; R-GCN 对节点的邻居节点特征和自身特征进行加权求和得到新的特征; R-GCN 为了保留节点自身的信息 与 GCN 不同的地方在于 R-GCN 会考虑「边的类型和方向」。

    3.7K20发布于 2020-07-21
  • 来自专栏数据分析与挖掘

    图卷积网络(GCN)python实现

    __init__() self.gcn1 = GraphConvolution(input_dim, 16) self.gcn2 = GraphConvolution(16 , 7) def forward(self, adjacency, feature): h = F.relu(self.gcn1(adjacency, feature) ) logits = self.gcn2(adjacency, h) return logits 进行训练和测试: # ## 模型训练 # 超参数定义 learning_rate

    2.9K20发布于 2020-08-26
  • 来自专栏KI的算法杂记

    PyG搭建GCN实现节点分类

    前言 GCN原理可以参考:ICLR 2017 | GCN:基于图卷积网络的半监督分类。 一开始是打算手写一下GCN,毕竟原理也不是很难,但想了想还是直接调包吧。 GCN 首先导入包: from torch_geometric.nn import GCNConv 模型参数: 1. in_channels:输入通道,比如节点分类中表示每个节点的特征数。 于是模型搭建如下: class GCN(torch.nn.Module): def __init__(self, num_node_features, num_classes): super(GCN, self). 完整代码 完整代码及数据:https://github.com/ki-ljl/PyG-GCN,点击阅读原文即可跳转至代码下载界面。 项目结构: README文件:

    1.9K30编辑于 2022-11-09
  • 来自专栏深度学习和计算机视觉

    GCN】图卷积网络 Graph Convolutional Networks

    上面左图是2D卷积神经网络,其输入是4行4列的矩阵,通过卷积核逐步移动实现对整个输入的卷积操作;而右图输入是图网络,其结构和连接是不规则的,无法像卷积神经网络那样实现卷积操作,由此提出图卷积网络。

    1.3K40发布于 2021-08-05
  • 来自专栏粽子的深度学习笔记

    图像分割之Global Convolutional Network(GCN)

    Semantic Segmentation by Global Convolutional Network 主要工作(创新点): 提出全局卷积网络(Global Convolutional Network,GCN 像上图B中,很多分割网络是主要是为了定位,这样可能会降低分类性能;图C,文章提出的GCN,兼顾分类和定位。 模型 GCN 作者观察到一些SOTA(这篇paper之前的)语义分割模型,其设计都是为了更好的定位,这可能会降低分类的效果。分类效果变差可能是由感受野造成的。 注意有效感受野不等同于感受野,对于传统模型,即使感受野和输入图像一样大,有效感受野也只是覆盖了object鸟(A),当输入调整到更大的尺度(B),有效感受野就不能保留整个object了,(B)中可以看到只覆盖了部分,文章提出的GCN 主要构成,ResNet提取特征,FCN框架,多尺度架构(使用ResNet不同stage的feature map),GCN+BR得到较为精细的边缘,结合反卷积得到最终的结果。

    1.2K20发布于 2021-07-19
  • 来自专栏新智元

    GCN研究新进展BASGCN:填补传统CNN和空域GCN理论空白,荣登AI顶刊

    Neural Network, CNN)和空域GCN的理论空白 3、在卷积过程中适应性区别特定节点的重要性 4、减小现有空域GCN中Weisfeiler-Lehman算法带来的tottering问题, 通过将任意大小的图转换为固定大小的低回溯对齐网络结构,该模型可以填补传统CNN和空域GCN之间的理论空白,还显著地降低了现有空域GCN与经典Weisfeiler-Lehman算法相关的tottering 最后,绝大多数现有的空域GCN模型都和经典Weisfeiler-Lehman(WL)方法相关,因此,类似的,这些GCN模型都可能会存在与WL算法相关的tottering问题。 存在的tottering问题:换句话来说,就是将信息从起始节点传播至第二个节点之后,这些GCN方法有可能立刻又将这些信息传播回起始节点了,而冗余特征信息就此产生。 看来近年流行的GCN方法中又有新的成员强势加入了!如果大家还想了解更多,可以到TPAMI中的原文探究更多细节哦。

    1.7K20发布于 2021-01-25
  • 来自专栏AI科技大本营的专栏

    GraphSAGE:我寻思GCN也没我厉害!

    众所周知,2017年ICLR出产的GCN现在是多么地热门,仿佛自己就是图神经网络的名片。 然而,在GCN的风头中,很多人忽略了GCN本身的巨大局限——Transductive Learning——没法快速表示新节点,这限制了它在生产环境中应用。 一、回顾GCN及其问题 对GCN不熟悉的盆友,可以看看我的上一篇文章:《何时能懂你的心——图卷积神经网络(GCN)》(https://zhuanlan.zhihu.com/p/71200936) GCN (彩蛋)思考 & GCN的反刍: 在看完GraphSAGE之后,我又回头把GCN思考了一遍。 或者说,懂了GraphSAGE的原理之后,再去看GCN,会发GCN没那么难以理解了。 来人啊,GCN公式搬上来: ? 额,,,这个是丑版本的公式,还是上美版本的吧: ?

    1.8K10发布于 2019-08-12
  • 来自专栏图与推荐

    BERT4GCN:利用BERT中间层特征增强GCN进行基于方面的情感分类

    BERT4GCN论文阅读笔记 标题:BERT4GCN: Using BERT Intermediate Layers to Augment GCN for Aspect-based Sentiment BERT4GCN利用BERT中间层的输出和单词之间的位置信息来增强GCN,以更好地编码依赖图进行下游分类。 GCN层 在介绍BERT4GCN的设计之前,让我们看看以前的一些其他GCN是怎么做的。 BERT+GCN BERT4GCN原文其中一个baseline BERT+GCN的图构建参考了下面这篇文章:SAGAT[2](COLING 2020),这一模型虽然没有直接采用GCN而是使用图Attention GCN层输出的节点表示。

    1.1K20发布于 2021-11-17
  • 来自专栏深度学习自然语言处理

    【GNN】一文读懂图卷积GCN

    “ 本文的内容包括图卷积的基础知识以及相关辅助理解的知识点,相信同学们看完后一定能平滑上手理解GCN!” 作者:苘郁蓁 来源:知乎专栏 郁蓁的机器学习笔记。 Graph Neural Network, GNN)是指神经网络在图上应用的模型的统称,根据采用的技术不同和分类方法的不同,又可以分为下图中的不同种类,例如从传播的方式来看,图神经网络可以分为图卷积神经网络(GCN 但在这篇文章中并不会细细介绍下面的每一种,作为入门篇,我们着重理解最经典和最有意义的基础模型GCN,这也是理解其他模型的基础。 ? 分别从图的类型,训练的方式,传播的方式三个方面来对现有的图模型工作进行划分 Graph Convolutional Network 图卷积神经网络(Graph Convolutional Network, GCN GCN的区别和联系 如图2所示,这三个比较绕的概念可以用一句话来概括:图卷积神经网络GCN属于图神经网络GNN的一类,是采用卷积操作的图神经网络,可以应用于图嵌入GE。

    4K22发布于 2019-12-26
  • 来自专栏深度学习自然语言处理

    图神经网络 GNN GAT & GCN(一)

    ChebNet 虽然比 GCN 复杂度更高,但它的表征能力更强。但我们可以通过堆叠多个 GCN 来扩大图卷积的感受野,所以灵活性比 ChebNet 更高。 重要的是复杂度更低的 GCN 会更容易训练,速度快且效果好,实用性强。所以它成为了被提到最多的典型方法。 ? GCN 在半监督分类任务上的效果表现 ? 我们再回过头来看 GCN 在 TSP 任务上的 Benchmark。TSP 是一个边分类任务。GCN 在没有加残差连接的情况下,随着层数增加表现是显著下降的。 ? 这一过程会导致输入 GCN 的特征失效并造成梯度消失。过平滑是 GCN 模型特有的问题,它造成了深层图神经网络的训练困难。 ? GAT 和 GCN 为两个比较主流的图神经网络。我们通常不会去考虑太多 GCN 的数学基础,而是在实际中拿来用。GNN 也存在随着层数变深,信息损失严重的问题。

    3.9K31发布于 2020-04-21
  • 来自专栏AI小白入门

    GCN】图卷积网络入门(一)

    接下来正式介绍GCN。通过限制层级的卷积为 ? 来缓解了节点度分布非常宽的图对局部邻域结构的过度拟合问题,并进一步近似 ? ,可以将(2)简化为: ? 其中 ? 是两个不受约束的变量。 此时的GCN作为一个谱方法的简化,也可以看作是一种空间方法。 最后介绍AGCN(Adaptive GCN)。以上所有的模型均使用原始图结构表示节点之间的关系。 LGCN(Learnable GCN)。该网络基于可学习图卷积层(LGCL)和子图训练策略。LGCL利用CNN作为聚合器。 提出了模型GCNN(Geodesic CNN)、ACNN(Anisotropic CNN)、GCN、DCNN的泛化形式。 使用 ? 表示节点, ? 表示节点 ? 可以看作是近似版本的transductive GCN卷积操作,inductive GCN的变体写作: ?

    2.3K40发布于 2020-07-24
  • 来自专栏磐创AI技术团队的专栏

    投稿 | 图卷积网络 GCN: Graph Convolutional Networks

    上面左图是2D卷积神经网络,其输入是4行4列的矩阵,通过卷积核逐步移动实现对整个输入的卷积操作;而右图输入是图网络,其结构和连接是不规则的,无法像卷积神经网络那样实现卷积操作,由此提出图卷积网络。

    66630发布于 2020-02-12
  • 来自专栏AI科技大本营的专栏

    ST-GCN 实现人体姿态行为分类

    故本项目通过搭建ST-GCN实现对视频时空流进行姿态估计和行为分类。最终可实现效果如下: 1、ST-GCN 介绍 ST-GCN是香港中文大学提出一种时空图卷积网络,可以用它进行人类行为识别。 ST-GCN就是构建一个以关节为图节点,以人体结构和时间为图边的自然连接为图节点的时空图。ST-GCN的输入是图节点上的关节坐标向量。 = 'dropout'} self.st_gcn_networks = nn.ModuleList(( st_gcn(in_channels, 64, kernel_size, 1, , 1, **kwargs), st_gcn(64, 64, kernel_size, 1, **kwargs), st_gcn(64, 128, kernel_size, , 1, **kwargs), st_gcn(256, 256, kernel_size, 1, **kwargs), )) 2.4 ST-GCN网络建立 建立ST-GCN网络模型

    1.9K21编辑于 2023-04-14
领券