首页 > 其他分享 >Decoupling the Depth and Scope of Graph Neural Networks

Decoupling the Depth and Scope of Graph Neural Networks

时间:2023-11-17 14:57:16浏览次数:28  
标签:Decoupling Neural Graph 子图 text bm mathcal Shadow GNN

目录

Zeng H., Zhang M., Xia Y., Srivastava A., Malevich A., Kannan R., Prasanna V., Jin L. and Chen R. Decoupling the depth and scope of graph neural networks. NIPS, 2021.

为每个结点抽取一子图作为结点的代表, 然后推理过程仅限定在子图上, 作者证明了这种方式的表达能力.

符号说明

  • \(\mathcal{G} = (\mathcal{V}, \mathcal{E}, \bm{X})\), global graph;

  • \(\mathcal{V}\), node set;

  • \(\mathcal{E} \subset \mathcal{V} \times \mathcal{V}\), edge set;

  • \(\mathbf{X} \in \mathbb{R}^{|\mathcal{V}| \times d}\), node feature matrix;

  • \(\bm{A} \in \mathbb{R}^{|\mathcal{V} \times \mathcal{V}|}\), adjacency matrix;

  • \(\mathcal{G}_{[u]}\), 以结点为 \(u\) 中心的子图, 这个子图可以是通过一些启发式的方法从 global graph \(\mathcal{G}\) 采样得到的, 也可以是学习的得到的 (比如以 \(u\) 为中心的 2-hop 子图);

  • \(\bm{X}_{[u]}, \bm{A}_{[u]}\) 就是子图 \(\mathcal{G}_{[u]}\) 所诱导的特征矩阵和邻接矩阵, 且规定:

    \[[\bm{X}_{[u]}]_v = \bm{0}, \quad \forall v \not \in \mathcal{V}_{[u]}, \\ [\bm{A}_{[u]}]_{v,w} = \bm{0}, \quad v \not \in \mathcal{V}_{[u]} \text{ or } w \not \in \mathcal{V}_{[u]}. \]

Shadow-GNN

  • Shadow-GNN 的想法其实很简单, 就是假设我们有一个 GNN 的网络, 其为:

    \[\bm{H} = f(\bm{X}; \mathcal{G}), \]

    \(u\) 的表征为 \(\bm{H}_u\). Shadow-GNN 做如下的一个改动:

    \[\bm{H}_u := \text{READOUT} \circ f \circ \text{EXTRACT}(u;\bm{X}; \mathcal{G})), \]

  • \(\text{EXTRACT}(\cdot)\) 是提取中心为 \(u\) 的子图, 而 \(\text{READOUT}(\cdot)\) 则是将图表征转换为结点的表征, 以用于后续的任务.

  • 本文主要聚焦的点在于这种方式的表达能力, 作者证明了:

    1. Shadow-GNN 是 local-smoothing 的 (但很难 over-smoothing), 所以允许多层的 GNN 网络架构;
    2. Shadow-SAGE 有着和 GraphSAGE 相似的逼近能力;
    3. Shadow-GIN 有着和 GIN 一样的 1-WL test 的能力.
  • 至于子图的具体提取方式, 作者主要考虑了启发式的抽取方式: 根据 pagerank weight 采样, 或者直接根据 hops 选取 (一般 2, 3 hops 就足够了).

代码

[official]

标签:Decoupling,Neural,Graph,子图,text,bm,mathcal,Shadow,GNN
From: https://www.cnblogs.com/MTandHJ/p/17838721.html

相关文章

  • 从真实案例出发,全方位解读 NebulaGraph 中的执行计划
    本文整理自NebulaGraph核心开发Yee在直播《聊聊执行计划这件事》中的主题分享。分享视频参见B站:https://www.bilibili.com/video/BV1Cu4y1h7gn/一条Query的一生在开始正式地解读执行计划之前,我们先来了解在NebulaGraph中,一条查询语句(Query)是如何被校验、生成语法树,到......
  • cryptography hash 算法使用
    安装pipinstallcryptography使用方法fromcryptography.hazmat.primitivesimporthashesdigest=hashes.Hash(hashes.SHA256())#digest=hashes.Hash(hashes.SHA3_256())#digest=hashes.Hash(hashes.SM3())digest.update(b"abc")print(digest.finalize())......
  • Dgraph 安装配置及使用
    安装配置docker-compose.ymlversion:"3.2"services:#用于协调集群中各个机器的负载zero:image:dgraph/dgraph:latestvolumes:-type:volumesource:dgraphtarget:/dgraphvolume:nocopy:trueports:......
  • AT AGC043C - Giant Graph - 总结
    ATAGC043C-GiantGraph因为\({(10^{18})}^{x+y+z}\)的底数很大,所以我们贪心的选择\(x+y+z\)大的点是存在正确性的。那么我们从小点向大点连有向边,形成DAG后,对于一个点,如果它指向的点都没有被选取,那么选择它,否则不选。我们发现这样的选取过程和求SG函数是一样的,并且每......
  • rasa train nlu详解:1.2-_train_graph()函数
      本文使用《使用ResponseSelector实现校园招聘FAQ机器人》中的例子,主要详解介绍_train_graph()函数中变量的具体值。一.rasa/model_training.py/_train_graph()函数  _train_graph()函数实现,如下所示:def_train_graph(file_importer:TrainingDataImporter,trai......
  • SuperGlue: Learning Feature Matching with Graph Neural Networks论文笔记
    SuperGlue:LearningFeatureMatchingwithGraphNeuralNetworks源码:github.com/magicleap/SuperGluePretrainedNetwork背景:主要解决图像中点之间的对应关系。主要方法:上图为该方法的主要框架。模型大致分为两个部分:注意图神经网络和最优匹配层。其中第i个局部特征由di......
  • polygraphy介绍
    Polygraphy目录Polygraphy工具说明依赖&安装功能&Toolsrunloggingrunnermodelonnxtensorrtdataloadercomparator使用示例convertdebuginspectsurgeonruncomparisonmetricsgenerating_comparison_scriptcomparing_onnx&engine1comparing_onnx&engine2comparing_onnx&eng......
  • Neural Networks投稿要求总结
    自用,NN投稿要求,相关的部分的中文版翻译,原文链接:https://www.sciencedirect.com/journal/neural-networks/publish/guide-for-authorsNeuralNetworks投稿要求介绍国际神经网络学会、欧洲神经网络学会和日本神经网络学会的官方期刊。论文类型Articles考虑原创的长篇文章时,应......
  • 神经网络入门篇:详解计算一个神经网络的输出(Computing a Neural Network's output)
    一个神经网络的输出首先,回顾下只有一个隐藏层的简单两层神经网络结构:图1.3.1其中,\(x\)表示输入特征,\(a\)表示每个神经元的输出,\(W\)表示特征的权重,上标表示神经网络的层数(隐藏层为1),下标表示该层的第几个神经元。这是神经网络的符号惯例,下同。神经网络的计算关于神经网络是怎......
  • 一文读懂 Fabarta ArcGraph 图数据库丨技术解读
    导读 本文将深入探讨图数据库的发展历程、Fabarta自研图数据库ArcGraph的产品优势,以及 ArcGraph 如何充分利用图和向量数据库的融合优势,为AI技术的发展提供强大支持。图数据库最早诞生于上世纪六七十年代,起源于对复杂网络结构的理解和处理需求。随着社交网络、知识图谱......