首页 > 其他分享 >Graph Neural Networks with Diverse Spectral Filtering

Graph Neural Networks with Diverse Spectral Filtering

时间:2023-11-24 16:55:19浏览次数:31  
标签:Spectral Filtering mathbf matrix Neural 多项式 beta mathcal hat

目录

Guo J., Huang K, Yi X. and Zhang R. Graph neural networks with diverse spectral filtering. WWW, 2023.

为每个结点赋予不同的多项式系数.

符号说明

  • \(\mathcal{V}\), node set, \(|\mathcal{V}| = N\);
  • \(\mathcal{E}\), edge set;
  • \(\mathcal{G} = (\mathcal{V}, \mathcal{E})\), graph;
  • \(\mathcal{N}_{i,k} = \{v_j| d(v_i, v_j) \le k, \forall v_j \in \mathcal{V}\}\);
  • \(\mathbf{A} \in \mathbb{R}^{N \times N}\), adjacency matrix;
  • \(\mathbf{L} = \mathbf{D} - \mathbf{A}\), Laplacian matrix;
  • \(\mathbf{\hat{A}} = \mathbf{D}^{-1/2} \mathbf{A} \mathbf{D}^{-1/2}\), normalized adjacency matrix;
  • \(\mathbf{\hat{L}} = \mathbf{I} - \mathbf{\hat{A}}\), normalized Laplacian matrix;
  • \(\mathbf{X} \in \mathbb{R}^{N \times d}\), node feature matrix.

DSF

  • 谱图网络可以一般性写为:

    \[\mathbf{Z} = \sum_{k=0}^K \alpha_k P_k(\mathbf{\hat{L}}) \mathbf{X}, \]

    其中 \(\alpha_k\) 为多项式基 \(P_k\) 的系数, 可以是可训练的也可以是通过启发的方法设定.

  • 本文的 DSF 推荐如下方式:

    \[\mathbf{Z} = \sum_{k=0}^K \text{diag}(\beta_{k,1}, \beta_{k,2}, \ldots, \beta_{k, N}) P_k(\mathbf{\hat{L}}) \mathbf{X}, \]

    从而对于每个阶段, 都有一个相对独立的多项式去拟合周围 local graph.

  • 这么做的出发点是, 作者认为相较于之前的行为, 这种方式能够使得多项式的系数能够更符合子图的特性, 而不是所有子图都共享一种模式. 这地方我省略了推导过程, 因为我觉得其中有一部分的假设不那么合理. 但是, 总的来说, 出发点个人感觉是 ok 的.

  • 当然了, \(\beta_{k, i}\) 也并非完全独立训练的, 它设计为:

    \[\beta_{k, i} = \gamma_i \theta_{k, i}, \]

    其中 \(\gamma_i\) 为 global filter weight (确定不是 \(\gamma_k\) ?), 而 \(\theta_{k, i} \in (-1, 1)\) 则是 local filter weight, 它实际上也是通过别的方式拟合得到而非直接学的, 总的来说, 具有相似 local 结构的, \(\theta_{k, i}\) 也相近.

代码

[official]

标签:Spectral,Filtering,mathbf,matrix,Neural,多项式,beta,mathcal,hat
From: https://www.cnblogs.com/MTandHJ/p/17854143.html

相关文章

  • Convolutional Neural Networks on Graphs with Chebyshev Approximation, Revisited
    目录概符号说明MotivationChebNetII代码HeM.,WeiZ.andWenJ.Convolutionalneuralnetworksongraphswithchebyshevapproximation,revisited.NIPS,2022.概作者剖析了ChebNet存在的一些缺陷,并通过约束系数获得更好的性能.符号说明\(V\),nodeset;\(E\),......
  • On Manipulating Signals of User-Item Graph A Jacobi Polynomial-based Graph Colla
    目录概符号说明MotivationJGCF代码GuoJ.,DuL,ChenX.,MaX.,FuQ.,HanS.,ZhangD.andZhangY.Onmanipulatingsignalsofuser-itemgraph:Ajacobipolynomial-basedgraphcollaborativefiltering.KDD,2023.概利用JacobiConvolution来区分高中低频信号......
  • How Powerful are Spectral Graph Neural Networks?
    目录概符号说明SpectralGNNChoiceofBasisforPolynomialFiltersJacobiConv代码WangX.andZhangM.Howpowerfularespectralgraphneuralnetworks?ICML,2022.概分析谱图网络的表达能力.符号说明\(\kappa(M)=\frac{\lambda_{\max}}{\lambda_{\min}}\),矩阵......
  • 神经网络入门篇:神经网络的梯度下降(Gradient descent for neural networks)
    神经网络的梯度下降在这篇博客中,讲的是实现反向传播或者说梯度下降算法的方程组单隐层神经网络会有\(W^{[1]}\),\(b^{[1]}\),\(W^{[2]}\),\(b^{[2]}\)这些参数,还有个\(n_x\)表示输入特征的个数,\(n^{[1]}\)表示隐藏单元个数,\(n^{[2]}\)表示输出单元个数。在这个例子中,只介绍过的......
  • Decoupling the Depth and Scope of Graph Neural Networks
    目录概符号说明Shadow-GNN代码ZengH.,ZhangM.,XiaY.,SrivastavaA.,MalevichA.,KannanR.,PrasannaV.,JinL.andChenR.Decouplingthedepthandscopeofgraphneuralnetworks.NIPS,2021.概为每个结点抽取一子图作为结点的代表,然后推理过程仅限定在子......
  • SuperGlue: Learning Feature Matching with Graph Neural Networks论文笔记
    SuperGlue:LearningFeatureMatchingwithGraphNeuralNetworks源码:github.com/magicleap/SuperGluePretrainedNetwork背景:主要解决图像中点之间的对应关系。主要方法:上图为该方法的主要框架。模型大致分为两个部分:注意图神经网络和最优匹配层。其中第i个局部特征由di......
  • Neural Networks投稿要求总结
    自用,NN投稿要求,相关的部分的中文版翻译,原文链接:https://www.sciencedirect.com/journal/neural-networks/publish/guide-for-authorsNeuralNetworks投稿要求介绍国际神经网络学会、欧洲神经网络学会和日本神经网络学会的官方期刊。论文类型Articles考虑原创的长篇文章时,应......
  • 神经网络入门篇:详解计算一个神经网络的输出(Computing a Neural Network's output)
    一个神经网络的输出首先,回顾下只有一个隐藏层的简单两层神经网络结构:图1.3.1其中,\(x\)表示输入特征,\(a\)表示每个神经元的输出,\(W\)表示特征的权重,上标表示神经网络的层数(隐藏层为1),下标表示该层的第几个神经元。这是神经网络的符号惯例,下同。神经网络的计算关于神经网络是怎......
  • [论文阅读] [SNGAN] Spectral Normalization for Generative Adversarial Networks
    1802.05957.pdf(arxiv.org)MiyatoT,KataokaT,KoyamaM,etal.Spectralnormalizationforgenerativeadversarialnetworks[J].arXivpreprintarXiv:1802.05957,2018.生成式对抗网络的频谱归一化,相比于WGAN-GP在激进的学习率和β1&β2下表现更好引用:4453代码:https:......
  • [机器学习复习笔记] Spectral Clustering 谱聚类
    SpectralClustering谱聚类1.邻接矩阵无向图\(G=(V,E)\),所有顶点之间的权重构成一个\(n\timesn\)的矩阵:\[W=\begin{bmatrix}w_{11}&w_{12}&\cdots&w_{1n}\\w_{21}&w_{22}&\cdots&w_{2n}\\\vdots&\vdots&\ddots......