目录
概
GPR-GNN 自适应地学习 GNN layers weights.
符号说明
- \(G = (V, E)\), graphs;
- \(\mathbf{X} \in \mathbb{R}^{n \times f}\), node feature matrix;
- \(\mathbf{A}\), adjacency matrix;
- \(\mathbf{\tilde{A}} = \mathbf{A} + \mathbf{I}\);
- \(\mathbf{\tilde{A}}_{\text{sym}} = \mathbf{\tilde{D}}^{-1/2} \mathbf{\tilde{A}} \mathbf{\tilde{D}}^{-1/2}\).
GPR-GNN
-
一般的谱图网络为:
\[ \mathbf{Z} = \sum_{k=0}^K \gamma_k \mathbf{\tilde{A}}_{\text{sym}}^k \mathbf{H}^{(0)}, \]其中 \(\gamma_k\) 为固定的系数, 比如 APPNP: \(\gamma_k = \alpha (1 - \alpha)^k\).
-
GPR-GNN 很简单, 把 \(\gamma_k\) 设定为可学习的参数, 让它自适应地去学习合适的系数.
- 如上图所示, 对于 Cora 这个比较同质的图, GPR-GNN 就会学到侧重于低频信息, 就是使得 large-step 的系数变大. 而对于 Texas 这个异质图, GPR-GNN 则是学到了一正一负的系数, 作者证明了, 这种系数是能够更容易捕捉高频的信息 (从而更适合异质图).
代码
[official]
标签:系数,mathbf,Network,Neural,Graph,gamma,tilde,GNN,GPR From: https://www.cnblogs.com/MTandHJ/p/18043092