首页 > 其他分享 >Combining Label Propagation and Simple Models Out-performs Graph Neural Networks

Combining Label Propagation and Simple Models Out-performs Graph Neural Networks

时间:2023-05-22 16:14:23浏览次数:58  
标签:mathbb 误差 Neural Simple Graph times performs alpha hat

目录

Huang Q., He H., Singh A., Lim S. and Benson A. R. Combining label propagation and simple models out-performs graph neural networks. ICLR, 2021.

将预测概率作为信号进行传播.

符号说明

  • \(G = (V, E)\), 图;
  • \(|V|=n\);
  • \(X \in \mathbb{R}^{n \times p}\);
  • \(A \in \mathbb{R}^{n \times n}\), 邻接矩阵;
  • \(S := D^{-1/2} A D^{-1/2}\), normalized 邻接矩阵;
  • \(Y \in \mathbb{R}^{n \times c}\), ont-hot-encoding matrix;
  • \(L\), labled nodes;
  • \(L_t\), training set;
  • \(L_v\), validation set.

C&S

  • 假设我们有一个基本的 predictor, 它返回的是结点的标签的预测概率 \(Z \in \mathbb{R}^{n \times c}\).

  • 现在我们有训练集合上的真实标签 \(Y_{L_t}\), 则我们有误差:

    \[E = E^{(0)} = E_{L_t} = Z_{L_t} - Y_t. \]

  • 但是, 我们不清楚其它的非训练中的结点的误差, 但是我们可以通过图来传播这些误差, 这么做的目的是为了误差更加平滑 (或许能够起到去除噪声的作用):

    \[\hat{E} = \text{argmin}_{W} \: \text{trace}(W^T (I - S) W) + \mu \|W - E\|_F^2, \]

    它的最优解可以通过不停地迭代下式而收敛:

    \[E^{(t+1)} = (1 - \alpha) E + \alpha S E^{(t)}, \]

    其中 \(\alpha = 1 / (1 + \mu)\).

  • 但是, 作者发现这种方式, 由于:

    \[\|E^{(t+1)}\|_2 \le (1 - \alpha) E + \alpha \|S\|_2 \|E^{(t)}\|_2 \le \|E\|_2, \]

    故很难保证最终的 scale 是正确的.

  • 故作者提出了两种 scale 的方式:

    1. AutoScale: 定义 \(\sigma = \frac{1}{|L_t|} \|E^{(0)}\|_1\), 则 unlabeled node \(i\) 上的误差为:

      \[Z_{i, :}^{(r)} = Z_{i,:} + \sigma \hat{E}_{:, i} / \|\hat{E}_{:,i}^T\|_1. \]

    2. Scaled Fixed Diffusion: 每次迭代, 保持 \(E_L^{(t)} = E_L\) 然后传播:

      \[E_{U}^{(t+1)} = [D^{-1}A E^{(t)}]_U. \]

      最后, 作者发现加一个超参数 \(s\) 用于调节

      \[Z^{(r)} = Z + s \hat{E} \]

      会有比较好的效果.

  • 如此, 我们得到了修正后的预测: \(Z^{(r)}\). 作者接着令:

    \[G_{L_t} = Y_{L_t}, G_{L_v, U} = Z_{L_v, U}^{(r)}, \]

    并通过如下公式迭代:

    \[G^{(t+1)} = (1 - \alpha) G + \alpha SG^{(t)}. \]

代码

official

标签:mathbb,误差,Neural,Simple,Graph,times,performs,alpha,hat
From: https://www.cnblogs.com/MTandHJ/p/17420882.html

相关文章

  • Graphql(五)Apollo 文件传输
    本文介绍如何在ApolloGraphQL中实现文件的传输文件传输在GrapqhQL中官方建议文章ApolloServerFileUploadBestPractices提及了实现文件上传的几种方式,分别是:SignedURLsUsinganimageuploadserviceMultipartUploadRequests本文介绍我所尝试过的第一种和第三种。......
  • POJ1737 Connected Graph ( n点无向连通图计数
    题意说明:求\(n\)个点的无向连通图个数据说已经非常典了,但是我太菜了不会组合数学,最近补档时看到这道题,决定记录下来理理思路......
  • Vulnhub: Photographer 1靶机
    kali:192.168.111.111靶机:192.168.111.132信息收集端口扫描nmap-A-v-sV-T5-p---script=http-enum192.168.111.132目标8000端口为kokencms使用enum4linux枚举目标samba服务,发现共享文件夹enum4linux-a192.168.111.132连接目标共享文件夹,发现两个文件smbcli......
  • 基于Graph-Cut算法的彩色图像深度信息提取matlab仿真
    1.算法仿真效果matlab2022a仿真结果如下:2.算法涉及理论知识概要Graphcuts是一种十分有用和流行的能量优化算法,在图像处理领域普遍应用于前后背景分割(Imagesegmentation)、立体视觉(stereovision)、抠图(Imagematting)等,目前在医学图像领域应用较多。GraphCut(图形切割)应用于......
  • 基于Graph-Cut算法的彩色图像深度信息提取matlab仿真
    1.算法仿真效果matlab2022a仿真结果如下:     2.算法涉及理论知识概要       Graphcuts是一种十分有用和流行的能量优化算法,在图像处理领域普遍应用于前后背景分割(Imagesegmentation)、立体视觉(stereovision)、抠图(Imagematting)等,目前在医学图像领域应用较......
  • php第三方库:用simple_html_dom解析html(php)
    一,第三方库的地址:https://github.com/voku/simple_html_dom二,安装库:simple_html_dom:1,安装[lhdop@blogparsehtml]$composerrequirevoku/simple_html_domInfofromhttps://repo.packagist.org:#StandWithUkraine…2,安装完成后查看安装成功的文件:[lhdop@blog......
  • API架构的选择,RESTful、GraphQL还是gRPC
    hi,我是熵减,见字如面。在现代的软件工程中,微服务或在客户端与服务端之间的信息传递的方式,比较常见的有三种架构设计的风格:RESTful、GraphQL和gRPC。每一种模式,都有其特点和合适的使用场景,今天,我们主要来对三种风格做一个深入的理解和对比,以方便我们在做技术选型时,能够做出有效的......
  • SUBLEX - Lexicographical Substring Search
    来一发\(SA\)做法。题目见SUBLEX-LexicographicalSubstringSearch从P2408不同子串个数当中找到的灵感,统计不同子串个数时候,实际上是用总串数减去重复的串数。那么针对这道题,查找排名第\(k\)小的串,想想我们的后缀数组,不正是满足字典序从小到大排列?现在我们已经拥有......
  • 全网最详细解读《GIN-HOW POWERFUL ARE GRAPH NEURAL NETWORKS》!!!
    Abstract+IntroductionGNNs大都遵循一个递归邻居聚合的方法,经过k次迭代聚合,一个节点所表征的特征向量能够捕捉到距离其k-hop邻域的邻居节点的特征,然后还可以通过pooling获取到整个图的表征(比如将所有节点的表征向量相加后用于表示一个图表征向量)。关于邻居聚合策略以及......
  • 第四周编程作业(一)-Building your Deep Neural Network: Step by Step
    BuildingyourDeepNeuralNetwork:StepbyStepWelcometoyourweek4assignment(part1of2)!Youhavepreviouslytraineda2-layerNeuralNetwork(withasinglehiddenlayer).Thisweek,youwillbuildadeepneuralnetwork,withasmanylayersasyou......