首页 > 其他分享 >Adaptive Diffusion in Graph Neural Networks论文阅读笔记

Adaptive Diffusion in Graph Neural Networks论文阅读笔记

时间:2024-03-13 20:23:32浏览次数:29  
标签:Diffusion infty mathbf Neural 卷积 Graph 邻域 ADC hat

Adaptive Diffusion in Graph Neural Networks论文阅读笔记

Abstract

​ 最近提出了图扩散卷积(GDC),利用广义图扩散来扩展传播邻域。然而,GDC中的邻域大小是通过在验证集上进行网格搜索来手动对每个图进行调整的,这使得其泛化实际上受到了限制。为了解决这个问题,我们提出了自适应扩散卷积(ADC)策略,从数据中自动学习最优邻域大小。我们打破了传统的假设,即所有的GNN层和特征通道(维数)都应该使用相同的邻域大小来进行传播。我们设计的策略使ADC能够为每个GNN层和每个特征通道学习一个专用的传播邻域,使GNN体系结构与图结构完全耦合——这是GNN不同于传统神经网络的独特特性。通过将ADC直接插入到现有的gnn中。

Introduction

​ 现有的方法有一个隐式的假设,即所有的图数据集在消息传递过程中共享相同大小的接受域。为了打破这一问题,最近提出了图扩散卷积(GDC),将GCN中的离散信息传递过程扩展到扩散过程,使其能够从更大的邻域聚合信息。对于每个输入图,GDC通过网格搜索验证集上的参数,手工调整特征聚合的最佳邻域大小,使其实际应用受到限制和并且很敏感

​ 为了消除GDC中最优传播邻域的人工搜索过程,我们提出了自适应扩散卷积(ADC)策略,支持从数据中自动学习最优邻域。ADC通过将任务形式化为一个二层优化问题来实现这一点,允许为每个数据集定制学习一个最优传播邻域大小。换句话说,在在每个图上传递消息时,所有GNN层和特征通道(维度)共享相同的邻域大小。

​ 为了进一步发展这个方向,我们还允许ADC从数据中自动学习每个GNN层和每个特征通道的定制邻域大小。通过为每一层学习一个独特的传播邻域,ADC可以使gnn从不同的图结构中捕获邻居的信息,这完全依赖于数据和下游的学习目标。类似地,通过学习每个特征通道的不同邻域大小,gnn就能够有选择性地建模每个邻居的多个特征信号。总之,ADC使gnn与图结构和所有特征通道完全耦合。

GNN的邻域半径

​ 基于图的模型可以表示为:\(\gamma^{(l)}(\mathbf{\hat{H}},G)=f(\mathbf{T})\mathbf{\hat{H}}\),f(T)可以表示为:\(\sum_{k=0}^\infty\theta_k\mathbf{T}^k\),其中:\(\mathbf{T}=\mathbf{\tilde{D}}^{-\frac12}\mathbf{\tilde{AD}}^{-\frac12}\)于是我们就可以定义邻域半径为:

​ \(r=\frac{\sum_{k=0}^\infty\theta_kk}{\sum_{k=0}^\infty\theta_k}\)

​ 对于较大的节点,这意味着模型更强调长距离节点,即全局信息。对于一个较小的r,这意味着该模型放大了局部信息。

​ 对于GCN,邻域半径r = 1,它只是直接连接到它的节点的范围。为了收集直接连接之外的信息,需要堆叠多个GCN层,以到达高阶邻居。并且对于所有的多跳模型,跳数的离散性质使得r不可微。

​ 对于图扩散卷积来说,\(\gamma^{(l)}(\mathbf{\hat{H}},G)=\sum_{k=0}^\infty\theta_k\mathbf{T}^k\mathbf{\hat{H}}\) 且 \(\begin{aligned}\sum_{k=0}^\infty\theta_k=1\end{aligned}\),这样,信号的强度就不会通过传播而被放大或降低。两个常用的权重系数为PangeRank:\(\begin{aligned}\theta_{k}=\alpha(1-\alpha)^{k}\end{aligned}\)和热核

\(\theta_k=e^{-t}\frac{t^k}{k!}\)

​ 根据上述的邻域半径的公式,可得热核的邻域半径是t,这说明t是基于热核的GDC的邻域半径,即t在多跳模型中成为跳数的完美连续替代品。

自适应图扩散卷积

​ 图扩散卷积的热核版本为:

​ \(\gamma^{(l)}(\mathbf{\hat{H}},G)=e^{-\mathbf{L}t}\mathbf{\hat{H}}=\sum_{k=0}^\infty e^{-t}\frac{t^k}{k!}\mathbf{T}^k\mathbf{\hat{H}}\),其中\(\mathbf{L}=\mathbf{I}-\mathbf{T}\)

​ 对于每个图形数据集,都需要手动网格搜索步骤来确定与邻域半径相关的参数t。此外,每个数据集中的所有特征通道和传播层都是固定的。在这项工作中,我们探索了如何自适应地从每个图的数据中学习邻域半径,并进一步研究了如何将其推广到不同的特征通道和GNN层的潜力。

训练邻域的半径

​ 扩散卷积使我们能够用连续热核代替GNNs的离散特征传播函数。我们可以计算t的梯度,并更新t,收敛到最优邻域,这与学习模型中的其他权重和偏差参数相同。

​ 但是发现直接在训练集上应用上述的方法的效果并不理想,为了解决这个问题,我们提出了一种通过在验证集上使用模型的梯度来训练t的方法。该模型的目标是找到最小化验证损失\(\mathcal{L}_{val}(t,w^*)\),其中w表示特征变换函数中的所有其他可训练参数,w∗表示最小化训练损失\(\mathcal{L}_{train}(t,w)\)的参数集。该策略可以形式化为一个二层优化问题:

\[\begin{aligned}t^*&=\arg\min_t\mathcal{L}_{val}(t,w^*(t))\\\\w^*(t)&=\arg\min_w\mathcal{L}_{train}(t,w)\end{aligned} \]

​ 通过这样做,每次更新t,我们需要使w收敛到最优值,这对训练太昂贵了。一种近似方法是每次我们更新w时都更新t,即

\(w^{(e+1)}=w^{(e)}-\alpha_1\bigtriangledown_w\mathcal{L}_{train}(t^{(e)},w^{(e)})\)

\(t^{(e+1)}=t^{(e)}-\alpha_2\bigtriangledown_t\mathcal{L}_{val}(t^{(e)},w^{(e+1)})\)

​ 其中,e为训练周期的个数,α1和α2分别表示在训练集和验证集上的学习率。在基于梯度的超参数调优和神经结构搜索中也提出了类似的想法。使用这种方法有助于避免过拟合,从而提供了更好的泛化,因为没有测试精度下降的迹象。同时,t不减小到零,表明该参数-邻域半径的有意义的学习。

训练每个层和通道的邻域半径

模型的示意图如下:

pFcgLes.png

聚合的策略为:

\(\gamma^{(l)}(\mathbf{\hat{H}},G)_i=\sum_{k=0}^\infty e^{-t_i^{(l)}}\frac{\left(t_i^{(l)}\right)^k}{k!}\mathbf{T}^k\mathbf{\hat{H}}_i\)

广义自适应扩散卷积(GADC)。目前,我们引入了基于热核的自适应扩散卷积方法。在不丧失一般性的情况下,我们可以将ADC扩展到一个广义的ADC(GADC),即不限制权重系数θk作为热核。因此,我们有GADC的特征传播为:

\(\gamma^{(l)}(\mathbf{\hat{H}},G)_i=\sum_{k=0}^\infty\theta_{ki}^{(l)}\mathbf{T}^k\mathbf{\hat{H}}_i\) 且 \(\sum_{k=0}^{\infty}\theta_{ki}^{(l)}=1\)

标签:Diffusion,infty,mathbf,Neural,卷积,Graph,邻域,ADC,hat
From: https://www.cnblogs.com/anewpro-techshare/p/18071441

相关文章

  • 【DataWhale学习】用免费GPU线上跑StableDiffusion项目实践
    用免费GPU线上跑SD项目实践​DataWhale组织了一个线上白嫖GPU跑chatGLM与SD的项目活动,我很感兴趣就参加啦。之前就对chatGLM有所耳闻,是去年清华联合发布的开源大语言模型,可以用来打造个人知识库什么的,一直没有尝试。而SD我前两天刚跟着B站秋叶大佬和Nenly大佬的视频学习过......
  • Stable Diffusion 学习笔记
     对于diffusion的原始论文的理解参考,https://www.bilibili.com/video/BV18a4y1T75X/?p=2&spm_id_from=pageDriver&vd_source=1eb6e5015a1f70daa97080d8ee786d5dhttps://www.bilibili.com/video/BV1KC411Y7AF?p=2&vd_source=1eb6e5015a1f70daa97080d8ee786d5d 之前生成网络,G......
  • 【PR】Block-NeRF: Scalable Large Scene Neural View Synthesis
    【简介】 本文的作者来自UCBerkeley,Waymo和Google研究院,一听就是大佬。发表在CVPR2022。  【创新点】  【review】  【方法】   【结论】  【参考】TancikM,CasserV,YanX,etal.Block-nerf:Scalablelargesceneneuralviewsynth......
  • C# danbooru Stable Diffusion 提示词反推 Onnx Demo
    目录说明效果模型信息项目代码下载 C#danbooruStableDiffusion提示词反推OnnxDemo说明模型下载地址:https://huggingface.co/deepghs/ml-danbooru-onnx效果模型信息Model Properties-----------------------------------------------------------------......
  • C# RAM Stable Diffusion 提示词反推 Onnx Demo
    目录介绍效果模型信息项目代码下载C#RAMStableDiffusion提示词反推OnnxDemo介绍github地址:https://github.com/xinyu1205/recognize-anythingOpen-sourceandstrongfoundationimagerecognitionmodels.onnx模型下载地址:https://huggingface.co/CannotFi......
  • Be Your Own Teacher: Improve thePerformance of Convolutional Neural Networks via
    摘要本文中,提出了一种名为自蒸馏的通用训练框架,该框架通过缩小网络的规模而不是扩大网络的规模,而提高卷积神经网络的性能。传统的知识蒸馏是一种网络之间的知识转换方法,它迫使学生神经网络接近预先训练的教师神经网络的softmax层输出,与此不同,所提出的自蒸馏框架提取网络......
  • 【体验有奖】用 AI 画春天,函数计算搭建 Stable Diffusion WebUI
    人工智能生成内容AIGC(ArtificialIntelligenceGeneratedContent)是当下备受关注的概念之一,是继PGC和UGC之后的新型生产方式。AIGC技术的核心思想是利用人工智能算法生成具有一定创意和质量的内容。例如,根据用户的描述或关键词,即时创作出独特的艺术风格画像,实现个性化的艺术......
  • 【PR】UC-NERF: NEURAL RADIANCE FIELD FOR UNDERCALIBRATED MULTI-VIEW CAMERAS IN A
    【简介】这篇文章的作者来自中科大、北大武汉人工智能研究院、大疆和上海科大,投稿到了ICLR2024会议,已接收。UC,表示undercalibrated,意味着标定不准。本文提出UC-NeRF用于解决标定不够好的多相机配置的新视角合成方法。首先,作者提出一种基于层的颜色校正方法,以纠正不同图像区域......
  • [论文速览] CalliGAN@ Style and Structure-aware Chinese Calligraphy Character Gen
    Pretitle:CalliGAN:StyleandStructure-awareChineseCalligraphyCharacterGeneratoraccepted:AICCW(theAIforcontentcreationworkshop)atCVPR2020paper:https://arxiv.org/abs/2005.12500code:https://github.com/JeanWU/CalliGANref:https://blog.cs......
  • GraphDA论文阅读笔记
    Abstract​ 图协同滤波(GCF)是在推荐系统中捕获高阶协同信号的一种流行技术。然而,GCF的二部邻接矩阵定义了基于用户-项目交互聚合的邻居,对于交互丰富的用户/项目来说是有噪声的,而对于交互稀缺的用户/项目则不够。此外,邻接矩阵忽略了用户-用户和项目-项目之间的相关性,这可能会限制被......