首页 > 其他分享 >论文解读(UDA-GCN)《Unsupervised Domain Adaptive Graph Convolutional Networks》

论文解读(UDA-GCN)《Unsupervised Domain Adaptive Graph Convolutional Networks》

时间:2024-03-25 20:25:14浏览次数:30  
标签:Convolutional Domain right frac Unsupervised 学习 quad 节点 left

Note:[ wechat:Y466551 | 可加勿骚扰,付费咨询 ]

论文信息

论文标题:Unsupervised Domain Adaptive Graph Convolutional Networks
论文作者:
论文来源:2020 aRxiv
论文地址:download 
论文代码:download
视屏讲解:click

1-摘要

  图卷积网络(GCNs)在许多与图相关的分析任务中都取得了令人印象深刻的成功。然而,大多数 GCN 只在一个域(图)中工作,无法将知识从其他域(图)转移,因为图表示学习和域适应方面的挑战。在本文中,我们提出了一种新的方法,无监督的域自适应图卷积网络(UDAGCN),为图的域自适应学习。为了实现有效的图表示学习,我们首先开发了一个对偶图卷积网络组件,它联合利用局部和全局一致性进行特征聚合。进一步利用注意机制为不同图中的每个节点生成统一的表示。促进图之间的知识转移,我们提出一个领域自适应学习模块优化三个不同的损失函数,即源分类器损失,域分类器损失,和目标分类器损失作为一个整体,因此我们的模型可以区分类标签在源域,样本来自不同的领域,类标签从目标领域。在节点分类任务中的真实数据集上的实验结果验证了该方法的性能,与目前最先进的图神经网络算法相比。

2-介绍

2.1 无监督节点分类域适应

  

  给定一个具有完全标记节点的源网络和一个没有任何标记数据的目标网络,无监督图域自适应的目标是利用源网络中丰富的标记信息,帮助为目标网络建立一个准确的节点分类器。

2.2 思考

  现有无监督域适应方法为什么不适合在 Graph 数据上?

  首先,这些领域适应方法通常是为 NLP 和 CV 领域的任务设计的, 其样本(图像、序列)是独立同分布的,对旋转不变形要求很低。然而,对于网格数据,其中节点与表示它们的关系的边连接,由于被称为图同构的现象,需要具有旋转不变性的模型。因此,现有的方法不能建模网络结构信息,这是节点分类的核心。

  其次,大多数现有的领域自适应模型以有监督的方式学习判别表示,其中损失函数的值只与每个单个样本在其特征空间中的绝对位置相关联。另外,用于节点分类的网络表示通常是通过保持所有节点对的相对位置,以无监督的方式学习表示,从而增加了优化的难度。

2.3 现有工作

  CDNE 算法通过最小化最大平均差异(MMD)损失来学习跨网络学习任务的可转移节点嵌入。但是,它不能联合建模网络结构和节点属性,这限制了其建模能力。为了利用网络结构进行跨网络节点分类,AdaGCN 使用图卷积网络作为特征提取器来学习节点表示,并利用对抗性学习策略来学习域不变节点表示。虽然联合利用 GCN 和对抗性学习来提高图形结构数据的跨域节点分类性能似乎是合理的。

  缺点

  1. 数据结构层面:现有方法(GCN)只考虑了直接邻居(局部一致性)进行知识聚合,全局一致性没有得到充分的研究。在实践中,全局一致性关系是至关重要的。例如,在一个真实的社会网络中,每个人都是几个社区的成员,可以受到她/他的社区的影响,从地方一致性关系(如家庭、朋友)到全球一致性关系(如社会、民族国家)。因此,还应该利用全局一致性关系来获得协作图学习的节点的全面表示。
  2. 表示学习层面:如上所述,不能忽视全局一致性关系。因此,在我们的场景中,如何结合局部关系和全局关系来捕获节点的全面表示是至关重要的。理想情况下,这应该在端到端学习框架内完成。
  3. 领域适应层面:现有方法通过域标签减小域差异,并使用源标签训练分类器,但是忽略了目标域的语义信息。因此,应考虑源域信息、域信息和目标域信息的协同学习,以学习域不变性和语义表示。

2.4 本文

  解决思路

  1. 数据结构层面:利用每个图的局部和全局一致性关系来帮助节点嵌入模块的训练。
  2. 表示层面:提出了一种基于互图的注意机制,将局部关系和全局关系结合起来,形成每个域的综合节点表示。
  3. 领域适应层面:提出一种领域自适应学习方法来联合利用源信息、域信息和目标信息,从而有效地学习域不变性和语义表示,以减少跨域节点分类的域差异。

  贡献

  1. 本文提出了一种新的无监督图域自适应问题,并提出了一种有效的图卷积网络算法来解决它;
  2. 提出了一种新的方法,将局部和全局一致性与注意机制相结合,以学习网络有效节点嵌入;
  3. 设计了一种利用具有不同损失函数的源信息和目标信息的新方法,从而可以有效地学习域不变表示和语义表示,以减少跨域节点分类的域差异;
  4. 真实数据集上 SOTA 性能;

3-方法

3.1 模型框架

  

3.2 节点嵌入模块

  捕获局部一致性:

    $\operatorname{Conv}_{A}^{(i)}(X)=Z^{(i)}=\sigma\left(\tilde{D}^{-\frac{1}{2}} \tilde{A} \tilde{D}^{\frac{1}{2}} Z^{(i-1)} W^{(i)}\right)  \quad\quad(1)$

  捕获全局一致性:

    频率矩阵 $F$:

      $p\left(s(t+1)=x_{j} \mid s(t)=x_{i}\right)=A_{i, j} / \sum_{j} A_{i, j}   \quad\quad(2)$

    点向互信息矩阵(PPMI):

      $p_{i, j}=\frac{F_{i, j}}{\sum_{i, j} F_{i, j}} \quad \quad(3)$
      $p_{i, *}=\frac{\sum_{j} F_{i, j}}{\sum_{i, j} F_{i, j}} \quad \quad(4)$
      $p_{*, j}=\frac{\sum_{i} F_{i, j}}{\sum_{i, j} F_{i, j}} \quad \quad(5)$
      $P_{i, j}=\max \left\{\log \left(\frac{p_{i, j}}{p_{i, *} p_{*, j}}\right), 0\right\} \quad \quad(6)$

    全局关系消息传递:

      $\operatorname{Conv}_{P}^{(i)}(X)=Z^{(i)}=\sigma\left(D^{-\frac{1}{2}} P D^{-\frac{1}{2}} Z^{(i-1)} W^{(i)}\right)  \quad \quad(7)$

    Note:应用基于这种节点-上下文矩阵 $P$ 的扩散可以确保全局一致性。

3.3 图间注意力

  使用原始输入 $X^{s}$ 和 $X^{t}$ 作为注意机制的关键。然后对每个域输出($Z_{A}^{s}$、$Z_{P}^{s}$、$Z_{A}^{t}$、$Z_{P}^{t}$)进行注意,每个域分别计算两个注意系数 $a t t^{s}$ 和 $a t t^{t}$:

    $a t t_{A}^{k}=f\left(Z_{A}^{k}, J X^{k}\right)  \quad\quad(8)$

    $a t t_{P}^{k}=f\left(Z_{P}^{k}, J X^{k}\right) \quad\quad(9)$

  Note,$J$ 是一个共享的权重矩阵;

  然后,进一步规范化权重 $a t t_k$。

    $a t t_{A}^{k} =\frac{\exp \left(a t t_{A}^{k}\right)}{\exp \left(a t t_{A}^{k}+a t t_{P}^{k}\right)} \quad\quad(10)$
    $a t t_{P}^{k} =\frac{\exp \left(a t t_{P}^{k}\right)}{\exp \left(a t t_{A}^{k}+a t t_{P}^{k}\right)} \quad\quad(11)$

  在实现注意加权后,得到最终的输出 $Z^{s}$ 和 $Z^{t}$:

    $Z^{s}=a t t_{A}^{s} Z_{A}^{s}+a t t_{P}^{s} Z_{P}^{s} \quad\quad(12)$
    $Z^{t}=a t t_{A}^{t} Z_{A}^{t}+a t t_{P}^{t} Z_{P}^{t} \quad\quad(13)$

3.4 跨域节点分类中的域自适应学习

  总体目标如下:

    $\mathcal{L}\left(Z^{s}, Y^{s}, Z^{t}\right)=\mathcal{L}_{S}\left(Z^{s}, Y^{s}\right)+\gamma_{1} \mathcal{L}_{D A}\left(Z^{s}, Z^{t}\right)+\gamma_{2} \mathcal{L}_{T}\left(Z^{t}\right)  \quad\quad(14)$

  源分类器损失:

    $\mathcal{L}_{S}\left(f_{s}\left(Z^{s}\right), Y^{s}\right)=-\frac{1}{N_{s}} \sum_{i=1}^{N_{s}} y_{i} \log \left(\hat{y}_{i}\right)    \quad\quad(15)$

  域分类器损失:

    $\mathcal{L}_{D A}=-\frac{1}{N^{s}+N^{t}} \sum_{i=1}^{N^{s}+N^{t}} m_{i} \log \left(\hat{m}_{i}\right)+\left(1-m_{i}\right) \log \left(1-\hat{m}_{i}\right)  \quad\quad(16)$

  目标分类器损失:

    $\mathcal{L}_{T}\left(f_{t}\left(Z^{t}\right)\right)=-\frac{1}{N^{t}} \sum_{i=1}^{N^{t}} \hat{y}_{i} \log \left(\hat{y}_{i}\right)  \quad\quad(17)$

3.5 算法

  

 

标签:Convolutional,Domain,right,frac,Unsupervised,学习,quad,节点,left
From: https://www.cnblogs.com/BlairGrowing/p/17702595.html

相关文章

  • A LARGE LANGUAGE MODEL EVALUATION BENCHMARK AND BASELINE FOR CHINESE PUBLIC SECU
    本文是LLM系列文章,针对《CPSDBENCH:ALARGELANGUAGEMODELEVALUATIONBENCHMARKANDBASELINEFORCHINESEPUBLICSECURITYDOMAIN》的翻译。CPSDBENCH:中国公共安全领域的大型语言模型评估基准和基线摘要1引言2相关工作3方法4结果与分析5结论摘要大......
  • Multi-View Graph Convolutional Network for Multimedia Recommendation
    目录概符号说明MGCNMotivationBehavior-GuidedPurifierMulti-ViewInformationEncoderBehavior-AwareFuserPredicitonOptimation代码YuP.,TanZ.,LuG.andBaoB.Multi-viewgraphconvolutionalnetworkformultimediarecommendation.MM,2023.概本文主要处理模......
  • 关于衍射光波导设计中的K阈(k-domain)分析的一些学习
     对于衍射光波导的设计来说,不能简单利用几何光的方法对光线的传播路径进行描述。因此可以基于K空间波矢的矢量运算来进行描述。 在阈值分析中,衍射光波导的光线传播遵循二个引导条件,分别为全内反射条件和引导模式条件。如图所示。             ......
  • Windows 系统中进行一些域管理操作 net group /domain 命令 参数
    Windows系统中进行一些域管理操作。以下是一些常见的用法和参数:列出所有域用户组:bashCopyCodenetgroup/domain查看特定用户组的成员:bashCopyCodenetgroup"GroupName"/domain添加用户到指定用户组:bashCopyCodenetgroup"GroupName"UserName/add/domain......
  • Learning Disentangled Graph Convolutional Networks Locally and Globally论文阅读
    LearningDisentangledGraphConvolutionalNetworksLocallyandGlobally论文阅读笔记Abstract存在的问题:​ 尽管现有的gcn取得了成功,但它们通常忽略了现实世界图中通常出现的纠缠潜在因素,这导致了无法解释的节点表示。更糟糕的是,虽然重点放在局部图信息上,但整个图的全局知......
  • 【图像拼接/视频拼接】论文精读:Eliminating Warping Shakes for Unsupervised Online
    第一次来请先看这篇文章:【图像拼接(ImageStitching)】关于【图像拼接论文精读】专栏的相关说明,包含专栏使用说明、创新思路分享等(不定期更新)图像拼接系列相关论文精读SeamCarvingforContent-AwareImageResizingAs-Rigid-As-PossibleShapeManipulationAdaptiveAs......
  • Be Your Own Teacher: Improve thePerformance of Convolutional Neural Networks via
    摘要本文中,提出了一种名为自蒸馏的通用训练框架,该框架通过缩小网络的规模而不是扩大网络的规模,而提高卷积神经网络的性能。传统的知识蒸馏是一种网络之间的知识转换方法,它迫使学生神经网络接近预先训练的教师神经网络的softmax层输出,与此不同,所提出的自蒸馏框架提取网络......
  • EvolveGCN Evolving Graph Convolutional Networks for Dynamic Graphs
    目录概符号说明EvolveGCN代码ParejaA.,DomeniconiG.,ChenJ.,MaT.,SuzumuraT.,KanezashiH.,KalerT.,SchardlT.B.andLeisersonC.E.EvolveGCN:Evolvinggraphconvolutionalnetworksfordynamicgraphs.AAAI,2019.概GCN用在动态图上的早期探索.符号......
  • SciTech-Mathmatics-FourierSeries: Time Domain and Frequency Domain
    TimeDomainandFrequencyDomainFrequencydomain:measuredbySpectrumAnalysiszerTellsushowproperties(amplitudes)changeoverfrequencies:TimeDomain:measuredbyOscilloscopeTellsushowproperties(suchasAmplitude(Power),Phase,andsoon)......
  • Multi-behavior Recommendation with Graph Convolutional Networks论文阅读笔记
    Abstract传统的推荐模型通常只是要一种类型的用户-项目交互,但是却有着严重的数据稀疏或者冷启动问题。使用多种类型的用户-项目交互的多行为推荐,如点击和收藏,可以作为一种有效的解决方案。早期队多行为推荐的努力未能捕捉到行为对目标行为的不同影响强度。它们还忽略了多行为数据......