首页 > 其他分享 >Structure-Aware Transformer for Graph Representation Learning

Structure-Aware Transformer for Graph Representation Learning

时间:2024-06-17 11:22:16浏览次数:23  
标签:Transformer kappa Graph sum Aware graph exp text

目录

Chen D., O'Bray L. and Borgwardt K. Structure-aware transformer for graph representation learning. ICML, 2022.

Graph + Transformer + 修改 attention 机制.

SAT

  • Transformer 最重要的就是 attention 机制:

    \[\text{Attn}(x_v) = \sum_{ v \in V } \frac{ \kappa_{\text{exp}} (x_v, x_u) }{ \sum_{w \in V} \kappa_{\text{exp}} (x_v, x_w) } f(x_u), \: \forall v \in V, \]

    其中

    \[\kappa_{\text{exp}}(x, x') := \exp\big( \langle \mathbf{W}_Q x, \mathbf{W}_K x' \rangle / \sqrt{d_{out}} \big). \]

  • 作者希望让 attention 的计算是 structure-aware 的:

    \[\text{SA-attn}(v) := \sum_{v \in V} \frac{ \kappa_{\text{graph}} (S_{G} (v), S_{G} (u)) }{ \sum_{w \in V} \kappa_{\text{graph}} ( S_G(v), S_G(w) ) } f(x_u) \]

    这里 \(S_G(u)\) 表示以 \(u\) 为中心的 \(k\)-hop 子图, \(\kappa_{\text{graph}}\) 是衡量两个图相似度的 kernel, 可以通过过往的图实现.

  • 最后, 在完成 attention 后, skip connection:

    \[x_v' = x_v + 1 / \sqrt{d_v} \text{SA-attn}(v). \]

    这里 \(d_v\) 是结点 \(v\) 的度数, 为了避免度数高的结点占据主导.

代码

[official-code]

标签:Transformer,kappa,Graph,sum,Aware,graph,exp,text
From: https://www.cnblogs.com/MTandHJ/p/18252007

相关文章

  • Illustrated Transformer笔记
    AttentionIsAllYouNeed编码器端Self-attention层用处:将对其他相关单词的“理解”融入我们当前正在处理的单词的方法,类似于RNN通过保持隐藏状态让RNN将其已处理的先前单词/向量的表示与当前正在处理的单词/向量结合起来将单词输入转化为Embedding之后,将Embedding和QKV......
  • 回归预测 | Matlab实现Transformer多输入单输出回归预测
    回归预测|Matlab实现Transformer多输入单输出回归预测目录回归预测|Matlab实现Transformer多输入单输出回归预测效果一览基本介绍程序设计参考资料效果一览基本介绍1.Matlab实现Transformer多变量回归预测;2.运行环境为Matlab2023b;3.输入多个特征,输......
  • 用人话解释 Transformer 的执行过程
     1.向量化。文本→Tokenization(分词)→Embeddings(向量化)→模型 2.模型需要完整上下文且知道token的相对位置及关系。 3.关注token的score。 4.用输入文本的向量,去查找,得到值向量。 5.得到上下文感知的向量。 在线拾取图片颜色图片......
  • 【基于Transformer的多输出数据回归预测】附核心代码讲解及核心源码
    文章目录前言Transformer模型结构概览代码模块解释模块功能详解总结前言  在深度学习领域,Transformer模型以其独特的机制和优越的性能在自然语言处理(NLP)任务中占据了主导地位。这里我们提供了一个简化版的Transformer模型的实现,让你在一分钟内快速理解并上手Tra......
  • Akshay解释Transformer的六张图
    LightningAI的首席数据科学家Akshay(https://x.com/akshay_pachaar)做了六张图解释Transformer,相当清晰明了。一、Embeddings(词嵌入)词嵌入是使用一组数字对每个token(大约一个词)进行有意义的表示。这种嵌入是我们作为语言模型的输入提供的,即下面过程:原始文本→Tokenization......
  • 【高光谱遥感分类论文解读1】Hyperspectral Image Classification Using Group-Aware
    目录一、论文基本信息二、研究背景三、研究方法1.GAHT总体框架2.GPE模块3.Transformer编码模块四、实验本文是博主对原论文的解读,仅代表博主个人观点,欢迎在评论区和我交流~其中,本博文中的图片和公式均来源于原论文,如需进一步了解,请查看原论文。一、论文基本信息......
  • 妙用OSGraph:发掘GitHub知识图谱上的开源故事
    1.何为OSGraph?OSGraph(OpenSourceGraph)是一个开源图谱关系洞察工具,基于GitHub开源数据全域图谱,实现开发者行为、项目社区生态的分析洞察。可以为开发者、项目Owner、开源布道师、社区运营等提供简洁直观的开源数据视图,帮助你和你的项目制作专属的开源名片、寻求契合的开发......
  • 《鞋匠的AI之旅》- 5. Transformer【上】
    5.Transformer鞋匠回顾了这一路走来形成的成果:人工神经网络提供了一种模拟现实世界或者学习现实世界处理问题模式的一种方法;人类通过对这个世界的观察,体验到了支配这个世界运行的自然规律,并把这些规律及自身体会表达出来,最后通过语言符号物化下来,这些符号堆积在一起就是人类......
  • GraphQL的优势和开发模式
    当下,前后端分离是互联网应用程序开发的主流做法,如何设计合理且高效的前后端交互WebAPI是前端和后台开发人员日常开发工作的一大难点和痛点。回想我们在日常开发过程中经常会碰到的几个场景:后台开发人员调整了返回值的类型和数量而没有通知到前端后台开发人员修改了某一个字段......
  • 机器学习课程设计,人工智能课程设计,深度学习课程设计--基于Transformer的家庭暴力情绪
    文章目录摘要第一章背景与意义1.1背景1.1.1家庭暴力发展现状1.1.2家庭暴力的危害1.2意义与目的第二章关键技术与方法2.1文本模态特征提取法2.2视频模态特征提取法2.3音频模态特征提取法2.4注意力机制(Attention)2.5多头注意力机制(Multi-Attention)2.6Transfor......