首页 > 其他分享 >【图神经网络论文整理】(六)—— Universal Graph Transformer Self-Attention Networks

【图神经网络论文整理】(六)—— Universal Graph Transformer Self-Attention Networks

时间:2023-01-29 11:40:54浏览次数:93  
标签:Transformer Graph Attention 学习 变体 UGformer GNN 节点


【图神经网络论文整理】(六)—— Universal Graph Transformer Self-Attention Networks_transformer


  • Dai Quoc Nguyen, Tu Dinh Nguyen, Dinh Phung
  • The ACM Web Conference 2022 (WWW '22)
  • Computer Vision and Pattern Recognition
  • ​论文地址​

本文介绍的论文是《Universal Graph Transformer Self-Attention Networks》。

该篇文章的主要贡献是将Transformer应用在GNN中用于学习图的表示,作者在此基础上提出了两种UGformer变体,实验结果表明第一个UGformer变体在归纳学习上取得了较好的准确率,而第二个变体在文本分类任务上获得较好的精度。


标签:Transformer,Graph,Attention,学习,变体,UGformer,GNN,节点
From: https://blog.51cto.com/u_15834745/6025573

相关文章