首页 > 其他分享 >【图神经网络论文整理】(五)—— Self-Attention Graph Pooling:SAGPool

【图神经网络论文整理】(五)—— Self-Attention Graph Pooling:SAGPool

时间:2023-01-29 11:40:46浏览次数:66  
标签:架构 特征 Graph Self Attention 注意力 池化 节点 SAGPool


【图神经网络论文整理】(五)—— Self-Attention Graph Pooling:SAGPool_卷积


  • ICML 2019
  • Junhyun Lee, Inyeop Lee, Jaewoo Kang
  • Machine Learning (cs.LG); Machine Learning (stat.ML)
  • ​论文地址​

本文介绍的论文是《Self-Attention Graph Pooling》。

该篇文章提出了一种新的图池化方式,该池化方式是基于自注意力机制来计算得分,同时考虑了节点特征和图的拓扑结构,能够实现端到端方式学习图的层次表示。


标签:架构,特征,Graph,Self,Attention,注意力,池化,节点,SAGPool
From: https://blog.51cto.com/u_15834745/6025575

相关文章