首页 > 其他分享 >How Attentive are Graph Attention Networks?

How Attentive are Graph Attention Networks?

时间:2023-11-19 11:23:17浏览次数:39  
标签:bm attention Wh How text mathcal alpha Attentive Networks

目录

Brody S., Alon U. and Yahav E. How attentive are graph attention networks? ICLR, 2022.

作者发现了 GAT 的 attention 并不能够抓住边的重要性, 于是提出了 GATv2.

符号说明

  • \(\mathcal{V} = \{1, \ldots, n\}\), node set;
  • \(\mathcal{E} \subset \mathcal{V} \times \mathcal{V}\), edge set;
  • \(\mathcal{G} = (\mathcal{V}, \mathcal{E})\), graph;
  • \(\mathcal{N}_i = \{j \in \mathcal{V}| (j, i) \in \mathcal{E}\}\);

GATv2

  • GAT 的流程如下 (一层):

    • 计算边的关系:

      \[\tag{2} e(\bm{h}_i, \bm{h}_j) = \text{LeakyReLU}( \bm{a}^T \cdot [\bm{Wh}_i \| \bm{Wh}_j]), \]

      其中 \(\bm{a} \in \mathbb{R}^{2d'}, \bm{W} \in \mathbb{R}^{d' \times d}\).

    • 计算边上的权重 (attention):

      \[\alpha_{ij} = \text{softmax}_j (e(\bm{h}_i, \bm{h}_j)) = \frac{ \exp(e(\bm{h}_i, \bm{h}_j)) }{ \sum_{j' \in \mathcal{N}_i \exp((e(\bm{h}_i, \bm{h}_{j'})))} }. \]

    • 更新 (重加权):

      \[\bm{h}_i' = \sigma(\sum_{j \in \mathcal{N}_i} \alpha_{ij} \cdot \bm{W} \bm{h}_j). \]

  • GAT 的主要问题出现在 (2), 其实我们可以把 \(\bm{a} = [\bm{a}_1 \|\bm{a}_2], \: \bm{a}_1, \bm{a}_2 \in \mathbb{R}^{d'}\), 于是我们有

    \[e(\bm{h}_i, \bm{h}_j) = \text{LeakyReLU}(\bm{a}_1^T \bm{Wh}_i + \bm{a}_2^T \bm{Wh}_j]), \]

    由于 LeakyReLU, Softmax 的单调性, \(\alpha_{ij}\) 的相对大小实际上取决于:

    \[\bm{\alpha}_2^T \bm{Wh}_j, \]

    这也就是意味着, 假设 \(v\) 使得:

    \[\bm{\alpha}_2^T \bm{Wh}_v = \arg\max_j \bm{\alpha}_2^T \bm{Wh}_j, \]

    则对于任意的 \(i\),

    \[\alpha_{iv} = \arg \max_j \alpha_{ij}. \]

    所以此时 attention 并不是一个和 \(i\) 紧密相关的指标.

  • 所以本文的将 (2) 改进为:

    \[e(\bm{h}_i, \bm{h}_j) = \bm{a}^T \text{LeakyReLU}(\bm{W} \cdot [\bm{h}_i \| \bm{h}_j]). \]

    这里 \(\bm{W} = [\bm{W}_l \| \bm{W}_r] \in \mathbb{R}^{d' \times 2d}\), \(\bm{W}_l, \bm{W}_r\) 可以共享参数或者独立.

  • Q: 为什么不采用普通的 attention 机制呢?

    \[e(\bm{h}_i, \bm{h}_j) = \text{LeakyReLU}((\bm{W}_q \bm{h}_i)^T \bm{W}_k \bm{h}_j]). \]

代码

[official]

[official-annotated]

标签:bm,attention,Wh,How,text,mathcal,alpha,Attentive,Networks
From: https://www.cnblogs.com/MTandHJ/p/17841753.html

相关文章

  • Fully-Convolutional Siamese Networks for Object Tracking
    论文代码......
  • Decoupling the Depth and Scope of Graph Neural Networks
    目录概符号说明Shadow-GNN代码ZengH.,ZhangM.,XiaY.,SrivastavaA.,MalevichA.,KannanR.,PrasannaV.,JinL.andChenR.Decouplingthedepthandscopeofgraphneuralnetworks.NIPS,2021.概为每个结点抽取一子图作为结点的代表,然后推理过程仅限定在子......
  • How To Delete Reservations Using Standard API INV_RESERVATION_PUB.Delete_Reserva
    SolutionSummary:ThereservationAPIINV_RESERVATION_PUB.Delete_Reservationwilldeletereservationsacceptingthereservationidandoptionallyserialnumberstolocateandremovereservations.Careshouldbetakentoensurerelatedobjectslikesaleso......
  • How to use SUM and DINSTINCT with GreenDao?
    HowtouseSUMandDINSTINCTwithGreenDaoquerybuilder?AskQuestionAsked 7yearsagoModified 6years,7monthsagoViewed 1ktimes Partof MobileDevelopment Collective Reportthisad2Iwanttogetthesumoftotalrowsinac......
  • CTFshow Reverse 36D杯 BBBigEqSet wp
    用ida打开程序,一点点看汇编,发现似乎是机器生成的,先是输入0x80长的flag,然后有0x80段运算,运算的内容是每一个字符乘一个系数相加后与一个数比较。查看代码.text:0000000000001175pushrbp.text:0000000000001176movrbp,rsp.text:00......
  • [938] How to operate with shapefiles using Geopandas
    GeopandasisaPythonlibrarythatmakesworkingwithgeospatialdataeasierbyextendingthedatamanipulationcapabilitiesofpandastospatialdata.Here'sabriefoverviewofhowtooperatewithshapefilesusingGeopandas:Installation:Makesure......
  • ctfshow——(misc入门)
    m2:将文件压缩后缀修改为.png,再打开即可。m3:将文件用simpleBPG打开即可。m4:将六个文件后缀分别改为对应格式,再打开最后一个文件即可。m5:将文件压缩在010打开,查找ctf即可得到flag。CRYPTO:c1:直接倒序即可的flag。c2:将文件粘贴复制在流览器控制台,再按回车键即可得到......
  • ctfshow——misc入门(21-40)
    21.提示:flag在序号里,老规矩查找属性,发现了序号但是直接填进去又不对,然后就知道进制转化就行了22.使用:MagicEXIF 打开发现藏在图片下面23.使用虚拟机工具 exiftool ,打开发现四段时间戳,再使用时间戳在线转化工具打开,最后再转化为十六进制才是正确的flag41. 用010编辑......
  • CTF show——misc入门(1-15)
    misc1一点开即得flagmisc2一点开发现是PNG格式,所以将文件格式后缀改为png,便可得到flag。misc3直接用Honeyview打开即可的flagmisc4下载好文件将文件改为png.格式同上题一样,用Honeyview打开,连起来即可得flagmisc5一打开显示的是noflag然后使用010Editor......
  • SuperGlue: Learning Feature Matching with Graph Neural Networks论文笔记
    SuperGlue:LearningFeatureMatchingwithGraphNeuralNetworks源码:github.com/magicleap/SuperGluePretrainedNetwork背景:主要解决图像中点之间的对应关系。主要方法:上图为该方法的主要框架。模型大致分为两个部分:注意图神经网络和最优匹配层。其中第i个局部特征由di......