网站首页
编程语言
数据库
系统相关
其他分享
编程问答
GCNet
2024-12-17
GCNet的简述
其中了解self-attention知道他的计算量是GlobalContextAttention计算量变少从变成NL:(a)首先resize成C×HW然后通过1×1的卷积生成q,k,v,然后q乘变成HW×HW,然后通过softmax进行归一化然后和v进行乘,再通过1×1的卷积,再和原图进行相加也就是特征融合由于不同位置的q对应热图