• 2024-12-17GCNet的简述
    其中了解self-attention知道他的计算量是GlobalContextAttention计算量变少从变成NL:(a)首先resize成C×HW然后通过1×1的卷积生成q,k,v,然后q乘变成HW×HW,然后通过softmax进行归一化然后和v进行乘,再通过1×1的卷积,再和原图进行相加也就是特征融合由于不同位置的q对应热图