首页 > 其他分享 >【Attention】用于医学图像分割的双重交叉注意力

【Attention】用于医学图像分割的双重交叉注意力

时间:2024-11-20 15:44:40浏览次数:3  
标签:编码器 交叉 特征 Attention 连接 解码器 跳转 Net 注意力

Dual Cross-Attention for medical image segmentation

        提出了双交叉注意(Dual Cross-Attention,DCA),这是一种简单而有效的注意模块,可增强基于 U-Net 架构的医学图像分割中的跳接连接。基于 U-Net 架构的简单跳转连接方案难以捕捉多尺度上下文,导致编码器和解码器特征之间存在语义差距。这种语义差距会导致低级和高级特征之间出现冗余,最终限制了分割性能。在本文中,通过依次捕捉多尺度编码器特征中的信道和空间依赖关系来解决这一问题,这些特征能自适应地结合不同尺度的低层次和高层次特征,从而有效弥合语义鸿沟。首先,信道交叉关注(CCA)通过利用多尺度编码器特征的信道标记之间的交叉关注来提取全局信道依赖关系。然后,空间交叉注意(SCA)模块执行交叉注意,捕捉跨空间标记的空间依赖性。最后,这些细粒度编码器特征被上采样并连接到其相应的解码器部分,形成跳转连接方案。我们提出的 DCA 模块可以集成到任何具有跳接功能的编码器-解码器架构中,如 U-Net 及其变体,以及基于视觉转换器的高级架构。使用六个医学图像分割数据集的实验结果表明, DCA 模块只需增加少量参数,就能持续提高整体分割性能。

Introduction:

        虽然 U-Net 及其变体在各种医学图像分割数据集上取得了良好的性能,但仍然存在性能限制。第一个限制来自卷积的局部性,它无法捕捉不同特征之间的长程依赖关系。这主要是由卷积操作的性质造成的,即使用局部核逐渐获得局部感受野,而不是一次性提取全局特征交互(Hu 等人,2019 年)。第二个局限是在简单地连接编码器和解码器特征时,跳过连接所造成的语义差距。最近,Wang 等人(2022 年)的研究表明,U-Net 提出的普通跳转连接方案不足以模拟全局多尺度语境,事实上也是如此、在将低级和高级编码器特征连接到相应的解码器部分之前,先对其进行有效融合。如前所述,一些 U-Net 变体通过加入一系列卷积层或残差层来进一步融合低级和高级编码器和解码器特征,以便将它们与解码器对应部分充分连接起来,从而解决了这种语义鸿沟问题。其中一种方法是 U-Net++(Zhou 等人,2018 年),它通过一系列嵌套的密集跳转路径将编码器特征与解码器特征连接起来。另一种方法是 MultiResUnet(Ibtehaz 和 Rahman,2020 年),它通过在编码器特征上应用一系列具有残差连接的卷积层来引入残差路径,并将其传

标签:编码器,交叉,特征,Attention,连接,解码器,跳转,Net,注意力
From: https://blog.csdn.net/qq_43583311/article/details/143914006

相关文章

  • 【Attention】DA-TransUNet:将空间和通道双重注意力与Trans U-net 集成
    DA-TransUNet:integratingspatialandchanneldualattentionwithtransformerU-netformedicalimagesegmentation        准确的医学图像分割对于疾病量化和治疗评估至关重要。传统的U-Net架构及其变压器集成变体在自动分割任务中表现出色。现有模型在参数......
  • 李沐大佬-动手学深度学习笔记-注意力机制
    注意力机制(显示考虑随意线索)随意线索:查询query每个输入是一个value和不随意线索key的对通过注意力池化层偏向性选择某些输入历史演变:非参注意力池化层:60年代提的Nadaraya-Watson核回归,类似于knn如果使用高斯核,fx函数类似于softmax和y(y是一个value)的乘积参数化注意力机制:......
  • 【淘汰9成NLP工程师的常识题】多头注意力相对于多头注意力有什么优势?
    【淘汰9成NLP工程师的常识题】多头注意力相对于多头注意力有什么优势?重要性:★★★......
  • yolov11|多尺度扩张注意力|MSDA
    论文:arxiv.org/pdf/2302.01791importtorchimporttorch.nnasnnfromfunctoolsimportpartialfromtimm.models.layersimportDropPath,to_2tuple,trunc_normal_fromtimm.models.registryimportregister_modelfromtimm.models.vision_transformerimport_cfg......
  • 问卷结果出炉!医工交叉领域的研究者们普遍关注的问题是……|个人观点·24-11-15
    小罗碎碎念昨天发了一份问卷,征集了一下群友们目前关于科研方面的需求。(此表单长期有效,我会定期更新在知识星球的专栏中)对昨天问卷结果做了一个简单的统计,先展示一下大家普遍关注的问题。需要工科分析数据排在最前面我是不意外的,但是没想到,排在第二的居然是寻求联合培养......
  • 浅析注意力(Attention)机制
    Attention顾名思义,说明这项机制是模仿人脑的注意力机制建立的,我们不妨从这个角度展开理解2.1人脑的注意力机制人脑的注意力机制,就是将有限的注意力资源分配到当前关注的任务,或关注的目标之上,暂时忽略其他不重要的因素,这是人类利用有限的注意力资源从大量信息中快速筛选出高价值......
  • mobileViT-V2-线性自注意力计算
    paperclassLinearSelfAttention(nn.Module):"""Thislayerappliesaself-attentionwithlinearcomplexity,asdescribedin`https://arxiv.org/abs/2206.02680`Thislayercanbeusedforself-aswellascross-attention.Args......
  • MobileViT-v1-所有patch内相对位置相同的token之间计算自注意力
    paperdefmy_self(x:torch.Tensor):'''通过这段代码可以把每张图片图片中相对位置相同的若干个tokens放到最后两个维度'''#[B,C,H,W]->[B,C,n_h,p_h,n_w,p_w]#n_h是高度方向上可以分多少个patchp_hpatch的高度n_w宽度方向上可以......
  • 注意力机制(Attention Mechanism)是什么?详细解度
    ###注意力机制(AttentionMechanism)注意力机制(AttentionMechanism)是深度学习中一种关键的思想,最早在自然语言处理(NLP)任务中被提出,用于提高模型处理长序列和复杂数据的能力。它的核心思想是让模型能够根据输入数据的不同部分动态地分配注意力权重,从而更好地捕捉重要信息。---......
  • 浅学AI笔记03:一个Transformer自注意力机制的故事
    ChatGPT、百度文心一言等同类的大模型,都使用了Transformer架构,Transformer最大的特点是其有一个“自注意力机制”,搬个定义说的是:允许模型在处理每个输入元素时,能够考虑其与序列中所有其他元素之间的相关性,从而动态调整其权重。白话来说,就是模型要先理解输入句子的含义,才能......