首页 > 其他分享 >Self-Supervised Depth——一个小小的尝试

Self-Supervised Depth——一个小小的尝试

时间:2023-11-29 19:31:46浏览次数:33  
标签:分割 卷积 Self Depth Supervised self

一.选择原因。 Self-Supervised Depth是一种用于图像分割的深度学习模型。它是基于Self-Supervised模型的改进,通过引入链接模块和下采样模块来提高分割性能。

Self-Supervised Depth的核心思想是在Self-Supervised的基础上引入链接模块和下采样模块。链接模块用于捕捉不同尺度的特征,它将不同层的特征图进行连接,从而增强了特征提取能力。下采样模块用于减小特征图的尺寸,同时保留更多的语义信息。这两个模块结合起来可以有效地提高分割性能。

他的训练过程包括两个阶段:首先,使用卷积神经网络对图像进行特征提取,然后使用反卷积操作将特征图恢复到原始图像大小,并进行像素级别的分类。在这个过程中,Self-Supervised Depth使用了多个链接模块和下采样模块,以提高特征提取和分割性能。

他也在各种图像分割任务中取得了显著的成果,包括医学影像分割、道路场景分割等。它具有较高的准确率和鲁棒性,并且能够处理不同尺度和复杂场景下的图像分割问题。因此,Self-Supervised Depth成为了图像分割领域的一个重要研究方向。

二.模型分析 下面是Self-Supervised Depth的模型结构 image.png粗体 Self-Supervised Depth使用在ImageNet数据集上预先训练的ResNet34作为编码器。ResNet34最初是为中分辨率图像大小为256×256的分类任务而设计的,但在这个挑战中,任务是从大小为1024×1024的高分辨率卫_星图像分割道路。考虑到道路的狭窄性、连通性、复杂性和跨度大,在保留详细信息的同时,增加网络中心部分特征点的接受域是很重要的。利用池化层可以成倍增加特征点的接收域,但可能会降低中心特征图的分辨率,降低空间信息。一些最先进的深度学习模型[21,25,26,16]表明,膨胀卷积层是池化层的理想选择。Self-Supervised Depth使用了一些膨胀卷积层,在中心部分跳跃连接。         膨胀卷积可以以级联方式堆叠。如果堆叠的膨胀卷积层的膨胀率分别为1、2、4、8、16,则每一层的接受域为3、7、15、31、63。编码器部分(RseNet34)有5个下采样层,如果一个大小为1024×1024的图像通过编码器部分,输出的feature map为大小为32×32。在这种情况下,Self-Supervised Depth在中心部分使用膨胀的卷积层,膨胀率为1,2,4,8,因此最后中间的层上的特征点将在第一个中心特征图上看到31×31个点,覆盖第一个中心特征图的主要部分。但是,Self-Supervised Depth利用了多分辨率的特性,Self-Supervised Depth的中心部分可以看作是如图2所示的并行模式。

三.模型训练 2.2 预训练的编码器         我本次项目的特色是采用了预训练的编码器: 迁移学习是一种有效的计算机视觉方法,特别是在训练图像数量有限的情况下。使用ImageNet预训练模型作为网络的编码器是语义分割领域广泛使用的一种方法。在DeepGlobe Road extraction Challenge中,我们发现迁移学习可以加速我们的网络收敛,使其在几乎不需要额外成本的情况下具有更好的性能。 核心代码

class SelfAttention(torch.nn.Module): def init(self, in_channels, out_channels): super().init() self.conv = torch.nn.Conv2d(in_channels, out_channels, 3, padding=1, bias=False) self.attention = torch.nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1, bias=False) with torch.no_grad(): self.attention.weight.copy_(torch.zeros_like(self.attention.weight))

def forward(self, x):
    features = self.conv(x)
    attention_mask = torch.sigmoid(self.attention(x))
    return features * attention_mask

四.模型测试  我在Cityscapes数据集上测试了将数据集表示为二值分割问题,其中道路标记为前景。 其他物体标记为背景。

测试效果如下: image.png

五.总结收获

在此次比赛中,我通过不断更新模型结构,调整数据集的处理方式,最后还通过使用Intel提供的模型训练平台和分析工具,得到了比较好的分割效果。非常感谢intel举办此次比赛,能够让我学到了很多东西。尤其是对于Intel架构的掌握。

标签:分割,卷积,Self,Depth,Supervised,self
From: https://blog.51cto.com/u_15070902/8619957

相关文章

  • lua self使用例子
    localfuncs={}functionfuncs:callMe()localtt=self.name--值为helloprint(tt)endf=funcs["callMe"]--调用方法1:f({name=“hello"})--调用方法2:localok,err=pcall(f,{name="hello"}) pcall为protected call的意思,......
  • 初中英语优秀范文100篇-010 I Am Proud of Myself-我为自己感到骄傲
    初中英语优秀范文100篇-010IAmProudofMyself-我为自己感到骄傲PDF格式公众号回复关键字:SHCZFW010记忆树1I'mapersonwhoisalwaysconfidentandreadytotryanythingnew.翻译我是一个总是充满自信并随时准备尝试任何新事物的人。简化记忆新事物句子结构......
  • 全新Self-RAG框架亮相,自适应检索增强助力超越ChatGPT与Llama2,提升事实性与引用准确性
    全新Self-RAG框架亮相,自适应检索增强助力超越ChatGPT与Llama2,提升事实性与引用准确性1.基本思想大型语言模型(LLMs)具有出色的能力,但由于完全依赖其内部的参数化知识,它们经常产生包含事实错误的回答,尤其在长尾知识中。为了解决这一问题,之前的研究人员提出了检索增强生成(RAG),它通......
  • 【略读论文|时序知识图谱补全】Hierarchical Self-Atention Embedding for Temporal K
    会议:WWW,时间:2023,学校:东北大学计算机与通信工程学院摘要:目前TKGC模型存在的问题:只考虑实体或关系的结构信息,而忽略了整个TKG的结构信息。此外,它们中的大多数通常将时间戳视为一般特征,不能利用时间戳的潜在时间序列信息。本文的方法:一种基于自注意机制和历时嵌入技术的分层自注意......
  • 什么是人工智能领域的 SFT - Supervised Finetuning
    在人工智能(AI)领域,SupervisedFinetuning是一个重要的概念。它涉及到在预训练模型的基础上,利用有标签的数据进行微调,以适应特定的任务或领域。这个过程可以被视为在更广泛的知识基础上进行特定任务的训练,从而在新任务上获得更好的性能。SupervisedFinetuning这个名词可以被分解......
  • [自问自答]如何瘦身已有仓库到只剩最近一条提交,像--depth=1那样
    问题:如何瘦身已有仓库到只剩最近一条提交,像--depth=1那样目的:降低磁盘占用回答:gitgc--prune=now清理未引用的对象,默认只保留一条提交进一步:拉取并还原为完整仓库的操作:gitgc--prune=now......
  • Decoupling the Depth and Scope of Graph Neural Networks
    目录概符号说明Shadow-GNN代码ZengH.,ZhangM.,XiaY.,SrivastavaA.,MalevichA.,KannanR.,PrasannaV.,JinL.andChenR.Decouplingthedepthandscopeofgraphneuralnetworks.NIPS,2021.概为每个结点抽取一子图作为结点的代表,然后推理过程仅限定在子......
  • 题解 P7972【[KSN2021] Self Permutation】
    怎么其他两篇题解都是\(O(n\logn)\)的,来发一个\(O(n)\)做法,当考前复习了。对原序列建出小根笛卡尔树,节点编号与原序列中的下标相同。记\(T_u\)表示以\(u\)为根的子树,\(lc(u),rc(u)\)分别表示\(u\)的左儿子和右儿子。设\(f_u\)表示删除若干\(T_u\)中的点(可以不删......
  • 【刷题笔记】111. Minimum Depth of Binary Tree
    题目Givenabinarytree,finditsminimumdepth.Theminimumdepthisthenumberofnodesalongtheshortestpathfromtherootnodedowntothenearestleafnode.Note: Aleafisanodewithnochildren.Example:Givenbinarytree [3,9,20,null,null,15,7],......
  • 基于时间频率一致性对时间序列进行自监督对比预训练《Self-Supervised Contrastive Pr
    2023年11月10日,今天看一篇论文,现在17:34,说实话,想摆烂休息,不想看,可还是要看,拴Q。论文:Self-SupervisedContrastivePre-TrainingforTimeSeriesviaTime-FrequencyConsistency或者是:Self-SupervisedContrastivePre-TrainingforTimeSeriesviaTime-FrequencyConsistenc......