首页 > 其他分享 >Skeleton Recall Loss 分割领域的新突破:极大的减少了资源消耗,还能提高性能

Skeleton Recall Loss 分割领域的新突破:极大的减少了资源消耗,还能提高性能

时间:2024-08-11 10:48:57浏览次数:20  
标签:Loss 分割 Skeleton Recall 损失 领域

精确分割在当今众多领域都是一项关键需求比如说自动驾驶汽车的训练、医学图像识别系统,以及通过卫星图像进行监测。在许多其他领域,当感兴趣的对象微小但至关重要时,例如研究血管流动、手术规划、检测建筑结构中的裂缝或优化路线规划,需要更高的精度。此前已经做了大量工作来解决这种具有挑战性的分割问题。

此前已经做了大量工作来解决这种具有挑战性的分割问题。深度学习和神经网络的进步,例如[U-Net]及其变体,极大地提高了分割精度。“那还有什么问题呢?”所有这些方法在分割微小、细长和曲线结构方面表现不佳。根据研究,这可能是损失函数的一个问题

上面是来自不同数据库的包含示例,(a)卫星图像中的道路,(b)视网膜血管,(c)混凝土裂缝,(d)面部CT扫描的下牙槽管,(e)[圆]动脉

深度学习网络使用了最先进的损失算法,比如centerline-Dice或cl- dice,但是他们的计算成本非常大,在大容量和多类分割问题,即使在现代gpu,也表现得不好。

这篇论文则介绍了一个新的损失:Skeleton Recall Loss,我把它翻译成骨架召回损失.这个损失目前获得了最先进的整体性能,并且通过取代密集的计算他的计算开销减少超过90% !

为了说明这篇论文的损失函数,我们先介绍一下目前用于分割的损失函数

 

https://avoid.overfit.cn/post/ddf618e45066433f9aca7447773bc61f

标签:Loss,分割,Skeleton,Recall,损失,领域
From: https://www.cnblogs.com/deephub/p/18353168

相关文章

  • 人工智能深度学习系列—深入探索IoU Loss及其变种:目标检测与分割的精度优化利器
    人工智能深度学习系列—深度解析:交叉熵损失(Cross-EntropyLoss)在分类问题中的应用人工智能深度学习系列—深入解析:均方误差损失(MSELoss)在深度学习中的应用与实践人工智能深度学习系列—深入探索KL散度:度量概率分布差异的关键工具人工智能深度学习系列—探索余弦相似度损......
  • 神经网络中的评价指标:混淆矩阵、Acc, Precision, Recall, F1分数、mAP@0.5与mAP@0.5:0
    混淆矩阵(ConfusionMatrix)是一个常用的分类模型性能评价工具,用于可视化分类算法的性能表现。混淆矩阵以矩阵的形式展示了分类模型的预测结果与真实结果之间的各种组合情况。混淆矩阵通常是一个2x2的矩阵,如果是二分类问题的话。矩阵的行代表真实的类别,列代表预测的类别。矩......
  • 人工智能深度学习系列—深度学习中的边界框回归新贵:GHM(Generalized Histogram Loss)全
    文章目录1.背景介绍2.Loss计算公式3.使用场景4.代码样例5.总结1.背景介绍目标检测作为计算机视觉领域的核心技术之一,其精确度的提升一直是研究者们追求的目标。边界框回归作为目标检测中的关键步骤,其性能直接影响到检测的准确性。本文将详细介绍一种新型的边界......
  • 人工智能深度学习系列—深度学习损失函数中的Focal Loss解析
    文章目录1.背景介绍2.Loss计算公式3.使用场景4.代码样例5.总结1.背景介绍在深度学习的目标检测任务中,类别不平衡问题一直是提升模型性能的拦路虎。FocalLoss损失函数应运而生,专为解决这一难题设计。本文将深入探讨FocalLoss的背景、计算方法、应用场景以及如......
  • 深入浅出WebRTC—LossBasedBweV2
    WebRTC同时使用基于丢包的带宽估计算法和基于延迟的带宽估计算法那,能够实现更加全面和准确的带宽评估和控制。基于丢包的带宽估计算法主要依据网络中的丢包情况来动态调整带宽估计,以适应网络状况的变化。本文主要讲解最新LossBasedBweV2的实现。1.静态结构LossBasedBweV2......
  • RIME:用交叉熵 loss 大小分辨 preference 是否正确 + 内在奖励预训练 reward model
    文章题目:RIME:RobustPreference-basedReinforcementLearningwithNoisyPreferences,ICML2024Spotlight,368(?)pdf:https://arxiv.org/pdf/2402.17257html:https://arxiv.org/html/2402.17257v3或https://ar5iv.labs.arxiv.org/html/2402.17257v3GitHub:https://g......
  • 熵,交叉熵,Focalloss
    https://zhuanlan.zhihu.com/p/149186719香农首次提出熵的定义,目的寻找一种高效/无损地编码信息的方法:以编码后数据的平均长度来衡量高效性,平均长度越小越高效;同时还需满足“无损”的条件,即编码以后不能呢个有原始信息的丢失。所以熵的定义是:无损编码事件信息的最小平均编码长度......
  • Binary Cross Entropy(BCE) loss function
    二分分类器模型中用到的损失函数原型。该函数中,预测值p(yi),是经过sigmod激活函数计算之后的预测值。log(p(yi)),求对数,p(yi)约接近1,值越接近0.后半部分亦然,当期望值yi为0,p(yi)越接近1,则1-p(yi)约接近0.在pytorch中,对应的函数为torch.nn.BCELossWithLogits和torch.nn......
  • PyTorch LSTM 模型上的 CrossEntropyLoss,每个时间步一分类
    我正在尝试创建一个LSTM模型来检测时间序列数据中的异常情况。它需要5个输入并产生1个布尔输出(如果检测到异常则为True/False)。异常模式通常连续3-4个时间步长。与大多数LSTM示例不同,它们预测未来数据或对整个数据序列进行分类,我尝试在每个时间步输出True/False检......
  • 常用损失函数 LossFunction
    文章结构损失函数在神经网络中的位置常用的损失函数(结构:解释,公式,缺点,适用于,pytorch函数)MAE/L1LossMSE/L2LossHuberLoss对信息量、熵的解释relativeentropy相对熵/Kullback-LeiblerKLLoss CrossEntropyLoss交叉熵(包含对softmax层的解释)相对熵、熵、和交叉......