首页 > 其他分享 >论文阅读 Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense Object Dete

论文阅读 Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense Object Dete

时间:2023-10-18 13:44:42浏览次数:38  
标签:Loss Dense classification localization Object bounding quality Focal

原始题目:Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense Object Detection
中文翻译:Generalized Focal Loss:学习用于密集目标检测的 Qualified and Distributed Bounding Boxes
发表时间:2020年6月8日
平台:arxiv
来源: 南京理工-李翔
文章链接:https://arxiv.org/abs/2006.04388
开源代码:https://github.com/implus/GFocal

摘要

  • One-stage detector 基本上将目标检测表述为 dense classification and localization(bounding box regression)。
  • The classification 通常采用 Focal Loss来优化,the box location 通常采用 Dirac delta distribution 来学习。
  • one-stage detectors 最近的一个趋势是 引入 一个单独的预测分支 来估计定位的质量,其中预测的质量有利于分类,从而提高检测性能。
  • 本文探讨了上述三个基本 elements 的表示:quality estimation, classification and localization。
  • 在现有的实践中发现了两个问题:
    • (1) 训练和推理之间的 the quality estimation 和分类 的使用不一致(即分开训练,但在测试中组合使用);
    • (2) 在复杂场景中存在歧义性和不确定性时,用于定位的 Dirac delta分布 不灵活,这是常见的情况。

为了解决这些问题,我们为这些 elements 设计了新的表示形式。

  • 具体来说,我们将 the quality estimation 合并到 the class prediction vector 中,形成 localization quality and classification 的联合表示,并使用一个向量来表示 box locations 的任意分布。
  • 改进后的表示消除了不一致的风险,准确地描述了真实数据中的灵活分布,但包含连续的标签,这超出了 Focal Loss 的 scope。

然后,我们提出 广义焦点损失( Generalized Focal Loss (GFL)),将 Focal Loss 损失从离散形式推广到连续形式,以成功优化。

在COCO测试开发中,GFL 使用 ResNet-101 backbone 实现了45.0%的 AP,超过了最先进的 SAPD(43.5%)和ATSS(43.6%),在相同的 backbone 和训练设置下,具有更高或相当的推理速度。值得注意的是,我们最好的模型可以在单个 2080Ti GPU上以 10 FPS 实现48.2%的 a single-model single-scale AP。

1. 引言

近年来,dense detectors 逐渐引领了目标检测的潮流,而对 bounding boxes and their localization quality estimation 表示的关注也带来了令人鼓舞的进步。

具体来说, bounding box representation 被建模为一个简单的 Dirac delta distribution[10,18,32,26,31],这在过去的几年里被广泛使用。

正如在FCOS[26]中宣传的那样,当在推理过程中将 the quality estimation 与 classification confidence 相结合(通常 multiplied) 作为 Non-Maximum Suppression (NMS) 排序过程的最终分数[12,11,26,29,35]时,预测 an additional localization quality (例如 IoU score [29] or centerness score [26] )会带来检测精度的一致提高。尽管他们取得了成功,但我们在现有实践中观察到以下问题:

Inconsistent usage of localization quality estimation and classification score between training
and inference:

  • (1)在最近的 dense detectors 中,the localization quality estimation and classification score 通常是独立训练的,但在推理过程中被综合利用(例如 multiplication)26,29;
  • (2) the localization quality estimation 的监督目前只分配给正样本[12,11,26,29,35],这是不可靠的,因为负样本可能有机会获得不受控制的更高质量的预测(图2(a))。

这两个因素会导致训练和测试之间的差距,并可能降低检测性能,例如,在 NMS 期间,negative instances with randomly high-quality scores 可能排在 positive examples with lower quality prediction 之前。

图2: 具有 IoU-branch 的当前 dense detector 的不可靠 IoU 预测。(a):展示了一些具有极高预测质量分数的 background patches(a和B)(e.g., IoU score > 0.9),基于 图1(a)中优化的 IoU-branch模型。(b)中的散点图表示随机抽样的实例及其预测分数,其中蓝点清楚地说明了单独表示的 predicted classification scores 和 predicted IoU scores 之间的弱相关性。红圈中的部分包含许多可能的 negatives with large localization quality predictions,这些因素可能排在 true positives 之前,从而损害性能。相反,我们的联合表示(绿色点)迫使它们相等,从而避免了这种风险。

Inflexible representation of bounding boxes:

广泛使用的 bounding box representation 可以看作是 the target box coordinates 的 Dirac delta distribution [7,23,8,1,18,26,13,31]。然而,它没有考虑到数据集中的模糊性和不确定性(见 图3 中图像边界不明确)。尽管最近的一些工作[10,4]将 boxes 作为高斯分布进行建模,但这种方法过于简单,无法捕捉 the locations of bounding boxes 的真实分布。实际上,真实的分布可以是更加任意和灵活的[10],而不需要像高斯函数一样对称。

为解决上述问题,本文为 the bounding boxes and their localization quality 设计了新的表示。For localization quality representation,本文建议将其与 the classification score 合并为一个单一和统一的表示: a classification vector,其中 它的 在 the ground-truth category index 的值 指的是 它的 相应的 localization quality(通常是本文中 the predicted box and the corresponding ground-truth box 之间的 IoU score )。通过这种方式,将 classification score and IoU score 统一为 a joint and single variable (记为 “classificationIoU joint representation”),可以以 端到端的方式进行训练,同时在推理过程中直接利用(图1(b))。因此,它消除了 训练-测试的不一致性(图1(b)),并使 localization quality and classification 之间具有最强的相关性(图2 (b))。此外,the negatives 将被监督为 0 quality scores,因此整体 quality predictions 变得更加机密和可靠。这对于 dense object detectors 尤其有益,因为它们对整个图像中平均地(regularly)采样的所有候选对象进行排名。For bounding box representation, 本文建议通过直接学习其连续空间上的离散概率分布来表示 box locations 的任意分布(本文称为"一般分布"),而不引入任何其他更强的先验(如高斯[10,4])。因此,我们可以获得更可靠和准确的 bounding box estimations,同时知道它们的各种潜在分布(见 图3 和补充材料中的预测分布)。

改进的表示形式对优化提出了挑战。传统上,对于密集检测器,分类分支是用 Focal Loss 18优化的。FL 可以通过重塑 the standard cross entropy loss 来成功地处理 class imbalance problem。然而,对于所提出的 classification-IoU joint representation ,除了仍然存在的不平衡风险外,还面临着 continuous IoU label (0∼1) 作为监督的新问题,因为原始 FL 目前只支持离散的 {1,0} 类别标签。通过将 FL 从 {1,0}离散版本 扩展到其连续变体,称为广义 Focal Loss( Generalized Focal Loss (GFL)),成功地解决了这个问题。与 FL 不同的是,GFL 考虑的是一种更一般的情况,即全局最优解能够指向任意连续值,而不是离散值。更具体地说,本文中,GFL 可以特化为 Quality Focal Loss (QFL) and Distribution Focal Loss (DFL),以分别优化改进的两种表示: QFL 专注于困难样本的稀疏集,同时产生它们对相应类别的 continuous 0∼1 quality estimations ; DFL使网络在任意和灵活的分布下,快速专注于学习 target bounding boxes 的 the continuous locations 周围值的概率。

我们展示了 GFL 的三个优势:

  • (1) 当 one-stage detectors 具有 额外的 quality estimation 时,它弥合了训练和测试之间的差距,导致 classification and localization quality 的一个 更简单、联合和有效的表示;
  • (2) 很好地建模了 bounding boxes 的灵活潜在分布,提供了更多的信息和准确的 box locations;
  • (3) 在不引入额外开销的情况下,单阶段检测器的性能得到持续提升。在COCO test-dev中,GFL在ResNet-101主干上取得了45.0%的AP,超过了最先进的SAPD(43.5%)和ATSS(43.6%)。最好的模型可以实现48.2%的单模型单尺度AP,同时在单个2080Ti GPU上以10 FPS的速度运行。

2. 相关工作

Representation of localization quality. 现有实践如 Fitness NMS [27], IoU- net [12], MS R-CNN [11], FCOS[26]和IoU-aware[29] 利用单独的分支以 IoU or centerness score 的形式执行 localization quality estimation 。如第1节所述,这种单独的表述会导致 训练和测试之间的不一致,以及不可靠的 quality predictions 。PISA[2]和 IoU-balance[28]不增加分支,而是根据 他们 localization qualities 在 classification loss 中赋予不同的权重,增强 the classification score and localization accuracy 之间的相关性。然而,由于权重策略没有改变分类损失目标的最优性,因此其收益是隐式的且有限的。

Representation of bounding boxes. Dirac delta distribution [7,23,8,1,18,26,13,31]支配着过去几年 bounding boxes 的表示。最近,采用高斯假设[10,4]通过引入预测方差来学习不确定性。然而,现有的表示方法要么过于僵化,要么过于简化,无法反映真实数据中复杂的潜在分布。本文进一步放松了假设,直接学习更任意、更灵活的 bounding boxes 一般分布,同时信息量更大、更准确。

3. 方法

在本节中,我们首先回顾了原始的 Focal Loss18,用于学习 one-stage detectors 的 dense classification scores。介绍了改进的 representations of localization quality estimation and bounding boxes 的细节,分别通过提出的 Quality Focal Loss (QFL) and Distribution Focal Loss (DFL) 成功优化。最后,将 QFL 和 DFL 的表述总结为一个统一的视角,称为 广义Focal Loss (GFL),,作为 FL 的灵活扩展,以促进未来的进一步推广和一般性理解。

Focal Loss (FL).

最初的 FL[18]是为了解决单阶段目标检测场景,在训练过程中经常存在 foreground and background classes 之间的极端不平衡。FL的典型形式如下(为简单起见,我们忽略了原始论文[18]中的\(α_t\)):

其中,y∈{1,0} 表示 the ground-truth class ,p∈[0,1]表示 标签为 y = 1 的类别的估计概率。γ 是可调的 focusing 参数。具体来说,FL 由标准交叉熵部分 \(−log(p_t)\) 和动态缩放因子部分 \((1−p_t)^γ\) 组成,其中 缩放因子 \((1−p_t)^γ\) 在训练过程中自动降低容易样本的贡献权重,并快速将模型集中在困难样本上

Distribution Focal Loss (DFL)

沿用[26,31],我们采用 location 到 a bounding box 的 四边 的相对偏移量作为回归目标(见图4中的回归分支)

图4:在 dense detectors 的 the head 与传统方法进行比较。GFL 包括QFL和DFL。QFL 有效地学习了a joint representation of classification score and localization quality estimation。DFL 将 the locations of bounding boxes 建模为 General 分布,同时迫使网络快速专注于学习 the probabilities of values close to the target coordinates 。

模型的常规操作将回归标签y作为狄拉克δ分布δ(x−y),其中它满足 xxxxx,通常通过 fully connected layers 实现。更正式地说,恢复 y 的积分形式如下:

根据第1节的分析,我们建议不引入任何其他先验, 直接学习 the underlying General distribution P(x),而不是 Dirac delta[23, 8, 1, 26, 31]或 Gaussian[4,10]假设。给定标签 y 的最小值为 \(y_0\),最大值为 \(y_n\) 的范围 (\(y_0≤y≤y_n, n∈N^+\)),我们可以由模型得到 估计值yˆ(yˆ也满足 y0≤yˆ≤yn):

为了与卷积神经网络一致,我们将连续域上的积分转换为离散表示,通过将 范围[y0, yn]离散为集合 {y0, y1,…, yi, yi+1,…, yn−1,yn},间隔为 偶数∆(为简单起见,我们使用∆= 1)。因此,给定离散分布性质 xxxx,回归估计值yˆ可表示为:

因此,P(x)可以通过由 n + 1 个单元组成的softmax S(·)层轻松实现,为简单起见,P(yi) 记为Si。请注意,yˆ可以使用传统的损失目标(如SmoothL1 [7], IoU损失[27]或GIoU损失[24])以端到端的方式进行训练。然而,P(x) 有无限种取值组合,使得最终的积分结果为 y,如图5(b)所示,这可能会降低学习效率。直观上与(1)和(2)相比,分布(3)是紧凑的,并且在边界框估计上更有信心和更精确,这激励我们通过明确鼓励接近目标y的值的高概率来优化P(x)的形状。此外,通常情况下,最合适的底层位置如果存在,将不会远离粗标签。引入分布焦点损失(DFL),通过显式扩大yi和yi+1的概率(距离y最近的2,yi≤y≤yi+1),迫使网络快速关注标签y附近的值。由于边界框的学习仅针对正样本,不存在类不平衡问题的风险,因此我们简单地应用QFL中的完全交叉熵部分来定义DFL:

参考:

大白话 Generalized Focal Loss https://zhuanlan.zhihu.com/p/147691786

一文了解目标检测边界框概率分布 https://zhuanlan.zhihu.com/p/151398233

深入理解一下Generalized Focal Loss v1 & v2 https://zhuanlan.zhihu.com/p/357415257

https://www.zhihu.com/people/ai-ai-zi-qiao

标签:Loss,Dense,classification,localization,Object,bounding,quality,Focal
From: https://www.cnblogs.com/odesey/p/17770417.html

相关文章