首页 > 其他分享 >CSPNet论文详解

CSPNet论文详解

时间:2022-10-14 22:14:06浏览次数:75  
标签:layers __ 梯度 self 论文 channels 详解 CSPNet

摘要

CSPNet 是作者 Chien-Yao Wang2019 发表的论文 CSPNET: A NEW BACKBONE THAT CAN ENHANCE LEARNING CAPABILITY OF CNN。也是对 DenseNet 网络推理效率低的改进版本。

作者认为网络推理成本过高的问题是由于网络优化中的梯度信息重复导致的CSPNet 通过将梯度的变化从头到尾地集成到特征图中,在减少了计算量的同时可以保证准确率。CSPCross Stage Partial Network,简称 CSPNet) 方法可以减少模型计算量和提高运行速度的同时,还不降低模型的精度,是一种更高效的网络设计方法,同时还能和ResnetDensenetDarknetbackbone 结合在一起。

1,介绍

虽然已经出现了 MobileNetv1/v2/v3ShuffleNetv1/v2 这种为移动端(CPU)设计的轻量级网络,但是它们所采用的基础技术-深度可分离卷积技术并不适用于 NPU 芯片(基于专用集成电路 (ASIC) 的边缘计算系统)。

CSPNet 和不同 backbone 结合后的效果如下图所示。

和分类backbone结合后的效果

和目标检测网络结合后的效果如下图所示。

和目标检测网络结合后的效果

CSPNet 提出主要是为了解决三个问题:

  1. 增强 CNN 的学习能力,能够在轻量化的同时保持准确性。
  2. 降低计算瓶颈和 DenseNet 的梯度信息重复。
  3. 降低内存成本。

2,相关工作

CNN 架构的设计

实时目标检测器

3,改进方法

原论文命名为 Method,但我觉得叫改进方法更能体现章节内容。

3.1,Cross Stage Partial Network

1,DenseNet

DenseNet的密集层权重更新公式

其中 \(f\) 为权值更新函数,\(g_i\) 为传播到第 \(i\) 个密集层的梯度。从公式 (2) 可以发现,大量的度信息被重用来更新不同密集层的权值,这将导致无差异的密集层反复学习复制的梯度信息。

2,Cross Stage Partial DenseNet.

作者提出的 CSPDenseNet 的单阶段的架构如图 2(b) 所示。CSPDenseNet 的一个阶段是由局部密集块和局部过渡层组成(a partial dense block and a partial transition layer)。

DenseNet和CSPDenseNet结构图

总的来说,作者提出的 CSPDenseNet 保留了 DenseNet 重用特征特性的优点,但同时通过截断梯度流防止了过多的重复梯度信息。该思想通过设计一种分层的特征融合策略来实现,并应用于局部过渡层(partial transition layer)。

3,Partial Dense Block.

设计局部密集块(partial dense block)的目的是为了

  1. 增加梯度路径:通过分块归并策略,可以使梯度路径的数量增加一倍。由于采用了跨阶段策略,可以减轻使用显式特征图 copy 进行拼接所带来的弊端;
  2. 每一层的平衡计算:通常,DenseNet 基层的通道数远大于生长速率。由于在局部稠密块中,参与密集层操作的基础层通道仅占原始数据的一半,可以有效解决近一半的计算瓶颈;
  3. 减少内存流量: 假设 DenseNet 中一个密集块的基本特征图大小为 \(w\times h\times c\),增长率为 \(d\),共有 \(m\) 个密集块。则该密集块的 CIO为 \((c\times m) + ((m^2+m)\times d)/2\),而局部密集块(partial dense block)的 CIO为 \(((c\times m) + (m^2+m)\times d)/2\)。虽然\(m\) 和 \(d\) 通常比 \(c\) 小得多,但是一个局部密集的块最多可以节省网络一半的内存流量。

4,Partial Transition Layer.

设计局部过渡层的目的是使梯度组合的差异最大。局部过渡层是一种层次化的特征融合机制,它利用梯度流的聚合策略来防止不同的层学习重复的梯度信息。在这里,我们设计了两个 CSPDenseNet 变体来展示这种梯度流截断是如何影响网络的学习能力的。

Figure3

Transition layer 的含义和 DenseNet 类似,是一个 1x1 的卷积层(没有再使用 average pool)。上图中 transition layer 的位置决定了梯度的结构方式,并且各有优势:

  • (c) 图 Fusion First 方式,先将两个部分进行 concatenate,然后再进行输入到Transion layer 中,采用这种做法会是的大量特梯度信息被重用,有利于网络学习;
  • (d) 图 Fusion Last 的方式,先将部分特征输入 Transition layer,然后再进行concatenate,这样梯度信息将被截断,损失了部分的梯度重用,但是由于 Transition 的输入维度比(c)图少,大大减少了计算复杂度。
  • (b) 图中的结构是论文 CSPNet 所采用的,其结合了 (c)、(d) 的特点,提升了学习能力的同时也提高了一些计算复杂度。 作者在论文中给出其使用不同 Partial Transition Layer 的实验结果,如下图所示。具体使用哪种结构,我们可以根据条件和使用场景进行调整。

不同Transition-layer的对比实验

5,Apply CSPNet to Other Architectures.

CSP 应用到 ResNeXt 或者 ResNet 的残差单元后的结构图如下所示:

Figure5

3.2,Exact Fusion Model

Aggregate Feature Pyramid.

提出了 EFM 结构能够更好地聚集初始特征金字塔。

FPN-GFM-EFM结构图

4,实验

4.1,实验细节

4.2,消融实验

EFM 在 COCO 数据集上的消融实验结果。

EFM上的消融实验结果

4.3,实验总结

从实验结果来看,分类问题中,使用 CSPNet 可以降低计算量,但是准确率提升很小;在目标检测问题中,使用 CSPNet 作为Backbone 带来的精度提升比较大,可以有效增强 CNN 的学习能力,同时也降低了计算量。

5,结论

CSPNet 是能够用于移动 gpucpu 的轻量级网络架构。

作者认为论文最主要的贡献是认识到冗余梯度信息问题,及其导致的低效优化和昂贵的推理计算。同时也提出了利用跨阶段特征融合策略和截断梯度流来增强不同层间学习特征的可变性。

此外,还提出了一种 EFM 结构,它结合了 Maxout 操作来压缩从特征金字塔生成的特征映射,这大大降低了所需的内存带宽,因此推理的效率足以与边缘计算设备兼容。

实验结果表明,本文提出的基于 EFMCSPNet 在移动GPUCPU 的实时目标检测任务的准确性和推理率方面明显优于竞争对手。

6,代码解读

1,Partial Dense Block 的实现,代码可以直接在 Dense Block 代码的基础上稍加修改即可,代码参考 这里。简单的 Dense Block 代码如下:

class conv2d_bn_relu(nn.Module):
    """
    BN_RELU_CONV, 
    """

    def __init__(self, in_channels: object, out_channels: object, kernel_size: object, stride: object, padding: object,
                 dilation=1, groups=1, bias=False) -> object:
        super(BN_Conv2d, self).__init__()
        layers = [nn.Conv2d(in_channels, out_channels, kernel_size=kernel_size, stride=stride, 
		padding=padding, dilation=dilation, groups=groups, bias=bias),
				nn.BatchNorm2d(in_channels),
				nn.ReLU(inplace=False)]

        self.seq = nn.Sequential(*layers)

    def forward(self, x):
        return self.seq(x)

class bn_relu_conv2d(nn.Module):
    """
    BN_RELU_CONV, 
    """

    def __init__(self, in_channels: object, out_channels: object, kernel_size: object, stride: object, padding: object,
                 dilation=1, groups=1, bias=False) -> object:
        super(BN_Conv2d, self).__init__()
        layers = [nn.BatchNorm2d(in_channels),
				  nn.ReLU(inplace=False),
				  nn.Conv2d(in_channels, out_channels, kernel_size=kernel_size, stride=stride,
                            padding=padding, dilation=dilation, groups=groups, bias=bias)]

        self.seq = nn.Sequential(*layers)

    def forward(self, x):
        return self.seq(x)

class DenseBlock(nn.Module):

    def __init__(self, input_channels, num_layers, growth_rate):
        super(DenseBlock, self).__init__()
        self.num_layers = num_layers
        self.k0 = input_channels
        self.k = growth_rate
        self.layers = self.__make_layers()

    def __make_layers(self):
        layer_list = []
        for i in range(self.num_layers):
            layer_list.append(nn.Sequential(
                bn_relu_conv2d(self.k0 + i * self.k, 4 * self.k, 1, 1, 0),
                bn_relu_conv2d(4 * self.k, self.k, 3, 1, 1)
            ))
        return layer_list

    def forward(self, x):
        feature = self.layers[0](x)
        out = torch.cat((x, feature), 1)
        for i in range(1, len(self.layers)):
            feature = self.layers[i](out)
            out = torch.cat((feature, out), 1)
        return out
		
# Partial Dense Block 的实现:
class CSP_DenseBlock(nn.Module):

    def __init__(self, in_channels, num_layers, k, part_ratio=0.5):
        super(CSP_DenseBlock, self).__init__()
        self.part1_chnls = int(in_channels * part_ratio)
        self.part2_chnls = in_channels - self.part1_chnls
        self.dense = DenseBlock(self.part2_chnls, num_layers, k)
        trans_chnls = self.part2_chnls + k * num_layers
        self.transtion = conv2d_bn_relu(trans_chnls, trans_chnls, 1, 1, 0)

    def forward(self, x):
        part1 = x[:, :self.part1_chnls, :, :]
        part2 = x[:, self.part1_chnls:, :, :]
        part2 = self.dense(part2)  # 也可以是残差块单元
        part2 = self.transtion(part2)  # Fusion lirst
        out = torch.cat((part1, part2), 1)
        return out

参考资料

标签:layers,__,梯度,self,论文,channels,详解,CSPNet
From: https://www.cnblogs.com/armcvai/p/16793177.html

相关文章

  • VoVNet论文解读
    摘要1,介绍2,高效网络设计的影响因素2.1,内存访问代价2.2,GPU计算效率3,建议的方法3.1,重新思考密集连接3.2,One-ShotAggregation3.3,构建VoVNet网络4,实验5,代......
  • 详解页眉页脚的结构
    关键名词:弄明白这几个关键名词以及设置方法,页眉页脚基本就搞定了。1.节2.首页不同3.奇偶页不同4.链接到前一条页眉解释:1.节word文档默认是一节,通过插入分节符,可以把文档拆分......
  • 论文排版 - 参考文献
    参考文献☆ 论文大概由以下几部分组成  1. 封面  2.中英文摘要和关键词  3. 目录  4. 正文  5. 参考文献  6.致谢☆参考文献的特点最后列......
  • 论文排版 之 页眉页脚
    认识页眉页脚本文需理解的几个问题1.首页不同是什么意思2.奇偶页不同是什么意思3.为什么有时要分节4.为什么有时要取消"链接到前一条页眉"5.分节之后,如何单独设置第二......
  • linefs论文
    1.摘要在多租户系统中,分布式文件系统(DFS)的CPU开销越来越成为应用程序性能的负担。CPU和内存干扰会导致应用程序和存储性能下降和不稳定,尤其是操作延迟。最近用于......
  • 动词时态=>4.将来时态和过去将来时态构成详解
    将来时态构成详解使用助动词will构成的将来时态一般将来时态与一般过去时态相反(时间上)如果说一般过去,我们将其当做一张照片从这张照片当中,我们无法得知动作什么......
  • 动词时态=>3.现在时态和过去时态构成详解
    现在时态构成详解一般现在时态最容易构成的时态,直接加动词原形(字典当中显示的词条)就可以第三人称"单数"的话需要加s这是最容易出错的时态;容易将现在的时间,和一般的状......
  • Elasticsearch——评分机制详解
    前言一个搜索引擎使用的时候必定需要排序这个模块,如果在不选择按照某一字段排序的情况下,都是按照打分的高低进行一个默认排序的,所以如果正式使用的话,必须对默认排序的打分......
  • C#特性详解
    特性(attribute)是被指定给某一声明的一则附加的声明性信息。   在C#中,有一个小的预定义特性集合。在学习如何建立我们自己的定制特性(customattributes)之前,我们先来看看......
  • 存储过程详解
    一,什么是存储过程存储过程是一组为了完成特定功能的SQL语句集,是利用SQLServer所提供的Transact-SQL语言所编写的程序。经编译后存储在数据库中。存储过程是数据库中一个重......