首页 > 其他分享 >【笔记】Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning

【笔记】Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning

时间:2023-06-27 23:01:41浏览次数:45  
标签:Impact 网络 ResNet v2 Residual v4 Inception


论文:https://arxiv.org/abs/1602.07261

代码:https://github.com/gu-yan/mlAlgorithms/blob/master/inception_impl/Inception_resnet_v2_temsorflow.py


先贴出模型:

Inception V4:https://raw.githubusercontent.com/titu1994/Inception-v4/master/Architectures/Inception-v4.png

【笔记】Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning_卷积


Inecption Res-v2 :


【笔记】Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning_.net_02





Residual连接训练更深的网络变得容易。Inception结构也使得网络变深。将Residual连接添加到Inception结构中,就可以用残差网络来训练Inception,且保留计算的高效性。


Inception结构最初由GoogLeNet引入:


  • -----------------------------------------------------------------------------------------------------------------
  • [v1] Going Deeper with Convolutions, 6.67% test error, http://arxiv.org/abs/1409.4842
  • GoogLeNet叫做Inception-v1,Inception v1的网络,将1x1,3x3,5x5的conv和3x3的pooling,stack在一起,一方面增加了网络的width,另一方面使用 MLPConv 和全局平均池化,扩宽卷积层网络宽度,增加了网络对尺度的适应性;;
  • -------------------------------------------------------------------------------------------------------------------
  • [v2] Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift, 4.8% test error, http://arxiv.org/abs/1502.03167
  • Inception-v2的网络在v1的基础上,进行了改进,一方面了加入了Batch Normalization,代替 Dropout 和 LRN,减少了Internal Covariate Shift(内部neuron的数据分布发生变化),使每一层的输出都规范化到一个N(0, 1)的高斯,其正则化的效果让大型卷积网络的训练速度加快很多倍,同时收敛后的分类准确率也可以得到大幅提高;另外一方面学习VGG用2个3x3的conv替代inception模块中的5x5,既降低了参数数量,也加速计算;
  • -----------------------------------------------------------------------------------------------------------------
  • [v3] Rethinking the Inception Architecture for Computer Vision, 3.5% test error,  http://arxiv.org/abs/1512.00567
  • Inception-v3一个最重要的改进是分解(Factorization),将7x7分解成两个一维的卷积(1x7,7x1),3x3也是一样(1x3,3x1),这样的好处,既可以加速计算(多余的计算能力可以用来加深网络),又可以将1个较大的conv拆成2个较小conv,使得网络深度进一步增加,增加了网络的非线性,还有值得注意的地方是网络输入从224x224变为了299x299,更加精细设计了35x35/17x17/8x8的模块;
  • -----------------------------------------------------------------------------------------------------------------
  • [v4] Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning, 3.08% test error, http://arxiv.org/abs/1602.07261
  • Inception-v4研究了Inception模块结合Residual Connection能不能有改进?发现ResNet的结构可以极大地加速训练,同时性能也有提升,得到一个Inception-ResNet v2网络,同时还设计了一个更深更优化的Inception v4模型,能达到与Inception-ResNet v2相媲美的性能
  • -----------------------------------------------------------------------------------------------------------------



Inception-v4共有四种结构:(其中k,l,m,n表示filter bank size)

1、不包含Residual connection结构的;

2、包含Residual connection结构的;

3、Inception-ResNet-v1

4、Inception-ResNet-v2。


缩放Residuals

当卷积核个数超过1000时,训练将会变得不稳定,在训练的早期,网络“died”。这是缩小Residuals有助于稳定训练,缩小因子介于0.1到0.3。

He在训练Residual Net时也发现这个问题,提出了“two phase”训练。首先“warm up”,使用较小的学习率。接着再使用较大的学习率。

训练方法

ϵ=1.0。

学习率为0.045,每2个epoch缩小为原理的0.94。

实验结果




-----------------------------------------------------------------------END------------------------------------------------------------------------------


到最后,我有一个Question:

如何来设计这些inception啊,是有什么依据呢?还是逐个实验呢?需大牛解答~~~


标签:Impact,网络,ResNet,v2,Residual,v4,Inception
From: https://blog.51cto.com/u_12667998/6567594

相关文章

  • 经典网络结构GoogleNet之Inception-v1 v2 v3 v4 Resnet
    论文地址—2014年9月的论文Going Deeper with Convolutions提出的Inception V1(top-5错误率6.67%)。—2015年2月的论文Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate提出的Inception V2(top-5错误率4.8%)。—2015年12月的......
  • TensorFlow10.4 卷积神经网络-ResNet与DenseNet及ResNet实战
    1ResNet我们是实验发现在我们堆叠更多的网络结构的时候,我们并不能又一个很好的结果,就是它网络层次变多了之后他会产生一个多层的loss的堆叠,使得梯度爆炸,或者梯度弥散。然后我们想了一个办法,就是我们比如说设置了一个30层的神经网络,我们在差也不能比22层的差。就是我们设置了一......
  • 从实验中学习ResNet模型:在视频处理任务中取得显著进展
    目录引言技术原理及概念实现步骤与流程示例与应用优化与改进结论与展望"从实验中学习ResNet模型:在视频处理任务中取得显著进展"在视频处理任务中,ResNet模型已经取得了显著进展。ResNet模型是一种深度残差块神经网络,它是由ResNet系列模型发展而来的,被广泛用于图像和视频处理领域。在......
  • Going Deeper with Convolutions-Inception网络
    以下内容是结合原文和参考翻译的一些总结。摘要:谷歌在ImageNet大规模视觉识别挑战赛2014(ILSVRC14)上提出了一种新网络,就是Inception。这个架构的主要特点是提高了网络内部计算资源的利用率。通过精心的手工设计,我们在增加了网络深度和广度的同时保持了计算预算不变。为了优化质量,......
  • InceptionV3代码解析
    读了Google的GoogleNet以及InceptionV3的论文,决定把它实现一下,尽管很难,但是网上有不少资源,就一条一条的写完了,对于网络的解析都在代码里面了,是在原博主的基础上进行修改的,添加了更多的细节,以及自己的理解。总之,是更详细更啰嗦的一个版本,适合初学者。importtensorflowas......
  • inception.py
    importtorchimporttorch.nnasnnimporttorchvision.utilsfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasF'''假如输入为(35,35,192)的数据:第一个branch:经过branch1x1为......
  • 机器学习-头饰20类-图像分类,头饰图像分类-Resnet50
    (一).选题背景:什么是图像分类?它有哪些应用场合?图像分类任务是计算机视觉中的核心任务,其目标是根据图像信息中所反映的不同特征,把不同类别的图像区分开来。从已知的类别标签集合中为给定的输入图片选定一个类别标签。它的难点在于:跨越“语义鸿沟”建立像素到语义的映射。还有就是......
  • yolotv5和resnet152模型预测
    我已经训练完成了yolov5检测和resnet152分类的模型,下面开始对一张图片进行检测分类。首先用yolo算法对猫和狗进行检测,然后将检测到的目标进行裁剪,然后用resnet152对裁剪的图片进行分类。首先我有以下这些训练好的模型 猫狗检测的,猫的分类,狗的分类 我的预测文件my_detect.p......
  • 基于ResNet18深度学习网络的mnist手写数字数据库识别matlab仿真
    1.算法仿真效果matlab2022a仿真结果如下:2.算法涉及理论知识概要ResNet系列网络,图像分类领域的知名算法,经久不衰,历久弥新,直到今天依旧具有广泛的研究意义和应用场景。被业界各种改进,经常用于图像识别任务。ResNet-18,数字代表的是网络的深度,也就是说ResNet18网络就是18层的吗?实......
  • 基于ResNet18深度学习网络的mnist手写数字数据库识别matlab仿真
    1.算法仿真效果matlab2022a仿真结果如下:    2.算法涉及理论知识概要        ResNet系列网络,图像分类领域的知名算法,经久不衰,历久弥新,直到今天依旧具有广泛的研究意义和应用场景。被业界各种改进,经常用于图像识别任务。ResNet-18,数字代表的是网络的深度,也就......