目录
日常·唠嗑
昨天写完了神经网络训练(二):基于残差连接的图片分类网络(进阶篇①),进行了概述及理论介绍,本篇继续写第三章,在传统ResNet18的基础上进行优化,对代码训练进行实际分析验证。
3 基于ResNet18的优化
原始的ResNet18模型在不使用预训练权重的情况下,很难在10分钟内达到我们的需求。在测试过程中,我们发现仅通过调整模型的超参数是不可能获得更好的结果的,因此我们针对我们的数据集进行优化改进。
3.1 初步构思
考虑到CIFAR10数据集的图片尺寸太小,ResNet18网络的7x7降采样卷积和池化操作容易丢失一部分信息,所以在实验中我们将7x7的降采样层和最大池化层去掉,替换为一个3x3的降采样卷积,同时减小该卷积层的步长和填充大小,这样可以尽可能保留原始图像的信息。对比原ResNet18模型,首层改成3x3的,步长和padding都要一并改成1,删掉最大池化层,最后一个全连接层输出改成10。此外,我们没有使用ResNet中的maxpool操作,而是直接在每个layer block中使用stride=2来进行下采样。
构建模型:
Precision | Loss |
---|---|
69.40% | 0.732 |
Precision | Loss |
---|---|
77.62% | 0.342 |