首页 > 其他分享 >学会了卷积神经网络,不自己来做一个猴子分类实验吗?

学会了卷积神经网络,不自己来做一个猴子分类实验吗?

时间:2024-11-15 20:52:48浏览次数:3  
标签:训练 卷积 猴子 准确率 神经网络 实验 数据

   

一、实验要求

熟悉使用卷积神经网络模型解决分类问题。

  • 实验目的

1、掌握根据实际问题设计网络模型

2、掌握根据实际问题设计优化器和损失函数

3、熟悉循环神经网络训练过程

4、熟悉常用数据增强方法

三、实验内容

一人一组。已知monkeys数据集包含共5种猴子分类(Bald Uakari;Emperor Tamarin;Mandril;Proboscis Monkey;White Faced Saki),图像尺寸:3*160x160。设计数据增强方式、网络模型、优化器和损失函数,运行程序。

我构建了一个神经网络,我首先设置了两个卷积层,每个卷积下跟着一个maxpool2d,和一个relu激活函数,然后我写了3层全连接感知机来线性,由于是5分类,我最后输出结果是5.输入的是3*160*160的图片文件,2:8划分测试集和训练集。

先训练了10轮




尝试增加到50轮数来提高准确率

我用了两种方式来展示这个成功,导入图片来预测效果很好,能达到测试的90%准确率
但是摄像头调用由于有外部干扰准确率较差



除了增加轮数,我还想到可以加缺失层来解决过拟合问题,但是我似乎没有出现这个问题呢
那我就来数据增强来丰富我的数据吧。

可以旋转,翻转,调整图片属性,诸如亮度,对比度等来丰富数据

对数据进行了翻转 旋转 调整亮度等操作 10轮就到90准确率了

数据增强完我的准确率达到97.8%了
然后我用batch批处理技术训练
Batch Normalization(BN)是一种稳定网络训练的技巧,能够加快收敛速度并减少对权重初始化的依赖。BN 通常在卷积层和激活层之间使用。
增加下训练的稳定性吧
我加完这个归一化后对于这个500张图片,这个模型已经很优秀了
 

四、实验总结

五、源码

 

git clone https://gitee.com/songaoxiangsoar/monkey-classification.git

标签:训练,卷积,猴子,准确率,神经网络,实验,数据
From: https://blog.csdn.net/qq_17405059/article/details/143620607

相关文章

  • 衡量神经网络表征相似度
    目录1.中心核对齐技术(CKA)2.Hilbert-Schmidtindependencecriterion(HSIC)HSIC的计算步骤:HSIC的性质:应用:矩阵中心化操作对于单个数据集的中心化对于两个数据集的中心化(例如,用于HSIC)Python代码示例1.中心核对齐技术(CKA)    CKA通过计算两个表......
  • YOLOv11改进,YOLOv11结合DynamicConv(动态卷积),CVPR2024,二次创新C3k2结构
    摘要大规模视觉预训练显著提高了大规模视觉模型的性能。现有的低FLOPs模型无法从大规模预训练中受益。在本文中,作者提出了一种新的设计原则,称为ParameterNet,旨在通过最小化FLOPs的增加来增加大规模视觉预训练模型中的参数数量。利用DynamicConv动态卷积将额外的参......
  • YOLOv8改进,YOLOv8结合DynamicConv(动态卷积),CVPR2024,二次创新C2f结构
    摘要大规模视觉预训练显著提高了大规模视觉模型的性能。现有的低FLOPs模型无法从大规模预训练中受益。在本文中,作者提出了一种新的设计原则,称为ParameterNet,旨在通过最小化FLOPs的增加来增加大规模视觉预训练模型中的参数数量。利用DynamicConv动态卷积将额外的参......
  • 深度学习面试的时候,如何回答1x1卷积的作用
    11月了,秋招已经开始了。不知最近有没有同学在投简历面试呢?回想起几年前我面试某大厂的时候,被问到了很多深度学习相关的知识,那时的我懂的不多,可以说是被面试官360度无死角蹂躏。那次面试,印象最深的是问了很多与卷积相关的问题,导致我后来工作一段时间看到卷积就时不时的去查些资......
  • 【简单的基于循环神经网络(RNN)的模型(深度学习经典代码实现)】
    importtorch#Code–Parametersinput_size=4hidden_size=4num_layers=1batch_size=1seq_len=5#Code–PrepareDataidx2char=['e','h','l','o']x_data=[1,0,2,2,3]y_data=[3,1,2,3,2]one_hot......
  • 【基于PyTorch的简单多层感知机(MLP)神经网络(深度学习经典代码实现)】
    importtorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFimporttorch.optimasoptim#准备数据集batch_size=64transform=transforms.Compose([transforms.......
  • C++builder中的人工智能(28):FANN: Fast Artificial Neural Networks快速人工神经网络(ANN
    这篇文章全面介绍了快速人工神经网络(ANNs)的世界,探讨了它们在现代计算智能中的重要地位、核心特点、应用领域以及未来发展。快速人工神经网络库(FastArtificialNeuralNetworkLibrary,简称FANN)是一个免费的开源神经网络库,它使用C语言实现了多层人工神经网络,并支持全连接和稀疏......
  • 深度神经网络
    深度神经网络这是一个深度神经网络用\(L=4\)表示神经网络层数,用\(n^{[l]}\)表示第\(l\)层神经元数量,有\(n^{[1]}=n^{[2]}=5\),\(n^{[3]}=3\),\(n^{[4]}=n^{[L]}=1\),\(n^{[0]}=n_x=3\)。对于前向传播有:\[z^{[l]}=\omega^{[l]}a^{[l-1]}+b^{[l]}\\a^{[l]}=g^{[l]}(......
  • 【Pytorch】神经网络介绍|激活函数|使用pytorch搭建方法
    神经网络神经网络介绍概念神经网络人工神经网络ANN也称神经网络NN是一种模仿生物神经网络结构和功能的计算模型人脑可以看作是一个生物神经网络,由众多神经元连接而成,神经网络可以看作是模拟生物神经元的过程输入层inputLayer:输入x的那一层输出层output......
  • 神经网络架构参考:2-2 卷积篇
    densenet结构层名称类型输入大小(HxWxC)输出大小(HxWxC)核尺寸步长参数数量InitialConvConv2D224x224x3112x112x647x729,408MaxPoolingMaxPool2D112x112x6456x56x643x320DenseBlock1Composite56x56x64......