首页 > 其他分享 >卷积神经网络

卷积神经网络

时间:2024-12-11 16:12:06浏览次数:3  
标签:10 滤波器 卷积 特征 神经网络 参数

整体架构

输入层、卷积层、池化层、全连接层

卷积神经网络——深度学习第九章 - 知乎

卷积做了一件什么事?

我们有一张64*64的图像数据,首先是全连接神经网络(如下图所示),输入数据的特征是1×4096的特征向量,每增加一个中间层的神经元,就会增加(4096+1)个参数,神经元的个数增加到10个,则参数个数会增加到525706。

image-20241211142019881

针对全连接神经网络参数量级过大,我们引入了卷积神经网络(专门针对图像数据)

我们对全校学生对校长的满意度进行调查,这里假设全校有1024名同学,共分为16个班级,

  • 全连接网络做的事情是,我们询问全校每一位同学对校长满不满意,共询问1024次,最终得出结果;
  • 卷积神经网络做的事情是,我们分班级询问对校长满不满意,即询问16次,得到最终结果。也就是说我们将一个班级的64名同学汇总成一条结果,并反馈出来。

假设有一张图像(image)它的维度是32×32×3,经过一个维度为5×5×3的滤波器,得到什么?如下图所示:

image-20241211144741967

特征图个数

每一个滤波器所提取的特征侧重点是不一样的!!!

多个滤波器针对原始特征,所提取的特征更加丰富!!!

image-20241211145711141

注意:这里除了滤波器以外,还对应每一个滤波器存在着一个偏置项b_i(i=1,2,3,4),对学习到的特征做微调。

卷积层涉及的参数

  • 滑动窗口步长(s)

    image-20241211152629607

  • 卷积核的大小(滤波器的大小)

    • 小的卷积核对于提取特征来说更加的细致,侧重于捕捉局部特征
    • 大的卷积核侧重于捕捉全局特征
  • 边缘填充(p)

    假设步长为1时,可能为重中间的特征像素点会被不断地提取,而在左上,左下,右上,右下的的特征像素点往往只被提取到1~2次左右(即相对中间的特征像素点被提取的次数相对较少)。这样会导致学到的特征”偏科“,所用我们在其边缘填充一圈零元素,这样会使得左上,左下,右上,右下的的特征像素点多提取几次,并且填充零,不会造成学到的特征产生偏差。

    image-20241211152733954

  • 卷积核的个数——影响特征图的大小

卷积结果计算公式

  • 长度

    image-20241211153023004

  • 宽度

    image-20241211153120283

  • 参数说明

    W1、H1表示输入特征的宽度和长度,W2、H2表示输出特征的宽度和长度;F表示卷积核长和宽的大小;S表示滑动窗口步长;P表示边缘填充(加几圈零)

卷积参数共享

数据依旧是32×32×3的图像,继续用10个5×5×3的滤波器来进行卷积操作,所需的权重参数有多少个呢?

5×5×3 = 75,表示每一个卷积核只需要75个参数,此时有10个不同的卷积核,就需要10×75 = 750个卷积核参数,不要忘记还有b参数,每个卷积核都有一个对应的偏置参数,最终只需要750+10=760个权重参数。

池化层 - MAX Pooling

在每一个2×2的池化卷积核里面选择最大的数-作为该范围的代表性特征(找到最能打的那个)

image-20241211154419747

拓展

  • 计算卷积神经网络的层数

    请问下面这张图里卷积神经网络的层数

    答案是:7层

    如何计算的呢?

    我们约定熟成的说,带有参数的,如conv,FC 记作一层,剩下就是数卷积神经网络中conv,FC 的个数

    • conv:即卷积层,它的参数包括卷积核(滤波器)和偏置项
    • FC:即全连接层,它的参数包括权重矩阵和偏置项

    image-20241211154723522

经典网络-Resnet -至少不比原来差

image-20241211155524704

标签:10,滤波器,卷积,特征,神经网络,参数
From: https://www.cnblogs.com/DLChen/p/18599830

相关文章

  • 神经网络入门之三 C环境部署
    此篇文章在2022年12月5日被记录入门神经网络三C环境部署为什么要部署到C环境上面两篇文章中,我们详细讲解了采集样本与样本训练,生成了一个模型文件,经过测试我们的模型成功率在90%以上,但是我们想将这个模型利用起来,实时检测我们的运动姿态,在ESP32上运行torch显然是不现实......
  • 神经网络入门之二 网络搭建
    此篇文章在2022年12月1日被记录入门神经网络二网络搭建使用哪种深度学习框架目前主流的神经网络框架有tensorflow、kears,国产的有百度的PaddlePaddle,但是我是从yolov5入坑的,yolov5官方代码使用的是pytorch框架,所以我使用torch,而且torch框架上手很简单,资源较多坑较少。......
  • 神经网络入门之一 搭建网络结构与数据采集
    此篇文章在2022年11月30日被记录转移这篇文章时,突然想到了为了采集样本在公司楼下跑步了20分钟入门神经网络一样本采集在本科的时候对神经网络颇有兴趣,感觉很神秘,特别是当时的yolov5目标检测算法,让我感觉特别震撼,计算机在图像识别上已经超过了人眼。但是这么长时间以来一直......
  • 发明图神经网络模块的人真是个天才!
    今天给大家推荐一个涨点发顶会的好方向:图神经网络(GNN)。这俩热点的结合可以轻松实现“1+1>2”的效果。图神经网络(GraphNeuralNetwork,简称GNN)是一种基于图结构的深度学习模型,专门用于处理图数据。它通过在图中的节点和边上制定一定的策略,将图结构数据转化为规范而标准的表示,......
  • 循环神经网络(RNN)原理及实现
    一、引言在深度学习领域,循环神经网络(RecurrentNeuralNetwork,RNN)是一类具有独特结构和强大功能的神经网络模型。与传统的前馈神经网络不同,RNN能够处理序列数据,如时间序列数据、文本数据等,这使得它在自然语言处理、语音识别、时间序列预测等众多领域都取得了广泛的应用和显著......
  • 初学者:神经网络(2)
          上一篇文章中我们说神经网络的基本结构,神经网络训练的基本原理,这篇文章我们先来说一说神经网络中一个特别重要的东西---激活函数。      还是引用上一篇文章的老图。      如果按照上图的结构来输出最终的结果,那么计算过程如下:hj=i=1nxicijy=j=......
  • 神经网络学习
    感知和学习RosenblattPerceptron计算流程:初始化:随机初始化权重\(\mathbf{W}\)和偏置b。循环训练:从训练集中随机选择一个样本$(\mathbf{X}_i,y_i)$。检查分类结果是否正确:如果$y_i\cdot(\mathbf{W}\cdot\mathbf{X}_i+b)\leq0\((分类错误),则更新权重和偏......
  • 线性神经网络在因果推断中的潜在用途
    线性神经网络在因果推断中的潜在用途摘要:本文深入探讨线性神经网络在因果推断领域的潜在用途。首先介绍因果推断的基本概念与重要性,阐述传统因果推断方法及其局限性。接着详细剖析线性神经网络的架构与原理,包括神经元的数学模型、前向传播与反向传播算法等核心内容。探讨......
  • 基于Huffman树的层次化Softmax:面向大规模神经网络的高效概率计算方法
    理论基础算法本质与背景层次化(Hierarchial)Softmax算法是在深度学习领域中解决大规模词嵌入训练效率问题的重要突破。该算法通过引入Huffman树结构,有效地将传统Softmax的计算复杂度从线性降至对数级别,从而在处理大规模词汇表时表现出显著的优势。在传统的神经网络词嵌入模型中,So......
  • 有关卷积神经网络详细内容
    一、卷积神经网络(ConvolutionalNeuralNetwork,缩写CNN)的基本概念1.定义        -卷积神经网络是一种专门为处理具有网格结构数据(如图像、音频)而设计的深度学习模型。它通过卷积层(ConvolutionalLayer)、池化层(PoolingLayer)和全连接层(Fully-ConnectedLayer)等组......