首页 > 其他分享 >卷积神经网络研究综述 学习记录

卷积神经网络研究综述 学习记录

时间:2022-11-16 19:32:02浏览次数:51  
标签:综述 卷积 局部 神经网络 权值 连接 输入 神经元


概要

深度学习善于从原始输入数据中挖掘越来越抽象的特征表示,而这些表示具有良好的泛化能力。深度学习是包含多级非线性变换的层级机器学习方法,深层神经网络是目前的主要形式,其神经元间的连接模式受启发于动物视觉皮层组织,而卷积神经网络则是其中一种经典而广泛应用的结构.卷积神经网络的局部连接、权值共享及池化操作等特性使之可以有效地降低网络的复杂度,减少训练参数的数目,使模型对平移、扭曲、缩放具有一定程度的不变性,并具有强鲁棒性和容错能力,且也易于训练和优化.基于这些优越的特性,它在各种信号和信息处理任务中的性能优于标准的全连接神经网络。

  • (1)多隐层的人工神经网络具有优异的特征学习能力;
  • (2)可 通 过“逐 层 预 训 练”来有效克服深层神经网络在训练上的困难

CNN概述

神经元

神经元是人工神经网络的基本处理单元,一般是多输入单输出的单元,其结构模型如图所示:

卷积神经网络研究综述 学习记录_cnn


其中:xi表示输入信号;n个输入信号同时输入神经元j.wij表示输入信号xi与神经元j连接的权重值,bj表示神经元 的 内 部 状 态 即 偏 置 值,yj为 神 经 元 的输出.输入与输出之间的对应关系可用下式表示:

卷积神经网络研究综述 学习记录_深度学习_02


f(·)为激励 函 数,其 可 以 有 很 多 种 选 择,可 以 是 线性 纠 正 函 数 ,sigmoid函数、tanh(x)函数、径向基函数等。

多层 感 知 器

多层 感 知 器 (MultilayerPerceptron,MLP)是

由输入层、隐含层(一层或者多层)及输出层构成的神经网络模型,它可以解决单层感知器不能解决的线性不可分问题.下图是含有2个隐含层的多层感知器网络拓扑结构图:

卷积神经网络研究综述 学习记录_学习_03


卷积神经网络研究综述 学习记录_学习_04

卷积神经网络研究综述 学习记录_池化_05


当多层感知器用于分类时,其输入神经元个数为输入信号的维数,输出神经元个数为类别数,隐含层个数及隐层神经元个数视具体情况而定.但在实

际应用中,由于受到参数学习效率影响,一般使用不超过3层的浅层模型.BP算法可分为两个阶段:前向传播和后 向 传 播,其 后 向 传 播 始 于 MLP的 输 出层.以上图为例,则损失函数为:

卷积神经网络研究综述 学习记录_卷积_06

CNN的引入

1962年,生 物 学 家 Hubel和 Wiesel[28]通 过 对

猫脑视觉皮层的研究,发现在视觉皮层中存在一系列复杂构造的细胞,这些细胞对视觉输入空间的局部区域很敏感,它们被称为“感受野”.感受野以某种方式覆盖整个视觉域,它在输入空间中起局部作用,因而能够更好地挖掘出存在于自然图像中强烈的局部空间相关性

CNN 的基本结构由输入层、卷 积 层(convolu-tionallayer)、池 化 层 (poolinglayer,也 称 为 取 样层)、全连接层及输出层构成.卷积层和池化层一般会取若干个,采用卷积层和池化层交替设置,即一个卷积层连接一个池化层,池化层后再连接一个卷积层,依此类推.由于卷积层中输出特征面的每个神经元与其输入进行局部连接,并通过对应的连接权值与局部输入进行加权求和再加上偏置值,得到该神经元输入值,该过程等同于卷积过程,CNN 也由此而得名。

输入特征面:即输入的图片,可为初始图片,也可为卷积图片,池化图片。

卷积神经网络研究综述 学习记录_cnn_07


单个的卷积核可认为是一个神经元

卷积神经网络研究综述 学习记录_cnn_08


卷积核的本质是:三维(长度 * 宽度 * 通道)输入的神经元

卷积神经网络研究综述 学习记录_池化_09


由于卷积核在x轴和y轴方向上,其长度都远远小于原始图片本身的长度。

因此,卷积核本身并没有与原始的输入的所有像素相连,而是部分相连,卷积核的参数矩阵的形状,决定了与之连接的输入属性的形状(维度+每个维度的长度)。

特征面即为我们输入的图片,卷积层由多个特征面 (Feature Map) 组成, 每个特征面由多个神经元组成, 它的每一个神经元通过卷积核与上一层特征面的局部区域相连,权重值即为我们卷积核中训练出来的值,卷积核和图像的卷积操作,其实就是卷积核里的权重值单独于图像相应位置的像素进行点乘,然后将点乘完的结果加起来,是为了作用叠加。

由图3可看出卷积层的神经元被组织到各个特征面中,每个神经元通过一组权值被连接到上一层特征面的局部区域,即卷积层中的神经元与其输入

层中的特征面进行局部连接.然后将该局部加权和传递给一个非线性函数如 ReLU 函 数 即 可 获 得卷积层中每个神经元的输出值.在同一个输入特征面和同一个输出特征面中,CNN 的 权 值 共 享,如图3所示,权值共享发生在同一种颜色当中,不同颜色权值不共享.通过权值共享可以减小模型复杂度,使得网络更易于训练。

卷积神经网络研究综述 学习记录_cnn_10

局部连接和权值共享

卷积层最主要的两个特征就是局部连接和权值共享,有些地方又叫做稀疏连接和参数共享,总之都是一个意思。所谓局部连接,就是卷积层的节点仅仅和其前一层的部分节点相连接,只用来学习局部特征。局部感知结构的构思理念来源于动物视觉的皮层结构,其指的是动物视觉的神经元在感知外界物体的过程中起作用的只有一部分神经元。在计算机视觉中,图像中的某一块区域中,像素之间的相关性与像素之间的距离同样相关,距离较近的像素间相关性强,距离较远则相关性就比较弱,由此可见局部相关性理论也适用于计算机视觉的图像处理领域。因此,局部感知采用部分神经元接受图像信息,再通过综合全部的图像信息达到增强图像信息的目的。从下图中我们可以看到,第n+1层的每个节点只与第n层的3个节点相连接,而非与前一层全部5个神经元节点相连,这样原本需要53=15个权值参数,现在只需要33=9个权值参数,减少了40%的参数量,同样,第n+2层与第n+1层之间也用同样的连接方式。这种局部连接的方式大幅减少了参数数量,加快了学习速率,同时也在一定程度上减少了过拟合的可能。

卷积神经网络研究综述 学习记录_池化_11


卷积层的另一大特征是权值共享,比如一个33的卷积核,共9个参数,它会和输入图片的不同区域作卷积,来检测相同的特征。而只有不同的卷积核才会对应不同的权值参数,来检测不同的特征。如下图所示,通过权值共享的方法,这里一共只有3组不同的权值,如果只用了局部连接的方法,共需要34=12个权值参数,而加上了权值共享的方法后,现在仅仅需要3个权值,更进一步地减少参数数量。

卷积神经网络研究综述 学习记录_池化_12

池化层

池化层紧跟在卷积层之后,同样由多个特征面组成,它的每一个特征面唯一对应于其上一层的一个特征面,不会 改 变 特 征 面 的 个 数。
卷 积 层是池化层的输入层,卷积层的一个特征面与池化层中的一个特征面唯一对应,且池化层的神经元也与其输入层的局部接受域相连,不同神经元局部接受域不重叠。
池化层起到二次提取特征的作用,它的每个神经元对局部接受域进行池化操作.常用的池化方法有最大池化即取局部接受域中值最大的点、均值池化即对局部接受域中的所有 值 求 均 值、随 机 池 化。

全连接层

在 CNN 结构中,经多个卷积层和池化层后,连接着1个或1个以上的全连接层.与 MLP类似,全连接层中的每个神经元与其前一层的所有神经元进
行全连接.全连接层可以整合卷积层或者池化层中具有类别区分性的局 部 信 息。

总结展示

卷积神经网络研究综述 学习记录_cnn_13


共有3个卷 积 层(C1,C3,C5)、2个 池 化 层(M2,M4)、1 个 全 连 接 层 (F6)和1个输出层(O7).输入的大小为160×160,C1中96×11×11×1(4)表示 C1层有96个大小为11×11的卷积核,1为它的输入特征面个数,4是卷积核在其输入特征面上的滑动步长,38×38为每个输出特征面的大小。


标签:综述,卷积,局部,神经网络,权值,连接,输入,神经元
From: https://blog.51cto.com/u_15876949/5857175

相关文章

  • 实验四:神经网络算法实验
    实验四:神经网络算法实验【实验目的】理解神经网络原理,掌握神经网络前向推理和后向传播方法;掌握神经网络模型的编程实现方法。【实验内容】1.1981年生物学家格若根(W......
  • 实验四:神经网络算法实验
    【实验目的】理解神经网络原理,掌握神经网络前向推理和后向传播方法;掌握神经网络模型的编程实现方法。【实验内容】1.1981年生物学家格若根(W.Grogan)和维什(W.Wirth)发现......
  • python神经网络编程
    计算机系统:输入->(计算)->输出建立模型可以模拟事情的运作神经网络的基本思想:持续细化误差值。大的误差需要大的修正值,小的误差需要小的修正值。尝试得到一个答案,并多......
  • 实验四:神经网络算法实验
    【实验目的】理解神经网络原理,掌握神经网络前向推理和后向传播方法;掌握神经网络模型的编程实现方法。【实验内容】1.1981年生物学家格若根(W.Grogan)和维什(W.Wirth)发现了......
  • matlab使用长短期记忆(LSTM)神经网络对序列数据进行分类|附代码数据
    全文下载链接:http://tecdat.cn/?p=19751本示例说明如何使用长短期记忆(LSTM)网络对序列数据进行分类。要训练深度神经网络对序列数据进行分类,可以使用LSTM网络。LSTM网络使......
  • 实验四:神经网络算法实验
    【实验目的】理解神经网络原理,掌握神经网络前向推理和后向传播方法;掌握神经网络模型的编程实现方法。【实验内容】1.1981年生物学家格若根(W.Grogan)和维什(W.Wirth)发现了......
  • AI基础:经典卷积神经网络
    导语卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习(deeplearning)的代表算法之一......
  • 拓端tecdat|R语言用RNN循环神经网络 、LSTM长短期记忆网络实现时间序列长期利率预测
    2017年年中,R推出了 ​​Keras​​ 包 ,这是一个在Tensorflow之上运行的综合库,具有CPU和GPU功能。本文将演示如何在R中使用 ​​LSTM​​ 实现时间序列预测。......
  • 卷积神经网络的尺寸设计的经验
    关于卷积神经网络的尺寸设计,有一些经验可以参考:(1)输入层:一般而言,输入层的大小应该能够被2整除很多次,常用的数字包括32,64,96和124。(2)卷积层:卷积层应该尽可能使用小尺寸的滤......
  • 【读书笔记】《Verilog HDL数字设计与综合(第二版 本科教学版)》第一章:Verilog HDL数字
    一、数字电路CAD技术的发展历史真空管晶体管,集成电路(IntegratedCircuit,IC)小规模集成电路(SmallScaleIntegrated,SSI):逻辑门数量很少中规模集成电路(MediumScaleI......