首页 > 其他分享 >卷积神经网络

卷积神经网络

时间:2023-03-08 21:36:00浏览次数:31  
标签:卷积 特征 神经网络 区域 池化 图像

卷积神经网络

一、简介

之前我们说神经网络它是个特征提取器,但是它能提什么特征?我们叫做结构化的数据,也就是说常见的一些指标,例如我们今天说身高、年龄、体重。但是在图像数据当中,我们说每一个特征或者叫每一个像素点,它并不是身高、体重和年龄这种相对来说可以独立的,但是图像当中的点和点之间肯定是有关系的,所以说卷积神经网络是专门解决图像这个问题的。我们并不是单独的去看每一个像素点,而是用一些滑动窗口在原始图当中一个个去滑,目的是不仅仅看一个像素点,而是看它周围的区域,一整个区域我们选出来一个特征,再一个区域选出来一个特征,那不断的滑动位置后,我们现在就原始的一张输入图像得到了我们接下来很多很多的特征点。

二、应用领域

卷积神经网络(CNN)主要应用于计算机视觉领域。

image-20230307205103268
  • 目标检测
  • 分类与检索
  • 超分辨率重构
  • 医学任务
  • 无人驾驶
  • 人脸识别

三、与传统网络的区别

image-20230307205900468

传统网络的输入是一列特征,而卷积神经网络的输入是一张图片。

四、整体架构

image-20230307210059091

五、卷积层

1、卷积的作用

通俗地讲,卷积就是把原始图像分成不同的小区域,通过带有权重参数的小窗口滑动,提取一个个小区域的的特征,得到一张特征图。

image-20230307210715335

2、卷积核

卷积核就是我们上面提到的小窗口,携带权重参数矩阵。卷积核的通道数应该和原始图像保持一致。

3、图像颜色通道

图像是三维的,w x h x cc表示通道数。一般图像有RGB三通道,把三个通道分别做特征提取,再加起来。

image-20230307211033448

4、特征值的计算

将原始图像的三个通道的对应区域,与卷积核的权重参数矩阵做内积运算(对应位置相乘再相加),将结果相加。最后,与偏置一起相加得到这一区域的特征值。滑动过所有区域即完成一次卷积,得到包含每个区域特征值的特征图。

image-20230307212417299

5、卷积层

卷积只进行一次吗?卷积一次的效果当然不好,我们采用堆叠的卷积层提取特征。

image-20230307214003148
  • 3表示3通道
  • 6表示6个卷积核堆叠
  • 10表示10个卷积核堆叠

6、卷积层的参数

  • 滑动窗口步长。滑动窗口时移动的长度或者移动的单元格数。步长越小,提取的特征越丰富;步长越大,提取的特征越少。一般情况下设置为1,特殊任务就视情况而定。
image-20230307214438660
  • 卷积核尺寸。与步长类似,卷积核越小 ,就是越小力度地提取,得到的特征越丰富。一般设置为3x3。

  • 填充(padding)。我们可以发现,越靠近边界的点就越被使用得少,越靠近中心的点被利用得越多。为了弥补边界缺失的信息,采用边缘填充的方法。

  • 卷积核个数

7、卷积结果计算公式

image-20230308151536646

8、卷积参数共享

每个区域都使用相同的卷积核,共享卷积参数。

image-20230308152330180

六、池化层

1、池化的作用

由于特征数量过多·,且并不是所有的特征都是重要的,所以使用池化压缩特征,或者称为“下采样”。池化可以对特征进行筛选。

image-20230308152545665

2、池化类型

  • 最大池化(max pooling)。选择每个区域中最大的特征值。注:效果最好,使用最多。
image-20230308153320997
  • 平均池化。

七、整体网络架构

每个卷积层都和RELU搭配使用,卷积两次就池化一次。我们已经知道,卷积神经网络的输入是三维的图像,而传统神经网络的输入是特征向量。图像在经过卷积之后得到的特征,应该输入到全连接层中,得到最后分类的结果。所以,在最后的POOL和FC层之间,还有一个扁平化操作,将多维特征拉成一个向量。下图是一个七层的卷积神经网络。

image-20230308153540038 image-20230308154610595

八、经典网络架构

了解一下几种经典的卷积网络,后面详细学习。

1、Alexnet

image-20230308205545477

2、VGG

image-20230308205625199

3、Resnet残差网络

随着网络的层数增加,人们发现并不是层数越多训练效果越好。

image-20230308210524035

image-20230308210853359

九、感受野

通俗地讲,感受野就是当前的值能看到,它是由前面原始数据中多少个值参与计算得到的。

image-20230308211300871 image-20230308211944233

标签:卷积,特征,神经网络,区域,池化,图像
From: https://www.cnblogs.com/dxmstudy/p/17196322.html

相关文章

  • 卷积神经网络预测Cifar10
    搭建卷积神经网络导入模块fromkeras.datasetsimportcifar10importnumpyasnpfromkeras.utilsimportnp_utilsimportmatplotlib.pyplotaspltfromkeras.mod......
  • 详解神经网络中反向传播和梯度下降
    摘要:反向传播指的是计算神经网络参数梯度的方法。本文分享自华为云社区《反向传播与梯度下降详解》,作者:嵌入式视觉。一,前向传播与反向传播1.1,神经网络训练过程神经网......
  • 机器学习日志 手写数字识别 pytorch 神经网络
    我是链接第一次用pytorch写机器学习,不得不说是真的好用pytorch的学习可以看这里,看看基本用法就行,个人感觉主要还是要看着实践代码来学习总结了几个点:1.loss出现nan这......
  • 卷积运算的动机
    卷积运算通过三个重要的思想来帮助改进机器学习系统:稀疏交互(sparseinteractions)、参数共享(parametersharing)、等变表示(equivariantrepresenta-tions)。另外,卷积提供了......
  • 吴恩达卷积神经网络——人脸识别和神经风格转换
    1.人脸识别人脸验证(FaceVerification)和人脸识别(FaceRecognition)的区别:人脸验证:一般指一个一对一问题,只需要验证输入的人脸图像是否与某个已知的......
  • Depthwise separable convolution深度可分离卷积、普通卷积
              来源:深度可分离卷积(Depthwiseseparableconvolution)-知乎(zhihu.com) ......
  • 几种类型神经网络学习笔记
    跟随【导师不教?我来教!】同济计算机博士半小时就教会了我五大深度神经网络,CNN/RNN/GAN/transformer/LSTM一次学会,简直不要太强!_哔哩哔哩_bilibili了解的五大神经网络,整理笔......
  • 梯度方向卷积 自己方法
    我也忘记这是什么代码了,几年前的,今天翻到发布出来importcv2ascvimportnumpyasnpimportmatplotlib.pyplotaspltimportmathimg=cv.imread(r'C:\Users\51......
  • 吴恩达卷积神经网络——目标检测
    1.目标定位定位分类问题不仅要求判断出图片中物体的种类,还要在图片中标记出它的具体位置,用边框(BoundingBox,或者称包围盒)把物体圈起来。一般来说,定位分类问题通常只......
  • 机器学习: 可视化反卷积操作
    转置卷积操作的详细分解1.简介转置卷积是用于生成图像的,尽管它们已经存在了一段时间,并且得到了很好的解释——我仍然很难理解它们究竟是如何完成工作的。我分享的文章描......