首页 > 其他分享 >跟姥爷深度学习6 卷积网络的数学计算

跟姥爷深度学习6 卷积网络的数学计算

时间:2023-05-21 11:33:54浏览次数:54  
标签:卷积 矩阵 转置 池化 计算 数学计算 姥爷 输入

一、前言

前面简单用TensorFlow的全连接网络做了气温预测然后深入了解了一下全连接网络的数学计算,接着用CNN(卷积)网络做了手写数字识别,本篇就接着这个节奏来看卷积网络的数学计算。

二、卷积网络回顾

前面我们使用卷积网络时并没有说太明白,特别是一些参数的含义,这里先补一下功课。

从上面的图看,我们构建的网络内部有4种不同的层(layers):卷积层(Conv2D)、池化层(MaxPooling2D)、转一维(Flatten)、全连接层(Dense),下面逐一说下。

1、卷积层

上图很好的阐释了卷积层工作原理,网上还有一些动图效果非常直观。卷积计算就是从输入中找到与卷积核(kernel)一样大小的矩阵,做对应位的乘积后加起来,得到结果的一个位。

1)Conv2D

这里的2D含义是二维数据,也就是处理输入数据为二维的卷积层,那自然还有Conv1D、Conv3D的,分别是处理一维和三维输入数据的卷积层。

2)Filters

含义是卷积核的个数,也就是上图中Kernel的数量。卷积核的数量越多则这一层输出就越多。

3)Kernel_size

含义是卷积核的大小,上面图片中的卷积核大小是3x3,我们示例用的是5x5的大小。卷积核的数量和大小共同组成了参数W、b的大小,这是类比全连接网络的概念。

4)Padding

Padding有两个参数值:VALID舍弃、SAME补足。

我们主要会使用SAME这个参数值,含义是当卷积计算结果大小较原始输入更小的话,在输入的边缘补0,使得输入输出的大小一致。下面举例:

可以看到原本的输出是2x2,为了将输出的尺寸修正为3x3,我们可以在输入的边缘增加0。

5)步长

这里隐含了一个参数是“步长=1”(stride),前面有提到卷积计算的原理是从输入中找到与卷积核一样大小的矩阵,向下图这样:

第一个矩阵:

第二个矩阵:

这里我们使用了步长为1,如果修改下步长为2则:

6)padding:VALID

知晓了步长后,我们再来看padding的VALID,为何需要丢弃。

假设kernel的大小为3x3,步长为2,则:

可以看到,由于输入的尺寸小了,导致6这一列无法被计算到,如果是padding=SAME,则会在后面补0以扩充尺寸,但对于VALID则会将6这一列丢弃,相应的计算结果的尺寸也会较小。

7)input_shape

限制输入的尺寸。

2、池化层

上图可以很直观看明白什么是池化,池化有两种,一种是求最大值的池化,另一种是求平均值池化。我们这里使用的是求最大值。

Pool_size就是池的大小,上图也是一个2x2的池。

3、一维化

所谓一维化就是将矩阵转为一维,比如下面这样:

三、精简示例

之前的示例输入是28x28,稍微大了点,我们只是要看看计算过程,所以将输入尺寸变小,同时卷积核的数量和大小也都缩小。

通过下面代码可以输出每一层的参数情况。

1)不是每一层都有参数

可以看到我们只输出了1、3、6、7层的参数,原因是池化层、转一维只是操作不带参数。

2)参数输出转置

注意看输出的时候参数矩阵是带了个T的,也就是将矩阵转置后输出。原因是矩阵表达的原因,如果不转置咱们会看不明白,所以在计算时,我们将输入也转置这样计算的结果就是一样的了。

3)各层计算结果

我们可以用下面的代码输出各层的计算结果来看,这样可以帮助我们检查每一层的手算是否都正确。下面只演示了第一层的计算结果。

四、计算过程

1、输入调整

如上图,我们先将输入转置,然后在矩阵的边缘补0。

2、卷积核与输入的“分拆”

前面说过卷积计算实际是从输入中找一个与卷积核一样大小的矩阵来做对应计算,所以我们可以将输入按规则进行“分拆”,像下面这样:

第一个小矩阵:

第二个小矩阵:

第三个小矩阵:

第四个小矩阵:

第五个小矩阵:

依次类推,我们可以得到16个小矩阵。每一个小矩阵与卷积核进行计算可以得到16个值,所以我们计算结果是一个4x4的矩阵。

需要注意,网上分拆小矩阵一般是从左到右,再从上到下。但是由于我们的输入是做了转置的,所以这里我们是先从上到下再从左到右,计算结果是一样的。

3、卷积核计算

看上图,需要注意卷积核只有一组值,也就是输入分拆出来的16个小矩阵,依次与同样的W1+b1进行计算,计算方式是输入的每一个位与W1的对应位相乘,将乘积相加然后再与b1求和。

 

4、池化层

所谓池化就是将矩阵进行浓缩,浓缩的办法是从矩阵中提取其“较大”值,具体过程是根据池的大小(pool_size)将输入矩阵进行分拆,分拆成数个小矩阵,然后求出各小矩阵的最大值,最后将这些取出的最大值组成新的矩阵就是池化层的输出了。

1)池化层的分拆

第一个小矩阵:

第二个小矩阵:

第三小矩阵:

第四个小矩阵:

需要注意由于转置的原因,这里分拆过程也是先从上到下再从左到右,其次这里的分拆与卷积层分拆是不一样的,卷积层有滑动步数,这里默认就是根据pool_size进行滑动了。

2)池化计算

池化非常简单,就是求最大值而已。最后将结果矩阵化就得到了下一层卷积层需要的输入了。

5、第二层卷积

有了前面的经验,第二层卷积计算更简单了。但第二层卷积有2个卷积核怎么办?其实只是多了一组W和b而已,所以同样的输入矩阵,按不同的卷积核参数计算2次即可。这样我们得到了2组输出。

6、第二次池化

将前面的计算结果分别组成2个矩阵,然后分别做池化。由于尺寸的原因导致池化后就只有一个值了,实际如果输入够大的话,池化后的结果应该是2个矩阵。

7、一维化

由于输出很少,所以一维化也很简单。如果池化结果是2个较大矩阵,一维化的过程就不那么直观了。

下面示例一下较大矩阵的一维化,其实就是两个矩阵穿插在一起了,而不是简单的左右拼接。

8、全连接层计算

全连接层计算非常简单了。

1)第一个全连接层

2)第二个全连接层计算

五、回顾

可以看到,我们手算的结果与TensorFlow计算结果大差不大,但还是有一点点的区别,可能原因是数值精度问题。

最后,一定要注意我们的输入是做了转置的。

 

标签:卷积,矩阵,转置,池化,计算,数学计算,姥爷,输入
From: https://www.cnblogs.com/cation/p/17418372.html

相关文章

  • 利用卷积神经网络的Text-CNN 文本分类
    访问【WRITE-BUG数字空间】_[内附完整源码和文档]TextCNN是利用卷积神经网络对文本进行分类的算法,由YoonKim在“ConvolutionalNeuralNetworksforSentenceClassification”一文(见参考[1])中提出.TextCNN是利用卷积神经网络对文本进行分类的算法,由YoonKim在“Conv......
  • 文本分类(下)-卷积神经网络(CNN)在文本分类上的应用
    1简介原先写过两篇文章,分别介绍了传统机器学习方法在文本分类上的应用以及CNN原理,然后本篇文章结合两篇论文展开,主要讲述下CNN在文本分类上的应用。前面两部分内容主要是来自两位博主的文章(文章中已经给出原文链接),是对两篇论文的解读以及总结,基本上阐释了CNN文本分类模型;后半部分......
  • 利用卷积神经网络实现人脸识别的应用
    ​ 利用卷积神经网络实现人脸识别的应用是一个热门的研究领域,它可以在安全、娱乐、医疗等方面发挥重要作用。卷积神经网络是一种深度学习模型,它可以从图像中提取高层次的特征,并通过分类器来判断图像中是否存在人脸,以及人脸属于哪个人。本文介绍了一种基于卷积神经网络的人脸识别......
  • 基于CNN卷积神经网络的语音信号识别算法matlab仿真
    1.算法仿真效果matlab2022a仿真结果如下:   2.算法涉及理论知识概要       人工智能的应用中,语音识别在今年来取得显著进步,不管是英文、中文或者其他语种,机器的语音识别准确率在不断上升。其中,语音听写技术的发展最为迅速,目前已广泛在语音输入、语音搜索、语音......
  • 使用卷积神经网络实现猫和狗的预测
    1、导入相关库   fromkeras.preprocessing.imageimportImageDataGenerator   importpathlib   fromtensorflowimportkeras   fromkerasimportlayersImageDataGenerator的介绍作用:通过实时数据增强生成批量图像数据向量。训练时该函数会无限循环生......
  • 鲸鱼优化算法WOA优化卷积神经网络CNN的学习率和隐含层神经元个数做多输入单输出的拟合
    鲸鱼优化算法WOA优化卷积神经网络CNN的学习率和隐含层神经元个数做多输入单输出的拟合预测建模。程序内注释详细直接替换数据就可以使用。程序语言为matlab。程序直接运行可以出拟合预测图,迭代优化图,线性拟合预测图,多个预测评价指标。。PS:以下效果图为测试数据的效果图,主要目的......
  • SSA-CNN-GRU麻雀算法优化卷积门控循环单元时间序列预测(Matlab)
    SSA-CNN-GRU麻雀算法优化卷积门控循环单元时间序列预测(Matlab)所有程序经过验证,保证有效运行。可有偿替换数据及其他服务。2.输入数据为单变量时间序列数据,即一维数据;3.运行环境Matlab2020b及以上,data为数据集,运行主程序SSA-CNN-GRUTS,其余为函数文件无需运行,所有程序和数据放在一个......
  • SSA-CNN-LSTM麻雀算法优化卷积长短期记忆神经网络时间序列预测(Matlab)
    SSA-CNN-LSTM麻雀算法优化卷积长短期记忆神经网络时间序列预测(Matlab)所有程序经过验证,保证有效运行。可有偿替换数据及其他服务。2.输入数据为单变量时间序列数据,即一维数据;3.运行环境Matlab2020b及以上,data为数据集,运行主程序SSA-CNN-LSTMTS,其余为函数文件无需运行,所有程序和数据......
  • CNN-SVM卷积-支持向量机的多特征分类预测(Matlab) 1.CNN结合SVM做
    CNN-SVM卷积-支持向量机的多特征分类预测(Matlab)1.CNN结合SVM做多特征分类预测,输入多个特征,分四类标签,代码内注释详细,直接替换数据就可以使用2.运行环境Matlab2018b及以上;3.MainCNN_SVMNC.m为主文件,data为数据;4.所有程序经过验证,保证有效运行注意:数据和文件放在一个文件夹运行。ID:......
  • CNN-SVM卷积-支持向量机的多输入单输出回归预测 1.CNN结合SV
    CNN-SVM卷积-支持向量机的多输入单输出回归预测1.CNN结合SVM做多输入单输出回归预测,输入7个特征,输出单个变量,代码内注释详细,直接替换数据就可以使用2.运行环境Matlab2018b及以上;3.MainCNN_SVR.m为主文件,data为数据;注意:数据和文件放在一个文件夹运行。ID:7130689644125551......