首页 > 其他分享 >【深度学习基本概念】上采样、下采样、卷积、池化

【深度学习基本概念】上采样、下采样、卷积、池化

时间:2022-08-28 11:55:05浏览次数:85  
标签:采样 卷积 矩阵 插值 池化 图像

【深度学习基本概念】上采样、下采样、卷积、池化

上采样

概念
上采样(upsampling):又名放大图像、图像插值;

主要目的是放大原图像,从而可以显示在更高分辨率的显示设备上;

上采样有3种常见的方法:双线性插值(bilinear),反卷积(Transposed Convolution),反池化(Unpooling);

原理
上采样原理:

图像放大几乎都是采用内插值方法,即在原有图像像素的基础上在像素点之间采用合适的插值算法插入新的元素。

插值算法还包括了传统插值,基于边缘图像的插值,还有基于区域的图像插值。

下采样

概念
下采样(subsampled):又名降采样、缩小图像;

主要目的有两个:
1、使得图像符合显示区域的大小;
2、生成对应图像的缩略图;

其实下采样就是池化;

原理
下采样原理:

对于一副图像Ⅰ尺寸为MN,对其进行s倍下采样,即得到(M/s)(N/s)尺寸的分辨率图像,当然,s应该是M和N的公约数才可以;

如果考虑是矩阵形式的图像,就是把原始图像s*s窗口内的图像变成一个像素,这个像素点的值就是窗口内所有像素的均值或者最大值(也就是Pooling池化操作等)。

对图像的缩放操作并不能带来更多关于该图像的信息, 因此图像的质量将不可避免地受到影响。然而,确实有一些缩放方法能够增加图像的信息,从而使得缩放后的图像质量超过原图质量的。

Pk = Σ Ii / s2

其实下采样就是池化。

采样层是使用 pooling 的相关技术来实现的,目的就是用来降低特征的维度并保留有效信息,一定程度上避免过拟合;

但是pooling的目的不仅仅是这些,他的目的是保持旋转、平移、伸缩不变形等。采样有最大值采样,平均值采样,求和区域采样和随机区域采样等;

池化也是这样的,比如最大值池化,平均值池化,随机池化,求和区域池化等。

卷积

一次卷积运算指的是:如下图,当我们有一个过滤器(黄色矩阵块,又称卷积核,也是矩阵);

移动卷积核,将这个方块对应要处理的输入矩阵的一部分,位置一一对应相乘,然后把结果再相加得到一个数;

image

图源:Convolution schematic

上面这幅图是对一个55的矩阵进行33的矩阵的卷积;

那么就从左上角到右下角,生成卷积之后的矩阵的大小是(5-3+1)*(5-3+1)的矩阵,生成之后的矩阵的元素值,是之前的两个矩阵对应元素的乘积之和;

池化

池化最直观的作用便是降维,常见的池化有最大池化、平均池化和随机池化;池化层不需要训练参数;

最大池化可以获取局部信息,可以更好保留纹理上的特征;如果不用观察物体在图片中的具体位置,只关心其是否出现,则使用最大池化效果比较好。
平均池化往往能保留整体数据的特征,能凸出背景的信息。
随机池化中元素值大的被选中的概率也大,但不是像最大池化总是取最大值。随机池化一方面最大化地保证了Max值的取值,一方面又确保了不会完全是max值起作用,造成过度失真;除此之外,其可以在一定程度上避免过拟合。
如下图,左侧是44的矩阵,要进行大小为22的池化;

Max pooling,即对邻域内特征点只求最大值;

Average pooling,即对邻域内特征点只求平均值;

image


参考:
https://blog.csdn.net/tingzhiyi/article/details/114368433
https://gsy00517.github.io/computer-vision20200202133216/
https://www.cnblogs.com/cy0628/p/14192078.html

标签:采样,卷积,矩阵,插值,池化,图像
From: https://www.cnblogs.com/michaelcjl/p/16632504.html

相关文章

  • 深度学习:卷积神经网络(下)【一些经典的神经网络模型】
    1、深度卷积神经网络(AlexNet)......
  • 关于ppo中针对MLP和RNN两种不同网络结构的数据处理与采样方法
    在RL中,需要对数据进行采样,因此如何构造可采样的数据或数据块,则是需要关注的问题: ifself.actor_critic.is_recurrent:data_generator=rollouts.recurrent_generat......
  • 用于知识图嵌入的多尺度动态卷积网络
    原文Multi-ScaleDynamicConvolutionalNetworkforKnowledgeGraphEmbedding出版IEEETransactionsonKnowledgeandDataEngineeringVolume:34Issue:501M......
  • 卷积核、滤波器
    一层layer可以有多个通道channel(或者说特征图)如果输入的是一个RGB图像,那么就会有3个通道。"kernel"是被用来描述”filter”的结构。一个"kernel"更倾向于是2D的权重矩阵......
  • 狄利克雷卷积 + 莫比乌斯反演
    一.狄利克雷卷积对于两个数论函数,我们定义定义狄利克雷卷积:$*$那么对于数论函数\(f(x)\)和\(g(x)\),他们的狄利克雷卷积结果为\(h(x)\)定义为:\[h(x)=\sum......
  • Python|使用Python实现图像的重采样
    基础知识图像重采样就是从高分辨率遥感影像中提取出低分辨率影像,或者从低分辨率影像中提取高分辨率影像的过程。常用的方法有最邻近内插法、双线性内插法、三次卷积法等。......
  • 19图像卷积
    点击查看代码importtorchfromtorchimportnnfromd2limporttorchasd2ldefcorr2d(X,K):#@save"""计算二维互相关运算"""h,w=K.shapeY=......
  • stm32的ADC采样(基于HAL库)
    什么是ADC转换? CUBEMX配置ADC时需要注意的几个点:1.   adc采样的精度最高位数是16位。 这个设置是微秒级别的。所以不影响。 ......
  • 手写卷积单元-python
    一个文本卷积模块defcnn():importnumpyasnpresult=[]n,dim=10,30kernels=[np.random.randint(0,2,(i,dim))foriinrange(3,6)]#......
  • 卷积
    从“卷积”、到“图像卷积操作”、再到“卷积神经网络”,“卷积”意义的3次改变_哔哩哔哩_bilibili卷积是要给泛函的概念。 吃东西的例子可以很好的理解卷积,卷积也可以解......