首页 > 其他分享 >池化层

池化层

时间:2023-08-16 11:45:35浏览次数:43  
标签:池化层 nn self torch 池化 import input

池化层

池化操作

池化操作是CNN中非常常见的一种操作,池化层是模仿人的视觉系统对数据进行降维,池化操作通常也叫做子采样(Subsampling)或降采样(Downsampling),在构建卷积神经网络时,往往会用在卷积层之后,通过池化来降低卷积层输出的特征维度,有效减少网络参数的同时还可以防止过拟合现象。

池化操作的作用:将一个尺寸较大的图像通过池化操作转换成尺寸较小的图像,但是这个操作过程中尽量保留原始图像的特征。详细了解池化操作

池化操作最常见的是最大池化和平均池化,此外还有随即池化和中值池化,nn.MaxPool1dnn.MaxPool2dnn.MaxPool3d最大池化也被称为下采样;nn.MaxUnPool1dnn.MaxUnPool2dnn.MaxUnPool3d为上采样,最常用的是nn.MaxPool2d

import torch

input= torch.tensor([[1, 2, 0, 3, 1],
                    [0, 1, 2, 3, 1],
                    [1, 2, 1, 0, 0],
                    [5, 2, 3, 1, 1],
                    [2, 1, 0, 1, 1]])

input = torch.reshape(input, (-1, 1, 5, 5))
print(input.shape)

池化层在神经网络中的使用

nn.MaxPool2d为例

torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)

ceil_mode默认为False,当为True时使用ceil模式,表示当池化核覆盖的输入图像超出边缘时保留池化操作;False时使用floor模式,表示不保留。(ceil表示向上取整,floor表示向下取整)

输入和输出的尺寸计算

代码实现

# 自定义输入
import torch
from torch import nn
from torch.nn import MaxPool2d

# 最大池化对long数据型不能实现,input中以为都是整数,所以需要进行类型转换,转换为浮点数,1->1.0
input= torch.tensor([[1, 2, 0, 3, 1],
                    [0, 1, 2, 3, 1],
                    [1, 2, 1, 0, 0],
                    [5, 2, 3, 1, 1],
                    [2, 1, 0, 1, 1]], dtype=torch.float32)

input = torch.reshape(input, (-1, 1, 5, 5))
print(input.shape)


class Basempool(nn.Module):
    def __init__(self):
        super(Basempool, self).__init__()
        self.maxpool1 = MaxPool2d(kernel_size=3, ceil_mode=False)

    def forward(self, input):
        output = self.maxpool1(input)
        return output

basempool = Basempool()
output = basempool(input)
print(output)

# 使用CIFAR 10数据集作为输入
import torch
import torchvision.datasets
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

dataset = torchvision.datasets.CIFAR10("./dataset2", train=False, download=True, transform=torchvision.transforms.ToTensor())

dataloader = DataLoader(dataset, batch_size=64)

class Basempool(nn.Module):
    def __init__(self):
        super(Basempool, self).__init__()
        self.maxpool1 = MaxPool2d(kernel_size=3, ceil_mode=False)

    def forward(self, input):
        output = self.maxpool1(input)
        return output

basempool = Basempool()

writer = SummaryWriter("logs")

step = 0
for data in dataloader:
    imgs, targets = data
    writer.add_images("maxpool_input", imgs, step)
    output = basempool(imgs)
    writer.add_images("maxpool_output", output, step)
    step = step + 1

writer.close()

标签:池化层,nn,self,torch,池化,import,input
From: https://www.cnblogs.com/yq-ydky/p/17632393.html

相关文章

  • 池化层——pytorch版
    importtorchfromtorchimportnnfromd2limporttorchasd2l#实现池化层的正向传播defpool2d(x,pool_size,mode='max'):#获取窗口大小p_h,p_w=pool_size#获取偏移量y=torch.zeros((x.shape[0]-p_h+1,x.shape[1]-p_w+1))foriinrange(y.sh......
  • TensorFlow10.2 卷积神经网络-卷积神经网络池化层与采样
    ▪Pooling▪upsample▪ReLU我们看一下这个Subsampling层就是这个:这一层起到ReduceDim的作用。1Max/Avgpooling(下采样)keras.layers.MaxPooling2D(pool_size=,strides=,padding='valid',data_format=None)pool_size:池化窗口大小strides:池化步长,默认值等于p......
  • 池化层
    目录1.二维最大池化层和平均池化层在二维卷积层里介绍的物体边缘检测,我们构造卷积核从而精确地找到了像素变化的位置。设任意二维数组\(X\)的\(i\)行\(j\)列的元素为\(X[i,j]\)。如果构造的卷积核输出\(Y[i,j]=1\),那么说明输入中\(X[i,j]\)和\(X[i,j+1]\)数值......
  • 深度学习基础课:最大池化层的后向传播推导
    大家好~本课程为“深度学习基础班”的线上课程,带领同学从0开始学习全连接和卷积神经网络,进行数学推导,并且实现可以运行的Demo程序线上课程资料:本节课录像回放加QQ群,获得......
  • 深度学习基础课:最大池化层的前向传播推导
    深度学习基础课:最大池化层的前向传播推导大家好~本课程为“深度学习基础班”的线上课程,带领同学从0开始学习全连接和卷积神经网络,进行数学推导,并且实现可以运行的Demo程序......
  • Pytorch----池化层(平均值池化、最大值池化、自适应最大值池化)--入门级小实例(逐行注
    文章目录​​最大值池化层​​​​平均值池化层​​​​自适应平均值池化层​​​​代码实现​​还是用上次的小实例,这次加入三种池化层做练习。关于池化层的基础概念可以......
  • Keras--池化层
    MaxPooling1D#keras.layers.MaxPooling1D(pool_size=2,strides=None,padding='valid')#缩小比例的因数#strides如果是None,那么默认值是pool_size。MaxPooling2D对......