首页 > 其他分享 >卷积神经网络(CNN)(中)

卷积神经网络(CNN)(中)

时间:2022-11-23 15:40:06浏览次数:48  
标签:nn 卷积 batch test 神经网络 train CNN data


4.GoogleNet

 

GoogleNet(也可称作Inception)是在2014年由Google DeepMind公式的研究员提出的一种全新的深度学习结构,并取得了ILSVRC2014比赛项目的第一名。GooleNet共有22层,并且没用全连接层,所以使用了更少的参数,在GooleNet前的AlexNet、VGG等结构,均通过增大网络的层数来获得更好的训练结果,但更深的层数同时会带来较多的负面效果,如过拟合、梯度消失、梯度爆炸等问题。

GoogleNet则是保证算力的情况下增大网络的深度和宽度,尤其是其提出的Inception模块。

在GoogleNet中前前几层是正常的卷积层,后面则全部用Inception堆叠而成。在文章Going Deeper with Convolutions中给出了两种结构的Inception模块,分别是简单的Inception模块和维度减少的Inception模块。和简单的Inception模块相比,维度减少的Inception模块在3*3卷积的前面、5*5卷积前面和池化层后面添加1*1卷积进行降维,从而使维度变得可控并减少计算量。

在GoogleNet中不仅提出了Inception模块,还在模块中添加了两个辅助分类器,起到增加低层网络的分类能力、防止梯度消失、增加网络正则化的作用。

在torchvision库的models模块中,已经包含了与训练好的GoogleNet模型,可以直接使用下面的程序进行调用:

import torchvision.models as models
googlenet=models.googlenet()

5.TextCNN

TextCNN是一种利用卷积神经网络进行自然语言处理的网络结构。

在网络结构中,针对一个句子的词嵌入使用一层卷积层进行文本信息的提取。在卷积操作时,使用高度为2,3,4的卷积核,每个卷积核有2个,共有6个卷积核,6个卷积核对输入的句子进行卷积操作后,会得到6个向量,对此6个向量(卷积后的输出)各取一个最大值进行池化,然后将6个最大值拼接为一个列向量,该列向量即为通过一层卷积操作从句子中提取到有用信息,并将其和分类器层连接后,即可组成TextCNN的网络结构。

针对使用卷积神经网络进行图像分类问题,下面将会使用Pytorch搭建一个类似LeNet-5的网络结构,用于Fashion——MNIST数据集的图像分类。

针对该问题的分析可以分为数据准备、模型建立以及使用训练集进行训练与使用测试集测试模型的效果。针对卷积网络的建立,将会分别建立常用的卷积神经网络与机遇空洞卷积的卷积神经网络。首先导入所需要的库和相关模块:

import numpy as np
import pandas as pd
from sklearn.metrics import accuracy_score,confusion_matrix,classification_report
import matplotlib.pyplot as plt
import seaborn as sns
import copy
import time
import torch
import torch.nn as nn
from torch.optim import Adam
import torch.utils.data as Data
from torchvision import transforms
from torchvision.datasets import FashionMNIST

在模型建立与训练之前,首先准备FashionMNIST数据集,该数据集可以直接使用torchvision库中datasets模块的FashionMNIST()的API函数读取,如果指定的工作文件夹中没有当前数据,可以从网络上自动下载该数据集,数据点准备程序如下所示:

train_data=FashionMNIST(
root="./data/FashionMNIST",
train=True,
transform=transforms.ToTensor(),
download=False
)
train_loader=Data.DataLoader(
dataset=train_data,
batch_size=64,
shuffle=False,
num_workers=2,
)
print("train_loader的batch数量为:",len(train_loader))

输出结果为:

卷积神经网络(CNN)(中)_pytorch

 上面的程序导入了训练数据集,然后使用Data.DataLoader()函数将其定义为数据加载器,每个batch中包含64个样本,通过len()函数可以计算书籍加载器中包含的batch数量,输出显示train_loader中包含938个batch。需要注意的是参数shuffle=False,表示加载器中每个batch使用的样本都是固定的,这样有利于在训练模型时根据迭代的次数将其切分为训练集和测试集。

为了观察数据集中每个图像的内容,可以获取一个batch的图像,然后将其可视化,以观察数据。获取数据并可视化的程序如下:

for step,(b_x,b_y) in enumerate(train_loader):
if step >0:
break
batch_x=b_x.squeeze().numpy()
batch_y=b_y.numpy()
class_label=train_data.classes
class_label[0]="T-shirt"
plt.figure(figsize=(12,5))
for ii in np.arange(len(batch_y)):
plt.subplot(4,16,ii+1)
plt.imshow(batch_x[ii,:,:],cmap=plt.cm.gray)
plt.title(class_label[batch_y[ii]],size=9)
plt.axis("off")
plt.subplots_adjust(wspace=0.05)
# plt.show()

运行结果如下:

卷积神经网络(CNN)(中)_深度学习_02

在对训练集进行处理后,虾米你对测试数据集进行处理。导入测试数据集后,将所有样本处理为一个整体,看做一个batch用于测试,可食用如下程序:

 

test_data=FashionMNIST(
root="./data/FashionMNIST",
train=False,
download=False
)
test_data_x=test_data.data.type(torch.FloatTensor)/255.0
test_data_x=torch.unsqueeze(test_data_x,dim=1)
test_data_y=test_data.targets
# print("test_data_x.shape:",test_data_x.shape)
# print("test_data_y.shape:",test_data_y.shape)

输出结果如下:

卷积神经网络(CNN)(中)_pytorch_03

上面程序同样食用FashionMNIST()函数导入测试数据集,并且将其处理为一个整体,从输出结果可发现测试集有10000张28*28的图像。

在数据准备完毕后,可以搭建一个卷积神经网络,并且使用训练数据对网络进行训练,使用测试集验证所搭建的网络的识别精度。针对搭建的卷积神经网络,可以使用下面的程序代码对卷积神经网络进行定义。 

class MyConvNet(nn.Module):
def __init__(self):
super(MyConvNet,self).__init__()
self.conv1=nn.Sequential(
nn.Conv2d(
in_channels=1,
out_channels=16,
kernel_size=3,
stride=1,
padding=1,

),
nn.ReLU(),
nn.AvgPool2d(
kernel_size=2,
stride=2,
),
)
self.conv2=nn.Sequential(
nn.Conv2d(16,32,3,1,0),
nn.ReLU(),
nn.AvgPool2d(2,2)
)
self.classifier=nn.Sequential(
nn.Linear(32*6*6,256),
nn.ReLU(),
nn.Linear(256,128),
nn.ReLU(),
nn.Linear(128,10)
)
def forward(self,x):
x=self.conv1(x)
x=self.conv2(x)
x=x.view(x.size(0),-1)
output=self.classifier(x)
return output
myconvnet=MyConvNet()
# print(myconvnet)

输出结果如下:

卷积神经网络(CNN)(中)_pytorch_04

上面程序中的类MyConvNet()通过nn.Sequential()、nn.Conv2d()、nn.ReLU()、等层,定义了一个拥有两个卷积层和三个全联机层的卷积神经网络分类器,并且在forward()函数中定义了数据在网络中的前向传播过程,然后使用myconvnet=MyConvNet()得到可用于学习的网络myconvnet。 

标签:nn,卷积,batch,test,神经网络,train,CNN,data
From: https://blog.51cto.com/u_15888443/5881357

相关文章

  • 全球名校AI课程库(41)| WUSTL · 深度神经网络应用全案例实操系列课程『Applications of
    <divalign=center><imgalt="T81-558;ApplicationsofDeepNeuralNetworks;深度神经网络应用案例实操"src="http://tva1.sinaimg.cn/large/0060yMmAly1h6wx48cg8hj31k......
  • RNN循环神经网络 、LSTM长短期记忆网络实现时间序列长期利率预测|附代码数据
    全文链接:http://tecdat.cn/?p=251332017年年中,R推出了Keras包 _,_这是一个在Tensorflow之上运行的综合库,具有CPU和GPU功能本文将演示如何在R中使用LSTM实......
  • 从LeNet-5看懂卷积神经网络结构
    LeNet-5出自论文Gradient-BasedLearningAppliedtoDocumentRecognition,是一种用于手写体字符识别的非常高效的卷积神经网络。论文下载一、卷积神经网络(ConvolutionalN......
  • 深度学习基础课程: 深度神经网络
    正文介绍在这节课中,我们将看到我们如何构建能够学习复杂关系的神经网络——深层神经网络以其著名。这里的关键思想是模块化,从简单的功能单元构建一个复杂的网络。我们已......
  • 实验四:神经网络算法实验
    【实验目的】理解神经网络原理,掌握神经网络前向推理和后向传播方法;掌握神经网络模型的编程实现方法。【实验内容】1.1981年生物学家格若根(W.Grogan)和维什(W.Wirth)发现了......
  • 实验四:神经网络算法实验
    【实验目的】理解神经网络原理,掌握神经网络前向推理和后向传播方法;掌握神经网络模型的编程实现方法。【实验内容】1.1981年生物学家格若根(W.Grogan)和维什(W.Wirth)发现了......
  • 实验四:神经网络算法实验
    importnumpyasnpdefsigmoid(x):return1/(1+np.exp(-x))#f(x)=1/(1+exp(-x))defderiv_sigmoid(x):fx=sigmoid(x)returnfx*(1-fx)#f'(x)=f(x)*(1-f(......
  • 实验四:神经网络算法实验
    【实验目的】理解神经网络原理,掌握神经网络前向推理和后向传播方法;掌握神经网络模型的编程实现方法。【实验内容】1.1981年生物学家格若根(W.Grogan)和维什(W.Wirth)发现了......
  • 实验四:神经网络算法实验
    【实验目的】理解神经网络原理,掌握神经网络前向推理和后向传播方法;掌握神经网络模型的编程实现方法。【实验内容】1.1981年生物学家格若根(W.Grogan)和维什(W.Wirth)发现了......
  • 实验四:神经网络算法实验
    【实验目的】理解神经网络原理,掌握神经网络前向推理和后向传播方法;掌握神经网络模型的编程实现方法。【实验内容】1.1981年生物学家格若根(W.Grogan)和维什(W.Wirth)发现......