首页 > 其他分享 >PyTorch 基础篇(1):Pytorch 基础

PyTorch 基础篇(1):Pytorch 基础

时间:2024-01-08 16:34:49浏览次数:39  
标签:loss linear torch 基础 Pytorch PyTorch print grad tensor


Pytorch 学习开始
入门的材料来自两个地方:

第一个是官网教程:WELCOME TO PYTORCH TUTORIALS,特别是官网的六十分钟入门教程 DEEP LEARNING WITH PYTORCH: A 60 MINUTE BLITZ。

第二个是韩国大神 Yunjey Choi 的 Repo:pytorch-tutorial,代码写得干净整洁。

目的:我是直接把 Yunjey 的教程的 python 代码挪到 Jupyter Notebook 上来,一方面可以看到运行结果,另一方面可以添加注释和相关资料链接。方便后面查阅。

顺便一题,我的 Pytorch 的版本是 0.4.1


import torch
print(torch.version)

  1. 0.4.1


# 包
import torch 
import torchvision
import torch.nn as nn
import numpy as np
import torchvision.transforms as transforms

autograd(自动求导 / 求梯度) 基础案例 1


# 创建张量(tensors)
x = torch.tensor(1., requires_grad=True)
w = torch.tensor(2., requires_grad=True)
b = torch.tensor(3., requires_grad=True)
 
# 构建计算图( computational graph):前向计算
y = w * x + b    # y = 2 * x + 3
 
# 反向传播,计算梯度(gradients)
y.backward()
 
# 输出梯度
print(x.grad)    # x.grad = 2 
print(w.grad)    # w.grad = 1 
print(b.grad)    # b.grad = 1
 

 
 
tensor(2.)
tensor(1.)
tensor(1.)

autograd(自动求导 / 求梯度) 基础案例 2


# 创建大小为 (10, 3) 和 (10, 2)的张量.
x = torch.randn(10, 3)
y = torch.randn(10, 2)
 
# 构建全连接层(fully connected layer)
linear = nn.Linear(3, 2)
print ('w: ', linear.weight)
print ('b: ', linear.bias)
 
# 构建损失函数和优化器(loss function and optimizer)
# 损失函数使用均方差
# 优化器使用随机梯度下降,lr是learning rate
criterion = nn.MSELoss()
optimizer = torch.optim.SGD(linear.parameters(), lr=0.01)
 
# 前向传播
pred = linear(x)
 
# 计算损失
loss = criterion(pred, y)
print('loss: ', loss.item())
 
# 反向传播
loss.backward()
 
# 输出梯度
print ('dL/dw: ', linear.weight.grad) 
print ('dL/db: ', linear.bias.grad)
 
# 执行一步-梯度下降(1-step gradient descent)
optimizer.step()
 
# 更底层的实现方式是这样子的
# linear.weight.data.sub_(0.01 * linear.weight.grad.data)
# linear.bias.data.sub_(0.01 * linear.bias.grad.data)
 
# 进行一次梯度下降之后,输出新的预测损失
# loss的确变少了
pred = linear(x)
loss = criterion(pred, y)
print(‘loss after 1 step optimization: ‘, loss.item())

tensor([[ 0.5180,  0.2238, -0.5470],
        [ 0.1531,  0.2152, -0.4022]], requires_grad=True)
b:  Parameter containing:
tensor([-0.2110, -0.2629], requires_grad=True)
loss:  0.8057981729507446
dL/dw:  tensor([[-0.0315,  0.1169, -0.8623],
        [ 0.4858,  0.5005, -0.0223]])
dL/db:  tensor([0.1065, 0.0955])
loss after 1 step optimization:  0.7932316660881042

从 Numpy 装载数据


# 创建Numpy数组
x = np.array([[1, 2], [3, 4]])
print(x)
 
# 将numpy数组转换为torch的张量
y = torch.from_numpy(x)
print(y)
 
# 将torch的张量转换为numpy数组
z = y.numpy()
print(z)


[[1 2]
 [3 4]]
tensor([[1, 2],
        [3, 4]])
[[1 2]
 [3 4]]

输入工作流(Input pipeline)


# 下载和构造CIFAR-10 数据集
# Cifar-10数据集介绍:https://www.cs.toronto.edu/~kriz/cifar.html
train_dataset = torchvision.datasets.CIFAR10(root=’…/…/…/data/’,
                                             train=True, 
                                             transform=transforms.ToTensor(),
                                             download=True)
 
# 获取一组数据对(从磁盘中读取)
image, label = train_dataset[0]
print (image.size())
print (label)
 
# 数据加载器(提供了队列和线程的简单实现)
train_loader = torch.utils.data.DataLoader(dataset=train_dataset,
                                           batch_size=64, 
                                           shuffle=True)
 
# 迭代的使用
# 当迭代开始时,队列和线程开始从文件中加载数据
data_iter = iter(train_loader)
 
# 获取一组mini-batch
images, labels = data_iter.next()
 
 
# 正常的使用方式如下:
for images, labels in train_loader:
    # 在此处添加训练用的代码
    pass
 

 
 
Files already downloaded and verified
torch.Size([3, 32, 32])
6

自定义数据集的 Input pipeline


# 构建自定义数据集的方式如下:
class CustomDataset(torch.utils.data.Dataset):
    def init(self):
        # TODO
        # 1. 初始化文件路径或者文件名
        pass
    def getitem(self, index):
        # TODO
        # 1. 从文件中读取一份数据(比如使用nump.fromfile,PIL.Image.open)
        # 2. 预处理数据(比如使用 torchvision.Transform)
        # 3. 返回数据对(比如 image和label)
        pass
    def len(self):
        # 将0替换成数据集的总长度
        return 0 

# 然后就可以使用预置的数据加载器(data loader)了
custom_dataset = CustomDataset()
train_loader = torch.utils.data.DataLoader(dataset=custom_dataset,
                                           batch_size=64, 
                                           shuffle=True)
 
预训练模型
# 下载并加载预训练好的模型 ResNet-18
resnet = torchvision.models.resnet18(pretrained=True)
 
 
# 如果想要在模型仅对Top Layer进行微调的话,可以设置如下:
# requieres_grad设置为False的话,就不会进行梯度更新,就能保持原有的参数
for param in resnet.parameters():
    param.requires_grad = False    

# 替换TopLayer,只对这一层做微调
resnet.fc = nn.Linear(resnet.fc.in_features, 100)  # 100 is an example.
 
# 前向传播
images = torch.randn(64, 3, 224, 224)
outputs = resnet(images)
print (outputs.size())     # (64, 100)


torch.Size([64, 100])

保存和加载模型


# 保存和加载整个模型
torch.save(resnet, ‘model.ckpt’)
model = torch.load(‘model.ckpt’)
 
# 仅保存和加载模型的参数(推荐这个方式)
torch.save(resnet.state_dict(), ‘params.ckpt’)
resnet.load_state_dict(torch.load(‘params.ckpt’))

标签:loss,linear,torch,基础,Pytorch,PyTorch,print,grad,tensor
From: https://blog.51cto.com/u_14682436/9146737

相关文章

  • 第一章基础
    一、矩形建立1、直接法a=[1,2,3;4,5,6];%相同行是逗号,不同行分号或空格2、拼接法a=[1,2;3,4];b=[5,6;7,8];c=[a;b];%拼接矩阵是竖向相接的12345678c=[a,b];%拼接矩阵是横向相接的12563478总结:要将两个行向量A和B拼接成一个行向量C,可以使用以下语......
  • RNN的应用范围:从基础研究到实用技术
    1.背景介绍随着数据规模的不断增加,传统的机器学习模型已经无法满足需求。随着深度学习技术的发展,卷积神经网络(CNN)和循环神经网络(RNN)等模型逐渐成为主流。在图像处理、自然语言处理等领域取得了显著的成果。本文将从基础研究到实用技术的角度,探讨RNN的应用范围和挑战。1.1深度学习......
  • 大模型中,温度系数(temperature)的PyTorch和TensorFlow框架
    在大模型中,温度系数(temperature)通常用于调整模型的输出概率分布。温度系数的概念来源于物理学的热力学,它可以理解为一个“热度”值,用于控制模型的输出稀疏程度。温度系数越大,模型输出越倾向于给出较高的概率值,表现为“热情”;温度系数越小,模型输出越倾向于给出较低的概率值,表现为“......
  • javascript基础学习系列一:标识符
    一般来说,语言中的标识符可以分为两类,一类用于命名语法(以及类型),一类用于命名值(的存储位置)。前者被称为“语法关键字”,后者则被称为“变量”和“常量”。由此引入了一个概念:绑定。从标识符的角度来说,绑定分为语法关键字与语法(语义)逻辑的绑定,以及变量与它所存储值的位置的绑定......
  • 2023-2024-1 20231305 《计算机基础与程序设计》课程总结
    第1周作业https://www.cnblogs.com/zhen-meng/p/17740268.html第2周作业https://www.cnblogs.com/zhen-meng/p/17750180.html第3周作业https://www.cnblogs.com/zhen-meng/p/17765972.html第4周作业https://www.cnblogs.com/zhen-meng/p/17781309.html第5周作业https://www.cn......
  • 20231320 《计算机基础与程序设计》课程总结
    20231320《计算机基础与程序设计》课程总结每周作业链接汇总第0周:自我介绍第1周:第一周学习总结第2周:第二周学习总结第3周:第三周学习总结第4周:第四周学习总结第5周:第五周学习总结第6周:第六周学习总结第7周:第七周学习总结第8周:第八周学习总结第9周:第......
  • # yyds干货盘点 # 盘点一个AI都无法解决的Python基础题目(中篇)
    大家好,我是皮皮。一、前言前几天在Python白银交流群【大侠】问了一个Pandas实战的问题,一起来看看吧。上一篇文章说到,看上去AI给的答案,似乎让【大侠】不满意,遂来白银交流群问问大佬们。这一篇文章,我们一起来看看【瑜亮老师】给的代码。二、实现过程粉丝的原始数据中,还是有些乱的,比方......
  • CAN总线基础详解以及stm32的CAN控制器
    CAN简介CAN(ControllerAreaNetwork),是IOS国际标准化的串行通信协议。为了满足汽车产业的“减少线束的数量”、“通过多个LAN,进行大量数据的高速通信”的需求。CAN总线的发展史:低速CAN(ISO11519)通信速率10~125Kbps,总线长度可达1000米高速CAN(ISO11898)通信速率125Kbps~1Mbps,总......
  • 2023-2024-1 20231419 《计算机基础与程序设计》课程总结
    2023-2024-120231419《计算机基础与程序设计》课程总结每周作业链接汇总第零周:(自我介绍)第一周:第二周:第三周:第四周:第五周:第六周:第七周:第八周:第九周:第十周:第十一周:第十二周:第十三周:第十四周:实验gcc测试、gdb测试罗马数字转阿拉伯数字、BASE64编......
  • Exchange学习第二天:配置与基础管理
    在Exchange学习的第二天,我深入了解了Exchange的配置和管理。早上,我首先学习了Exchange的存储配置。存储配置是Exchange的关键部分,决定了邮件的存储和检索方式。我了解了不同类型的存储组和邮箱数据库,并学习了如何创建和管理它们。通过这些知识,我明白了如何配置Exchange以适应不同的......