首页 > 其他分享 >Pytorch | Tutorial-07 保存和加载模型

Pytorch | Tutorial-07 保存和加载模型

时间:2024-03-20 20:00:29浏览次数:21  
标签:kernel 07 inplace padding stride Pytorch True Tutorial size

这是对 Pytorch 官网的 Tutorial 教程的中文翻译。

在本节中,我们将了解如何通过保存、加载和运行模型预测来持久保存模型状态。

import torch
import torchvision.models as models

保存和加载模型权重

PyTorch 模型将学习到的参数存储在内部状态字典中,称为 state_dict 。这些可以通过 torch.save 方法保存:

model = models.vgg16(weights='IMAGENET1K_V1')
torch.save(model.state_dict(), 'model_weights.pth')
Downloading: "https://download.pytorch.org/models/vgg16-397923af.pth" to /var/lib/jenkins/.cache/torch/hub/checkpoints/vgg16-397923af.pth

  0%|          | 0.00/528M [00:00<?, ?B/s]
  2%|2         | 12.7M/528M [00:00<00:04, 133MB/s]
  5%|5         | 26.8M/528M [00:00<00:03, 142MB/s]
  8%|7         | 40.9M/528M [00:00<00:03, 145MB/s]
 10%|#         | 55.0M/528M [00:00<00:03, 146MB/s]
 13%|#3        | 69.1M/528M [00:00<00:03, 147MB/s]
 16%|#5        | 83.3M/528M [00:00<00:03, 147MB/s]
 18%|#8        | 97.4M/528M [00:00<00:03, 148MB/s]
 21%|##1       | 112M/528M [00:00<00:02, 148MB/s]
 24%|##3       | 126M/528M [00:00<00:02, 148MB/s]
 26%|##6       | 140M/528M [00:01<00:02, 148MB/s]
 29%|##9       | 154M/528M [00:01<00:02, 148MB/s]
 32%|###1      | 168M/528M [00:01<00:02, 148MB/s]
 35%|###4      | 182M/528M [00:01<00:02, 148MB/s]
 37%|###7      | 196M/528M [00:01<00:02, 148MB/s]
 40%|###9      | 211M/528M [00:01<00:02, 148MB/s]
 43%|####2     | 225M/528M [00:01<00:02, 148MB/s]
 45%|####5     | 239M/528M [00:01<00:02, 148MB/s]
 48%|####7     | 253M/528M [00:01<00:01, 148MB/s]
 51%|#####     | 267M/528M [00:01<00:01, 148MB/s]
 53%|#####3    | 281M/528M [00:02<00:01, 148MB/s]
 56%|#####5    | 295M/528M [00:02<00:01, 148MB/s]
 59%|#####8    | 309M/528M [00:02<00:01, 148MB/s]
 61%|######1   | 324M/528M [00:02<00:01, 148MB/s]
 64%|######3   | 338M/528M [00:02<00:01, 148MB/s]
 67%|######6   | 352M/528M [00:02<00:01, 148MB/s]
 69%|######9   | 366M/528M [00:02<00:01, 148MB/s]
 72%|#######2  | 380M/528M [00:02<00:01, 148MB/s]
 75%|#######4  | 394M/528M [00:02<00:00, 148MB/s]
 77%|#######7  | 408M/528M [00:02<00:00, 148MB/s]
 80%|########  | 423M/528M [00:03<00:00, 148MB/s]
 83%|########2 | 437M/528M [00:03<00:00, 148MB/s]
 85%|########5 | 451M/528M [00:03<00:00, 148MB/s]
 88%|########8 | 465M/528M [00:03<00:00, 148MB/s]
 91%|######### | 479M/528M [00:03<00:00, 142MB/s]
 93%|#########3| 493M/528M [00:03<00:00, 143MB/s]
 96%|#########6| 507M/528M [00:03<00:00, 144MB/s]
 99%|#########8| 521M/528M [00:03<00:00, 146MB/s]
100%|##########| 528M/528M [00:03<00:00, 147MB/s]

要加载模型权重,您需要先创建同一模型的实例,然后使用 load_state_dict() 方法加载参数。

model = models.vgg16() # we do not specify ``weights``, i.e. create untrained model
model.load_state_dict(torch.load('model_weights.pth'))
model.eval()
VGG(
  (features): Sequential(
    (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (1): ReLU(inplace=True)
    (2): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (3): ReLU(inplace=True)
    (4): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    (5): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (6): ReLU(inplace=True)
    (7): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (8): ReLU(inplace=True)
    (9): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    (10): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (11): ReLU(inplace=True)
    (12): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (13): ReLU(inplace=True)
    (14): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (15): ReLU(inplace=True)
    (16): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    (17): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (18): ReLU(inplace=True)
    (19): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (20): ReLU(inplace=True)
    (21): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (22): ReLU(inplace=True)
    (23): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    (24): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (25): ReLU(inplace=True)
    (26): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (27): ReLU(inplace=True)
    (28): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (29): ReLU(inplace=True)
    (30): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
  )
  (avgpool): AdaptiveAvgPool2d(output_size=(7, 7))
  (classifier): Sequential(
    (0): Linear(in_features=25088, out_features=4096, bias=True)
    (1): ReLU(inplace=True)
    (2): Dropout(p=0.5, inplace=False)
    (3): Linear(in_features=4096, out_features=4096, bias=True)
    (4): ReLU(inplace=True)
    (5): Dropout(p=0.5, inplace=False)
    (6): Linear(in_features=4096, out_features=1000, bias=True)
  )
)

请务必在推理之前调用 model.eval() 方法,将 dropout 和批量归一化层设置为评估模式。如果不这样做将会产生不一致的推理结果。

保存和加载带有形状的模型

加载模型权重时,我们需要首先实例化模型类,因为该类定义了网络的结构。我们可能希望将此类的结构与模型一起保存,在这种情况下,我们可以将 model (而不是 model.state_dict() )传递给保存函数:

torch.save(model, 'model.pth')

然后我们可以像这样加载模型:

model = torch.load('model.pth')

此方法在序列化模型时使用 Python pickle 模块,因此它依赖于加载模型时实际可用的类的定义。

标签:kernel,07,inplace,padding,stride,Pytorch,True,Tutorial,size
From: https://www.cnblogs.com/shaojunjie0912/p/18085959

相关文章

  • Pytorch | Tutorial-06 优化模型参数
    这是对Pytorch官网的Tutorial教程的中文翻译。现在我们有了模型和数据,是时候通过优化模型参数来训练、验证和测试我们的模型了。训练模型是一个迭代过程,在每次迭代中,模型都会对输出进行预测,计算其预测的误差(损失),保存误差相对于其参数的导数,并使用梯度下降优化这些参数。有......
  • Pytorch | Tutorial-05 autograd 自动微分
    这是对Pytorch官网的Tutorial教程的中文翻译。在训练神经网络时,最常用的算法是反向传播。在该算法中,根据损失函数相对于给定参数的梯度来调整参数(模型权重)。为了计算这些梯度,PyTorch有一个名为 torch.autograd 的内置微分引擎。它能自动计算任何计算图的梯度。考虑最......
  • Pytorch | Tutorial-03 数据转换
    这是对Pytorch官网的Tutorial教程的中文翻译。数据并不总是以训练机器学习算法所需的最终处理形式出现,我们使用转换来对数据执行一些操作并使其适合训练。所有TorchVision数据集都有两个参数:用于修改特征的 transform 和用于修改标签的 target_transform。接受包......
  • Pytorch | Tutorial-04 构建神经网络模型
    这是对Pytorch官网的Tutorial教程的中文翻译。神经网络由对数据执行操作的层/模块组成。torch.nn命名空间提供了构建您自己的神经网络所需的所有构建块。PyTorch中的每个模块都是nn.Module的子类。神经网络本身就是一个模块,由其他模块(层)组成。这种嵌套结构允许轻松构......
  • 前端学习-vue学习007-计算属性+Class 与 Style 绑定
    官方教程链接Class与Style绑定Vue专门为class和style的v-bind用法提供了特殊的功能增强<span:class="{done:item.done}">{{item.text}}</span>如果item.done是true,以上代码实际为<span:class="done">{{item.text}}</span>如果item.done是false,......
  • Pytorch | Tutorial-01 张量
    Tensors张量张量是一种特殊的数据结构,与数组和矩阵非常相似。在PyTorch中,我们使用张量对模型的输入和输出以及模型的参数进行编码。张量与NumPy的ndarray类似,不同之处在于张量可以在GPU或其他硬件加速器上运行。事实上,张量和NumPy数组通常可以共享相同的底层内存,从而......
  • 07 - Debian如何分区、格式化与挂载磁盘
    作者:网络傅老师特别提示:未经作者允许,不得转载任何内容。违者必究!Debian如何分区、格式化与挂载磁盘《傅老师Debian小知识库系列之07》——原创==前言==傅老师Debian小知识库特点:1、最小化拆解Debian实用技能;2、所有操作在VM虚拟机实测完成;3、致力于最终形成Debian小......
  • [HAOI2007][洛谷P2218]覆盖问题
    看到这道题,思考一下后发现要用二分答案。所以为什么要用二分?因为标签有二分还在二分专题里因为对于\(ans\)来说,如果\(ans\)不行,那么\(ans-1\)也一定不行;也就是说,答案满足单调性,所以可以二分;也是因为暴力明显过不了那么对于平面上的一些点来说,如果我们用一个最小的矩形......
  • 07图形化界面和命令行界面操作
    Linux安装后无界面解决办法https://zhuanlan.zhihu.com/p/544981294Linux命令行模式和图形化模式切换查看当前运行模式systemctlget-default如果显示graphical.target表示开机启动图形化界面如果显示multi-user.target表示开机启动命令行界面设置默认启动模式//设......
  • 070_机器学习搭建环境
    目录机器学习基础环境安装与使用库的安装jupyternotebook使用机器学习基础环境安装与使用库的安装jupyternotebook使用......