首页 > 其他分享 >模型的训练套路

模型的训练套路

时间:2024-08-29 15:57:29浏览次数:6  
标签:loss 训练 套路 模型 train test total data myModel

1. 模型训练步骤

1. 创建网络模型

class myModule(nn.Module):
    def __init__(self):
        super(myModule, self).__init__()
        self.module1 = Sequential(
            Conv2d(3, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 64, 5, padding=2),
            MaxPool2d(2),

            Flatten(),  # 展平
            Linear(1024, 64),
            Linear(64, 10)
        )

    def forward(self,x):
        x = self.module1(x)
        return x
# 测试 模型是否正常 运行
if __name__ == '__main__':
    mymodel  = myModule()
    input =  torch.ones((64,3,32,32))
    output = mymodel(input)
    print(output.shape)

2. 加载数据集

train_data = torchvision.datasets.CIFAR10("../TorchVersion/dataset",train=True,transform=torchvision.transforms.ToTensor(),
                                          download=True)
test_data = torchvision.datasets.CIFAR10("../TorchVersion/dataset",train=False,transform=torchvision.transforms.ToTensor(),
                                          download=True)

# 长度
train_data_size = len(train_data)
test_data_size = len(test_data)
# 训练数据集的长度为:50000
# 测试数据集的长度为:10000
print("训练数据集的长度为:{}".format(train_data_size))
print("测试数据集的长度为:{}".format(test_data_size))

# 利用 dataloader 来加载数据集
train_dataloader = DataLoader(train_data,batch_size=64)
test_dataloader = DataLoader(test_data,batch_size=64)

3. 导入网络模型

from myModel import *  # 导入自己的模型
# 创建网络模型
myModel = myModule()

4. 创建损失函数与优化器

# 损失函数  -- 因为是 图像分类,故使用该函数
loos_fn = nn.CrossEntropyLoss()

# 优化器
learning_rate = 1e-2
optimizer = torch.optim.SGD(myModel.parameters(),lr=learning_rate)

5. 设置一些训练参数

# 设置训练网络的一些参数
total_train_step = 0
# 记录测试的次数
total_test = 0
# 训练的轮数
epoch = 10

# 添加 tensorboard
writer = SummaryWriter("logs")

6. 使用训练集训练

 # 训练步骤开始
    myModel.train()
    for data in train_dataloader:
        imgs, targets = data
        outputs = myModel(imgs)
        loss = loos_fn(outputs,targets)

        # 优化器优化模型
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        total_train_step = total_train_step + 1
        if total_train_step % 100 == 0:
            print("训练次数: {}, Loss: {}".format(total_train_step, loss.item()))
            writer.add_scalar("train_loss",loss.item(),total_train_step)

7. 使用测试集测试

 # 测试步骤开始
    myModel.eval()
    total_test_loss = 0   # 整体测试损失值
    total_accuracy = 0    # 总体 正确率
    with torch.no_grad():   #  在 测试时,一定要这样 用
        for data in test_dataloader:
            imgs, targets = data
            outputs = myModel(imgs)
            loss = loos_fn(outputs,targets)
            total_test_loss = total_test_loss + loss.item()

            accuracy = (outputs.argmax(1) == targets).sum()
            total_accuracy  = total_accuracy + accuracy

    print("整体测试集上的Loss: {}".format(total_test_loss))
    print("整体测试集上的正确率: {}".format(total_accuracy/test_data_size))
    writer.add_scalar("test_loss",total_test_loss,i)
    writer.add_scalar("test_acc",total_accuracy/test_data_size,i)

8. 每轮训练之后保存模型

    # 保存 模型的参数数据
    torch.save(myModel.state_dict(),"myModel_训练后得到的参数_{}.pth".format(i))
    print("模型已经成功保存")

2. 注意事项

  1. 注意使用优化器优化模型时的操作
  2. 注意 获取测试结果的 正确率 acc
  3. 在 训练之前 应该使用:myModel.train(), 在测试之前使用:myModel.eval()
  4. 在 测试时 使用:
    with torch.no_grad():   #  在 测试时,一定要这样 ,避免梯度
  5. 如果使用的 GPU 上训练的模型,最后想要在 cpu 上运行,则:
        torch.load("vgg_saveModel2.pth",map_location=torch.device("cpu"))

3. 全部代码

myModel.py

import torch
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential

class myModule(nn.Module):
    def __init__(self):
        super(myModule, self).__init__()
        self.module1 = Sequential(
            Conv2d(3, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 64, 5, padding=2),
            MaxPool2d(2),

            Flatten(),  # 展平
            Linear(1024, 64),
            Linear(64, 10)
        )

    def forward(self,x):
        x = self.module1(x)
        return x

# 测试 模型是否正常 运行
if __name__ == '__main__':
    mymodel  = myModule()
    input =  torch.ones((64,3,32,32))
    output = mymodel(input)
    print(output.shape)

训练与测试文件

import torch
import torchvision
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

from myModel import *  # 导入自己的模型

train_data = torchvision.datasets.CIFAR10("../TorchVersion/dataset",train=True,transform=torchvision.transforms.ToTensor(),
                                          download=True)
test_data = torchvision.datasets.CIFAR10("../TorchVersion/dataset",train=False,transform=torchvision.transforms.ToTensor(),
                                          download=True)

# 长度
train_data_size = len(train_data)
test_data_size = len(test_data)
# 训练数据集的长度为:50000
# 测试数据集的长度为:10000
print("训练数据集的长度为:{}".format(train_data_size))
print("测试数据集的长度为:{}".format(test_data_size))

# 利用 dataloader 来加载数据集
train_dataloader = DataLoader(train_data,batch_size=64)
test_dataloader = DataLoader(test_data,batch_size=64)

# 创建网络模型
myModel = myModule()

# 损失函数  -- 因为是 图像分类,故使用该函数
loos_fn = nn.CrossEntropyLoss()

# 优化器
learning_rate = 1e-2
optimizer = torch.optim.SGD(myModel.parameters(),lr=learning_rate)

# 设置训练网络的一些参数
total_train_step = 0
# 记录测试的次数
total_test = 0
# 训练的轮数
epoch = 10

# 添加 tensorboard
writer = SummaryWriter("logs")

for i in range(epoch):
    print("---------第 {} 轮训练开始---------".format(i+1))

    # 训练步骤开始
    myModel.train()
    for data in train_dataloader:
        imgs, targets = data
        outputs = myModel(imgs)
        loss = loos_fn(outputs,targets)

        # 优化器优化模型
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        total_train_step = total_train_step + 1
        if total_train_step % 100 == 0:
            print("训练次数: {}, Loss: {}".format(total_train_step, loss.item()))
            writer.add_scalar("train_loss",loss.item(),total_train_step)

    # 测试步骤开始
    myModel.eval()
    total_test_loss = 0   # 整体测试损失值
    total_accuracy = 0    # 总体 正确率
    with torch.no_grad():   #  在 测试时,一定要这样 用
        for data in test_dataloader:
            imgs, targets = data
            outputs = myModel(imgs)
            loss = loos_fn(outputs,targets)
            total_test_loss = total_test_loss + loss.item()

            accuracy = (outputs.argmax(1) == targets).sum()
            total_accuracy  = total_accuracy + accuracy

    print("整体测试集上的Loss: {}".format(total_test_loss))
    print("整体测试集上的正确率: {}".format(total_accuracy/test_data_size))
    writer.add_scalar("test_loss",total_test_loss,i)
    writer.add_scalar("test_acc",total_accuracy/test_data_size,i)


    # 保存 模型的参数数据
    torch.save(myModel.state_dict(),"myModel_训练后得到的参数_{}.pth".format(i))
    print("模型已经成功保存")
writer.close()

4. 实验结果

 

5. 使用 CUDA

可以使用 CUDA 的数据:

        1. 网络模型

        2. 损失函数

        3. dataloader 加载后的数据

1. 方式一

 在对应的 地方,添加该代码:

if torch.cuda.is_available():
    myModel = myModel.cuda()

if torch.cuda.is_available():
    loos_fn = loos_fn.cuda()

# 在测试集与训练集中加载该数据

if torch.cuda.is_available():
     imgs = imgs.cuda()
     targets = targets.cuda()

2. 方式二

       1. 网络模型     --- 无需重新赋值

        2. 损失函数       --- 无需重新赋值

        3. dataloader 加载后的数据   --- 需重新赋值

# 定义 使用的 设备
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")


#    --- 无需重新赋值
myModel.to(device)
loos_fn.to(device)


#--- 需重新赋值
imgs = imgs.to(device)
targets = targets.to(device)

 3. 使用 cuda 后的版本

import torch
import torchvision
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

from myModel import *  # 导入自己的模型

# 定义 使用的 设备
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

train_data = torchvision.datasets.CIFAR10("../TorchVersion/dataset",train=True,transform=torchvision.transforms.ToTensor(),
                                          download=True)
test_data = torchvision.datasets.CIFAR10("../TorchVersion/dataset",train=False,transform=torchvision.transforms.ToTensor(),
                                          download=True)

# 长度
train_data_size = len(train_data)
test_data_size = len(test_data)
# 训练数据集的长度为:50000
# 测试数据集的长度为:10000
print("训练数据集的长度为:{}".format(train_data_size))
print("测试数据集的长度为:{}".format(test_data_size))

# 利用 dataloader 来加载数据集
train_dataloader = DataLoader(train_data,batch_size=64)
test_dataloader = DataLoader(test_data,batch_size=64)

class myModule(nn.Module):
    def __init__(self):
        super(myModule, self).__init__()
        self.module1 = Sequential(
            Conv2d(3, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 64, 5, padding=2),
            MaxPool2d(2),

            Flatten(),  # 展平
            Linear(1024, 64),
            Linear(64, 10)
        )

    def forward(self,x):
        x = self.module1(x)
        return x
# 创建网络模型
myModel = myModule()
myModel.to(device)

# 损失函数  -- 因为是 图像分类,故使用该函数
loos_fn = nn.CrossEntropyLoss()
loos_fn.to(device)

# 优化器
learning_rate = 1e-2
optimizer = torch.optim.SGD(myModel.parameters(),lr=learning_rate)

# 设置训练网络的一些参数
total_train_step = 0
# 记录测试的次数
total_test = 0
# 训练的轮数
epoch = 10

# 添加 tensorboard
writer = SummaryWriter("logs")

for i in range(epoch):
    print("---------第 {} 轮训练开始---------".format(i+1))

    # 训练步骤开始
    myModel.train()
    for data in train_dataloader:
        imgs, targets = data

        imgs = imgs.to(device)
        targets = targets.to(device)

        outputs = myModel(imgs)
        loss = loos_fn(outputs,targets)

        # 优化器优化模型
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        total_train_step = total_train_step + 1
        if total_train_step % 100 == 0:
            print("训练次数: {}, Loss: {}".format(total_train_step, loss.item()))
            writer.add_scalar("train_loss",loss.item(),total_train_step)

    # 测试步骤开始
    myModel.eval()
    total_test_loss = 0   # 整体测试损失值
    total_accuracy = 0    # 总体 正确率
    with torch.no_grad():   #  在 测试时,一定要这样 用
        for data in test_dataloader:
            imgs, targets = data

            imgs = imgs.to(device)
            targets = targets.to(device)

            outputs = myModel(imgs)
            loss = loos_fn(outputs,targets)
            total_test_loss = total_test_loss + loss.item()

            accuracy = (outputs.argmax(1) == targets).sum()
            total_accuracy  = total_accuracy + accuracy

    print("整体测试集上的Loss: {}".format(total_test_loss))
    print("整体测试集上的正确率: {}".format(total_accuracy/test_data_size))
    writer.add_scalar("test_loss",total_test_loss,i)
    writer.add_scalar("test_acc",total_accuracy/test_data_size,i)


    # 保存 模型的参数数据
    torch.save(myModel.state_dict(),"myModel_训练后得到的参数_{}.pth".format(i))
    print("模型已经成功保存")
writer.close()


标签:loss,训练,套路,模型,train,test,total,data,myModel
From: https://blog.csdn.net/SILVERCROWNAGE/article/details/141432661

相关文章

  • Spark MLlib模型训练—回归算法 Decision tree regression
    SparkMLlib模型训练—回归算法Decisiontreeregression在机器学习中,决策树是一种常用且直观的模型,广泛应用于分类和回归任务。决策树回归(DecisionTreeRegression)通过将数据集分割成多个区域,构建一棵树形结构,以预测目标变量的连续值。本文将详细探讨Spark中的决......
  • Spark MLlib模型训练—回归算法 GLR( Generalized Linear Regression)
    SparkMLlib模型训练—回归算法GLR(GeneralizedLinearRegression)在大数据分析中,线性回归虽然常用,但在许多实际场景中,目标变量和特征之间的关系并非线性,这时广义线性回归(GeneralizedLinearRegression,GLR)便应运而生。GLR是线性回归的扩展,能够处理非正态分布的目标......
  • 临床预测模型影响力研究之预测糖化血红蛋白
    临床预测模型影响力研究之预测糖化血红蛋白越简单的模型可能越容易进入临床实践。模型特点回归模型,预测糖化血红蛋白浓度;后续措施,研究医生根据每月自我监测的血糖记录/糖化白蛋白和预测的HbA1c来调整患者的降糖治疗。研究介绍由于HbA1c每3个月测量一次,因此每月将自我监......
  • YOLOv5—6.1训练好的模型之后进行模型部署
    将YOLOv5训练好的模型进行部署,通常包括以下步骤:模型导出、推理部署、并在实际应用中使用。下面详细介绍如何进行这些步骤。1.模型导出首先,你需要将YOLOv5的PyTorch模型导出为适合部署的格式。YOLOv5支持导出为多种格式,包括'torchscript','onnx','openvino','engin......
  • 深入浅出LLamaSharp:打造智能.NET应用,不需GPU也能玩转LLaMA模型
            在如今的.NET社区中,机器学习和人工智能的应用越来越普遍。今天我要给大家推荐一个名叫LLamaSharp的开源项目。这是llama.cpp的C#/.NET绑定,提供了高级的API,使得我们能在本地设备上使用C#/.NET推理LLaMA模型,并且部署它。        LLamaSharp支持在Windo......
  • 训练yolov5时出现报错:AttributeError: ‘FreeTypeFont‘ object has no attribute ‘g
    报错:Traceback(mostrecentcalllast):File"D:\anaconda3_xz\envs\luopytorch\lib\threading.py",line932,in_bootstrap_innerself.run()File"D:\anaconda3_xz\envs\luopytorch\lib\threading.py",line870,inrunself._target(*s......
  • win10 yolov8 训练问题集锦
    1.win10cmd命令行训练 要先激活虚拟环境,命令如下:D:cdD:\\ultralytics-main\\venv\\Scriptsactivate.batcd..\\..yolotraindata=D:\\ultralytics-main\\datasets\\zmbh.yamlmodel=D:\\ultralytics-main\\yolov8mepochs=5000imgsz=640batch=2workers=......
  • 好用的国内中文大模型
    文章目录1、[文心一言](https://yiyan.baidu.com/)2、[豆包](https://www.doubao.com/)3、[通义](https://tongyi.aliyun.com/qianwen/)4、[腾讯元宝](https://yuanbao.tencent.com/chat)5、[360智脑](https://chat.360.com/chat)6、[讯飞星火](https://passport.xfyun.c......
  • 35岁零基础能转型AI大模型吗?
    以下从3个方面帮大家分析:35岁转行会不会太晚?零基础学习AI大模型开发能不能学会?AI大模型开发行业前景如何,学完后能不能找到好工作?一、35岁转行会不会太晚?35岁正处于人生的黄金时期,拥有足够的精力去学习新技能和挑战自我。尽管可能在某些领域已有一定的工作经验,但这个年龄......
  • 错误处理、cuda模型、GPU架构杂谈
    错误处理、cuda模型、GPU架构杂谈错误处理所有编程都需要对错误进行处理,早起的编码错误,编译器会帮搞定,内存错误也能观察出来,但是有些逻辑错误很难发现,甚至到了上线运行时才会被发现,而且有些厉害的bug复现会很难,不总出现,但是很致命,而且CUDA基本都是异步执行的,当错误出现的时候,不......