目录
1. config.json
{
"train_batch_size": 4,
"steps_per_print": 2000,
"optimizer": {
"type": "Adam",
"params": {
"lr": 0.001,
"betas": [0.8, 0.999],
"eps": 1e-8,
"weight_decay": 3e-7
}
},
"scheduler": {
"type": "WarmupLR",
"params": {
"warmup_min_lr": 0,
"warmup_max_lr": 0.001,
"warmup_num_steps": 1000
}
},
"wall_clock_breakdown": false
}
2. main.py
import torch
import torchvision
# 用于构建神经网络模型
import torch.nn as nn
# 提供了各种神经网络层的函数版本,如激活函数、损失函数等
import torch.nn.functional as F
import argparse
import deepspeed
# 创建训练数据集
trainset = torchvision.datasets.CIFAR10(root='./data',
train=True,
download=True,
)
# 创建数据加载器,批量加载数据并处理数据加载的并行化
trainloader = torch.utils.data.DataLoader(trainset,
# 每个批次包含16张图像
batch_size=16,
# 在每次迭代开始时随机打乱训练数据的顺序,有助于模型训练
shuffle=True,
# 开启2个子进程来并行加载数据,提高效率
num_workers=2)
# 创建测试数据集
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
download=True,
)
testloader = torch.utils.data.DataLoader(testset,
batch_size=4,
# 测试数据通常不需要打乱顺序
shuffle=False,
num_workers=2)
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
# 卷积层1: 输入图像通道数为3 (例如RGB图像),输出6个特征图,卷积核大小为5x5
self.conv1 = nn.Conv2d(3, 6, 5)
# 最大池化层: 池化窗口大小为2x2,步长也为2
self.pool = nn.MaxPool2d(2, 2)
# 卷积层2: 接收上一层6个输入通道,输出16个特征图,卷积核大小为5x5
self.conv2 = nn.Conv2d(6, 16, 5)
# 全连接层1: 输入为16*5*5(假设输入图像大小为32x32,经过两次池化后得到的特征图大小)
self.fc1 = nn.Linear(16 * 5 * 5, 120)
# 全连接层2
self.fc2 = nn.Linear(120, 84)
# 输出层: 10个输出节点,对应于10个类别
self.fc3 = nn.Linear(84, 10)
def forward(self, x):
# 第一次卷积 + ReLU激活 + 池化
x = self.pool(F.relu(self.conv1(x)))
# 第二次卷积 + ReLU激活 + 池化
x = self.pool(F.relu(self.conv2(x)))
# 将特征图展平成一维向量
x = x.view(-1, 16 * 5 * 5)
# 第一个全连接层 + ReLU激活
x = F.relu(self.fc1(x))
# 第二个全连接层 + ReLU激活
x = F.relu(self.fc2(x))
# 输出层,没有激活函数
x = self.fc3(x)
return x
# 实例化网络模型
net = Net()
# 设置损失函数:多分类交叉熵损失函数,适用于监督学习中的分类任务
criterion = nn.CrossEntropyLoss()
def add_argument():
# 创建一个ArgumentParser对象,设置描述为"CIFAR"
parser = argparse.ArgumentParser(description='CIFAR')
# 设置训练时的批大小,默认值为32
parser.add_argument(
'-b', '--batch_size',
default=32,
type=int,
help='mini-batch size (default: 32)'
)
# 设置总的训练轮数,默认值为30
parser.add_argument(
'-e', '--epochs',
default=30,
type=int,
help='number of total epochs (default: 30)'
)
# 传递分布式训练中的排名,默认值为-1,表示未使用分布式训练
parser.add_argument(
'--local_rank',
type=int,
default=-1,
help='local rank passed from distributed launcher'
)
# 设置输出日志信息的间隔,默认值为2000,即每2000次迭代打印一次日志
parser.add_argument(
'--log-interval',
type=int,
default=2000,
help='output logging information at a given interval'
)
# 添加与DeepSpeed相关的配置参数
parser = deepspeed.add_config_arguments(parser)
# 解析命令行参数,返回一个Namespace对象,其中包含了所有定义的参数及其对应的值
args = parser.parse_args()
# 返回解析后的参数对象args,供后续的训练脚本使用
return args
# 调用之前定义的add_argument函数,解析命令行参数,并将结果存储在args变量中
args = add_argument()
# 创建Net类的实例
net = Net()
# 筛选出模型中需要梯度计算的参数
parameters = filter(lambda p: p.requires_grad, net.parameters())
# 使用deepspeed.initialize初始化模型引擎、优化器、数据加载器以及其他可能的组件
model_engine, optimizer, trainloader, _ = deepspeed.initialize(
args=args,
model=net,
model_parameters=parameters,
training_data=trainset
)
def train():
# 定义进行2个epoch的训练
for epoch in range(2):
running_loss = 0.0
# 对于每个epoch,遍历训练数据加载器trainloader中的每一个小批量数据
# 同时提供索引i和数据data
for i, data in enumerate(trainloader):
# 将输入数据inputs和标签labels移动到当前GPU设备上,
# 具体是哪个GPU由model_engine.local_rank决定,
# 这对于分布式训练非常重要,确保数据被正确地分配到各个参与训练的GPU上
inputs, labels = data[0].to(model_engine.local_rank), data[1].to(
model_engine.local_rank)
# 通过model_engine执行前向传播,计算模型预测输出
outputs = model_engine(inputs)
# 计算预测输出outputs与真实标签labels之间的损失
loss = criterion(outputs, labels)
# 反向传播计算梯度
model_engine.backward(loss)
# 更新模型参数
model_engine.step()
# 计算并累加每个小批量的损失值
running_loss += loss.item()
# 当达到args.log_interval指定的迭代次数时,打印平均损失值,
# 然后重置running_loss为0,以便计算下一个区间的平均损失
if i % args.log_interval == (args.log_interval - 1):
print(
f'[{epoch + 1}, {i + 1}] loss: {running_loss / args.log_interval:.3f}')
running_loss = 0.0
def test():
# 初始化计数器
# correct用于记录分类正确的样本数量
# total用于记录评估的总样本数
correct = 0
total = 0
# 上下文管理器,关闭梯度计算,
# 因为在验证阶段我们不需要计算梯度,这可以提高计算效率
with torch.no_grad():
# 遍历测试数据加载器testloader中的每个小批量数据
for data in testloader:
# 获取当前小批量数据的图像和标签
images, labels = data
# 在当前GPU上执行模型的前向传播
# 这里将图像数据移动到与模型相同的GPU上,然后通过模型得到预测输出
outputs = net(images.to(model_engine.local_rank))
# 找到每个样本的最大概率对应的类别
_, predicted = torch.max(outputs.data, 1)
# 增加总样本数,同时计算分类正确的样本数。
# 注意,这里将标签也移动到与模型相同的GPU上进行比较
total += labels.size(0)
correct += (predicted == labels.to(
model_engine.local_rank)).sum().item()
# 遍历完整个测试集后,计算并打印模型在测试集上的准确率
print('Accuracy of the network on the 10000 test images: %d %%' %
(100 * correct / total))
if __name__ == '__main__':
train()
test()
.env
export CUDA_VISIBLE_DEVICES="6,7,8,9"
3. start.sh
deepspeed main.py --deepspeed_config config.json
标签:engine,deepspeed,nn,--,demo,self,args,model,data
From: https://www.cnblogs.com/cavalier-chen/p/18539870