多GPU后台分布式训练:
# 后台从头训练 不要忘记 & 后面加上&符号,可以使得我们就算关掉了session连接,远程服务器也可以保持训练任务的运行。
nohup python -m torch.distributed.launch --nproc_per_node 2 --master_port 9527 train.py --workers 16 --device 0,1 --sync-bn --batch-size 128 &
# 后台恢复训练
nohup python -m torch.distributed.launch --nproc_per_node 2 --master_port 9527 train.py --workers 16 --device 0,1 --sync-bn --batch-size 128 --resume &
标签:YOLOv7,训练,--,torch,sync,命令,device,后台
From: https://www.cnblogs.com/odesey/p/16647265.html