首页 > 其他分享 >NiceGAN环境搭建 ——模型训练有效教程——【一文读懂】

NiceGAN环境搭建 ——模型训练有效教程——【一文读懂】

时间:2022-12-11 12:34:00浏览次数:37  
标签:NiceGAN loss 教程 训练 -- light dataset 读懂 horse2zebra

❤️【深度学习入门项目】❤️ 之 【风格迁移】 初识 | ????学会【对抗训练】,你和红颜便不会再有尴尬????

❤️ 【带你了解】❤️

  • ❤️ 风格迁移 ========》一键换装
  • ???? 人生多一点尝试 ===》画风突变

???? 基础信息


  • Reusing Discriminators for Encoding: Towards Unsupervised Image-to-Image Translation
  • 《重用判别器进行编码:实现无监督的图像到图像翻译》
  • ​​arxiv.org/pdf/2003.00…​​
  • ​​论文精简翻译​​
  • ​​官方 PyTorch 实现 -- https://github.com/alpc91/NICE-GAN-pytorch​​

???? git 官方 环境依赖如下:


​​gitHub 官方​​

NiceGAN环境搭建 ——模型训练有效教程——【一文读懂】_人工智能


???? 环境搭建


  • 服务器:ubuntu1~18.04 Quadro RTX 5000 16G
  • CUDA版本 V10.0.130
conda create -n nice python=3.6.9

conda activate nice

pip install torch==1.1.0

pip install torchvision==0.3.0
或者(建议使用 conda 来安装)
conda install pytorch==1.1.0 torchvision==0.3.0 cudatoolkit=10.0 -c pytorch

pip install pillow==5.2.0

pip install opencv-python

pip install scipy
pip install thop

???? 项目结构


git clone https://github.com/alpc91/NICE-GAN-pytorch.git

cd NICE-GAN-pytorch

cd dataset/

???? 加入数据集

NiceGAN环境搭建 ——模型训练有效教程——【一文读懂】_数据集_02

???? 训练参数设置

NiceGAN环境搭建 ——模型训练有效教程——【一文读懂】_python_03


???? 训练和测试


???? Train

# 显卡16G不够用,所以设置  --light True 

python main.py --dataset horse2zebra --light True

# 指定多卡训练的方式如下

CUDA_VISIBLE_DEVICES=2,3 python main.py --dataset horse2zebra --light True

# nohup 把训练进程放到后台

nohup python main.py --dataset horse2zebra --light True &

90分钟 训练 5000 个epoch ,训练效果如下

NiceGAN环境搭建 ——模型训练有效教程——【一文读懂】_python_04

???? Test

python main.py --dataset horse2zebra --phase test  --light True

测试运行输出如下

python main.py --dataset horse2zebra --phase test  --light True

# 测试运行输出如下

number of epochs must be larger than or equal to one

##### Information #####
# light : True
# dataset : horse2zebra
# batch_size : 1
# iteration per epoch : 300000
# the size of image : 256
# the size of image channel : 3
# base channel number per layer : 64

##### Generator #####
# residual blocks : 6

##### Discriminator #####
# discriminator layers : 7

##### Weight #####
# adv_weight : 1
# cycle_weight : 10
# recon_weight : 10
-----------------------------------------------
[INFO] Register count_linear() for <class 'torch.nn.modules.linear.Linear'>.
[INFO] Register count_convNd() for <class 'torch.nn.modules.conv.Conv2d'>.
[INFO] Register count_relu() for <class 'torch.nn.modules.activation.LeakyReLU'>.
[Network disA] Total number of parameters: 93.749M
[Network disA] Total number of FLOPs: 12.013G
-----------------------------------------------
[INFO] Register zero_ops() for <class 'torch.nn.modules.activation.ReLU'>.
[INFO] Register count_linear() for <class 'torch.nn.modules.linear.Linear'>.

[Network gen2B] Total number of parameters: 16.192M
[Network gen2B] Total number of FLOPs: 67.552G
-----------------------------------------------
5000 [测试使用模型的迭代次数]

dataset/horse2zebra/testA/n02381460_1000.jpg
dataset/horse2zebra/testA/n02381460_1010.jpg
...

NiceGAN环境搭建 ——模型训练有效教程——【一文读懂】_数据集_05


???? 备注


  • 该模型训练中一次保存,大小 1.2 个G
  • --batch_size == 1 时,GPU 占用 7679MiB
  • --batch_size == 2 时,GPU 占用 12473MiB
  • --batch_size == 4 时,16G 的GPU就不够用啦

???? 可能遇到的报错


单卡训练,NICE-GAN full version 训练, 【16G】GPU 不够用

  • ​CUDA_VISIBLE_DEVICES=3 python main.py --dataset horse2zebra​
RuntimeError: CUDA out of memory. Tried to allocate 1024.00 MiB (GPU 0; 15.75 GiB total capacity; 13.78 GiB already allocated; 782.44 MiB free; 499.74 MiB cached)

解决方法如下

  • 经验证换用 24 G 以上更大内存的 GPU 进行训练,不会遇到该错误,即进行【NICE-GAN full version】训练
  • 训练时,追加参数 --light True 即进行【NICE-GAN light version】训练

???? 给学妹换个风格 ????


这里使用 【梵高油画和现实风景图像】构成的数据集进行 50万 iteration 训练

nohup python main.py --dataset vangogh2photo --light True &

# 训练时长,最终定格在 5天

训练结束输出如下

[499995/500000] time: 431994.8614 d_loss: 2.32049370, g_loss: 3.90420341
[499996/500000] time: 431995.4892 d_loss: 2.04860115, g_loss: 3.71788430
[499997/500000] time: 431996.1223 d_loss: 2.22972393, g_loss: 4.25117588
[499998/500000] time: 431996.7609 d_loss: 2.36788273, g_loss: 5.42507362
[499999/500000] time: 431997.3897 d_loss: 2.53704023, g_loss: 4.05708218
[500000/500000] time: 431998.0172 d_loss: 2.21194649, g_loss: 4.53932619
current D_learning rate:-1.7075100951256253e-16
current G_learning rate:-1.7075100951256253e-16
[*] Training finished!

???? 训练分析

可以看到,默认每隔10w iteration 保存一次模型,50w 训练只保存了 5次模型 这 5 次保留的模型经测试发现,效果都无法让人心动

意外翻车,原因分析如下

  • Gan 网络的模型训练本身就有很多不稳定性、不确定性存在
  • 改进策略,数据集 trainA 和 trainB 风格尽量一致
  • 训练时,建议每隔 1 w 或者 5k iteration 保存一次模型
  • 这样可以得到多个生成模型,然后一一测试,也许会有惊喜
  • 对于 NiceGAN 而言,实测应用,模型训练基本是这样一个思路
  • 只能说,iteration 次数越多,理论上训练效果相对会更好,但是实际应用中,效果好的模型未必就是训练次数最大的那次得到的模型

NiceGAN环境搭建 ——模型训练有效教程——【一文读懂】_CUDA_06

???? 学妹还是有的

论数据集风格统一的重要性

【❤️下次,一定,让你更美❤️】

NiceGAN环境搭建 ——模型训练有效教程——【一文读懂】_人工智能_07


???? 训练代码+数据分享


????【把训练数据 + 代码分享给大家】????

链接:https://pan.baidu.com/s/1zNR8TcXmQU7_nCB20Rqzmw 
提取码:2021

???????? 墨理学AI


  • ???? 作为全网 AI 领域 干货最多的博主之一,❤️ 不负光阴不负卿 ❤️
  • ❤️ 如果文章对你有帮助、点赞、评论鼓励博主的每一分认真创作
  • ​​计算机视觉正确打开方式: 超分重建、图像修复、目标检测、硕博交流、纯净学术搬砖圈 ​​

NiceGAN环境搭建 ——模型训练有效教程——【一文读懂】_python_08

标签:NiceGAN,loss,教程,训练,--,light,dataset,读懂,horse2zebra
From: https://blog.51cto.com/u_15660370/5928217

相关文章