初衷:看不懂论文开源代码
参考:B站小土堆 (土堆yyds~) PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】_哔哩哔哩_bilibili
1.环境配置
- 参考:(39条消息) win10下安装anaconda+pytorch_gpu+pycharm配置(超详细)_wang-jin的博客-CSDN博客_anaconda下的pytorch环境配置及pycharm导入(win10+gpu)
- 查看环境是否可用:
2.python中两大重要的函数
- dir():描述函数,如果参数包含方法__dir__(),该方法将被调用,否则返回参数的属性、方法列表
- help():用于查看函数或模块用途的详细说明
3.pytorch构建网络的基本步骤
1)准备工作
-
- Dataset :获取数据及其label
- Dataloader(从Dataset中批量取数据,提供给网络)
- Model:搭建网络结构
- 可使用的网络基本元件:卷积层|池化层|正则化层|非线性激活|线形成
- 使用Sequential包裹原件以减少代码量
- loss:损失函数
- 常用交叉熵|l1|l2,取决于具体的任务
- optimizer:优化器
- SGD|adam,需要设置不同的参数,具体参考官方文档
2)开始训练
-
- 设置epoch,每个epoch遍历一遍数据集进行参数更新,epoch结束后使用测试机验证模型效果
- 每个epoch:从dataloader中取出数据,前向传播、计算loss、反向传播计算梯度、更新参数
- 模型保存:
- 只保存参数(官方推荐做法),使用时需要重构模型
- 同时保存模型及参数
3)可选项:
-
- Tensorboard(展示图片):展示训练过程中的图片 |loss曲线| 网络结构
- Transform(对图片进行变化):常用to Tensor|Noemalize|Resize|compose(包裹作用)、
- 使用GPU加速(或google colab)
标签:loss,入门,epoch,pytorch,参数,土堆,函数 From: https://www.cnblogs.com/xiaoMaBengYue/p/16875231.html