PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】《PyTorch深度学习实践》完结合集
Pytorch 入门到精通全教程 卷积神经网络 循环神经网络
更多相关资料请关注公众号:计算机视觉与图形学实战
PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】
目录(播放量41.6万) |
P1.PyTorch环境的配置及安装(Configuration and Installation of PyTorch)【PyTorch教程】14:26 |
P2. Python编辑器的选择、安装及配置(PyCharm、Jupyter安装)【PyTorch教程】 12:42 |
P3 【FAQ】为什么torch.cuda.is_available返回False 05:53 |
P4.Python学习中的两大法宝函数(当然也可以用在PyTorch) 09:12 |
P5.PyCharm及Jupyter使用及对比 16:39 |
P6 PyTorch加载数据初认识 11:11 |
P7 Dataset类代码实战 25:17 |
P8. TensorBoard的使用(一) 16:31 |
P9. TensorBoard的使用(二) 11:16 |
P10. Transforms的使用(一) 18:28 |
P11. Transforms的使用(二) 08:03 |
P12 常见的Transforms(一) 18:20 |
P13 常见的Transforms(二) 21:24 |
P14 torchvision中的数据集使用 22:51 |
P15 DataLoader的使用 22:16 |
P16 神经网络的基本骨架-nn.Module的使用 15:57 |
P17 土堆说卷积操作(可选看) 26:37 |
P18 神经网络-卷积层 28:46 |
P19 神经网络-最大池化的使用 24:26 |
P20 神经网络-非线性激活 13:23 |
P21 神经网络-线性层及其他层介绍 23:22 |
P22 神经网络-搭建小实战和Sequential的使用 26:00 |
P23 损失函数与反向传播 31:58 |
P24 优化器(一) 17:38 |
P25 现有网络模型的使用及修改 23:29 |
P26 网络模型的保存与读取 16:49 |
P27 完整的模型训练套路(一) 27:34 |
P28 完整的模型训练套路(二) 22:22 |
P29 完整的模型训练套路(三) 05:22 |
P30 利用GPU训练(一) 15:21 |
P31 利用GPU训练(二) 08:11 |
P32 完整的模型验证套路 18:41 |
P33 【完结】看看开源项目 11:16 |
目录(播放量41.6万) |
P1 1. Overview 1:18:48 |
P3 03.梯度下降算法 41:30 |
P5 05.用PyTorch实现线性回归 55:03 |
P7 07.处理多维特征的输入 43:41 |
P9 09.多分类问题 54:30 |
P11 11.卷积神经网络(高级篇) 59:49 |
P13 13.循环神经网络(高级篇) 1:06:56 |
目录(播放量73.7万) |
P1 科普: 人工神经网络 VS 生物神经网络 04:40 |
P3 神经网络 : 梯度下降 (Gradient Descent in Neural Nets) 04:08 |
P5 1.1 Why? 03:56 |
P7 2.1 Numpy Torch 对比 08:55 |
P9 什么是激励函数 (深度学习)? 03:49 |
P11 3.1 Regression 回归 16:14 |
P13 3.3 快速搭建法 05:16 |
P15 3.5 批数据训练 09:32 |
P17 3.6 Optimizer 优化器 10:49 |
P19 4.1 CNN 卷积神经网络 25:32 |
P21 什么是 LSTM RNN 循环神经网络 (深度学习)? 03:55 |
P23 4.3 RNN 循环神经网络 回归 12:47 |
P25 4.4 AutoEncoder 自编码 11:48 |
P27 4.5 DQN 强化学习 19:09 |
P29 4.6 GAN 生成对抗网络 15:22 |
Pytorch 是动态 Dynamic 06:32 |
P32 什么是过拟合 (深度学习)? 04:23 |
P34 什么是 Batch Normalization 批标准化 05:09 |
Pytorch 入门到精通全教程 卷积神经网络 循环神经网络
目录(播放量6.9万) |
P1 1. 1 机器学习和深度学习的介绍 13:02 |
P3 3. 3 感知机和多层神经网路的介绍 21:10 |
P5 5. 1Pytorch的安装方法 03:55 |
P7 7. 3Pytorch的入门操作(二) 20:23 |
P9 9. 5Pytorch的入门操作(三) 13:23 |
P11 11. 2 梯度下降的过程 27:24 |
P13 13. 4 手动实现线性回归 20:19 |
P15 15. 6 知识点回归 13:23 |
P17 17. 5 在GPU上执行程序 15:17 |
P19 19. 1 数据集类的使用 07:57 |
P21 21. 3Pytorch中自带数据的使用介绍 06:10 |
P23 23. 5 torchvision中transforms方法的使用 19:09 |
P25 25. 2 损失函数的学习 10:56 |
P27 27. 4 模型的评估 24:49 |
P29 29. 6 word embedding的理解 08:03 |
P31 31. 8 小结 09:53 |
P33 33. 2 collate fn的实现 07:36 |
P35 35. 4 ws的保存 16:55 |
P37 37. 1 RNN结果的介绍 14:59 |
P39 39. 3 LSTM的GRU的学习 32:21 |
P41 41. 5 LSTM api的介绍 44:52 |
P43 43. 7 文本情感分类模型的修改 42:43 |
P45 45. 9Pytorch的序列化容器 10:05 |
P47 47. 2 聊天机器人的介绍 25:19 |
P49 49. 4 项目流程介绍 12:26 |
P51 51. 6 词典的准备 18:05 |
P53 53. 8 相似问题的准备 18:06 |
P55 55. 1 文本分类的介绍 10:24 |
P57 57. 3 分类语料的准备 32:06 |
P59 59. 5 模型的评估 10:47 |
P61 61. 7 fasttext原理介绍 16:56 |
P63 63. 1 .复习 04:43 |
P65 65. 3 哈夫曼树和哈夫曼编码 26:09 |
P67 67. 5 seq2seq原理的认识 12:18 |
P69 69. 7 案例数据集的准备 28:37 |
P71 71. 9 编码器的完成 31:22 |
P73 73. 11 解码器的流程 24:19 |
P75 75. 13 模型的训练(二) 25:50 |
P77 77. 15 复习 33:51 |
P79 79. 17 seq2seq模型小结 11:33 |
P81 81. 19 闲聊机器人准备语料 51:06 |
P83 83. 21 dataset的准备 18:35 |
P85 85. 1 attention的介绍 21:24 |
P87 87. 3 attention weight的计算的结果 43:03 |
P89 89. 5 复习 56:09 |
P91 91. 7 解码的过程中使用attention 13:59 |
P93 93. 1 beam search的介绍 26:12 |
P95 95. 3 模型的优化方法 10:44 |
P97 97. 1 问答机器人的介绍 09:31 |
P99 99. 3 使用tfidf实现召回 57:50 |
P101 101. 5 BM25算法的介绍 13:14 |
P103 103. 7 复习 1:04:31 |
P105 105. 9 排序介绍 36:18 |
P107 107. 11 模型的搭建(一) 26:37 |
P109 109. 13 损失函数的模型的训练 30:21 |
P111 111. 15 封装的介绍 20:13 |