首页 > 其他分享 >学习+科研+做项目 深度学习最全详细资料

学习+科研+做项目 深度学习最全详细资料

时间:2022-10-05 21:41:25浏览次数:80  
标签:11 10 06 07 最全 学习 详细资料 Learning 08


​李宏毅2020机器学习深度学习(完整版)国语​​​​[双语字幕]吴恩达深度学习deeplearning.ai​​​​深度学习(卷积网络、循环神经网络、对抗神经网络、Tensorflow实战)​

学习+科研+做项目 深度学习最全详细资料_sed


更多资料请关注公众号:计算机视觉与图形学实战

​李宏毅2020机器学习深度学习(完整版)国语​

目录

157.5万播放

P1 机器学习 37:08

P2 Rule of ML 2020 22:04

P3 Regression - Case Study 1:18:35

P4 Basic Concept 43:14

P5 Gradient Descent_1 1:01:52

P6 Gradient Descent_2 02:36

P7 Gradient Descent_3 01:41

P8 Optimization for Deep Learning (1_2) (选学) 54:36

P9 Optimization for Deep Learning (2_2) (选学) 54:32

P10 Classification_1 1:09:41

P11 Logistic Regression 1:07:13

P12 Brief Introduction of Deep Learning 46:30

P13 Backpropagation 31:26

P14 Tips for Training DNN 1:26:02

P15 Why Deep- 57:45

P16 PyTorch Tutorial 52:39

P17 Convolutional Neural Network 1:19:29

P18 Graph Neural Network (1_2) (选学) 39:02

P19 Graph Neural Network (2_2) (选学) 1:11:37

P20 Recurrent Neural Network (Part I) 49:00

P21 Recurrent Neural Network (Part II) 1:30:50

P22 Semi-supervised 59:59

P23 Unsupervised Learning - Word Embedding 40:39

P24 Explainable ML (1_8) 13:51

P25 Explainable ML (2_8) 14:08

P26 Explainable ML (3_8) 06:08

P27 Explainable ML (4_8) 07:16

P28 Explainable ML (5_8) 08:13

P29 Explainable ML (6_8) 07:27

P30 Explainable ML (7_8) 08:03

P31 Explainable ML (8_8) 07:17

P32 More about Explainable AI (选学) 1:44:29

P33 Attack ML Models (1_8) 06:06

P34 Attack ML Models (2_8) 11:43

P35 Attack ML Models (3_8) 07:03

P36 Attack ML Models (4_8) 08:12

P37 Attack ML Models (5_8) 06:39

P38 Attack ML Models (6_8) 09:27

P39 Attack ML Models (7_8) 08:04

P40 Attack ML Models (8_8) 10:11

P41 More about Adversarial Attack (1_2) (选学) 29:58

P42 More about Adversarial Attack (2_2) (选学) 29:45

P43 Network Compression (1_6) 08:24

P44 Network Compression (2_6) 12:44

P45 Network Compression (3_6) 08:33

P46 Network Compression (4_6) 06:37

P47 Network Compression (5_6) 11:53

P48 Network Compression (6_6) 13:09

P49 Network Compression (1_2) - Knowledge Distillation (选学) 1:07:53

P50 Network Compression (2_2) – Network Pruning (选学) 39:33

P51 Conditional Generation by RNN & Attention 1:41:14

P52 Pointer Network 13:34

P53 Recursive 24:58

P54 Transformer 49:32

P55 Transformer and its variant (选学) 1:49:23

P56 Unsupervised Learning - Linear Methods 1:40:20

P57 Unsupervised Learning - Neighbor Embedding 30:58

P58 Unsupervised Learning - Auto-encoder 42:04

P59 More about Auto-encoder (1_4) 13:39

P60 More about Auto-encoder (2_4) 06:12

P61 More about Auto-encoder (3_4) 12:29

P62 More about Auto-encoder (4_4) 14:52

P63 ELMO, BERT, GPT 1:04:52

P64 Self-supervised Learning (选学) 40:37

P65 Anomaly Detection (1_7) 13:23

P66 Anomaly Detection (2_7) 14:10

P67 Anomaly Detection (3_7) 14:05

P68 Anomaly Detection (4_7) 04:08

P69 Anomaly Detection (6_7) 12:20

P70 Anomaly Detection (7_7) 06:02

P71 More about Anomaly Detection (选学) 46:52

P72 Generative Adversarial Network(1_10) 1:33:15

P73 Generative Adversarial Network(2_10) 26:19

P74 Generative Adversarial Network(3_10) 38:59

P75 Generative Adversarial Network(4_10) 1:20:19

P76 Generative Adversarial Network(5_10) 25:04

P77 Generative Adversarial Network(6_10) 50:07

P78 Generative Adversarial Network(7_10) 46:03

P79 Generative Adversarial Network(8_10) 22:46

P80 Generative Adversarial Network(9_10) 1:27:23

P81 Generative Adversarial Network(10_10) 30:09

P82 SAGAN, BigGAN, SinGAN, GauGAN, GANILLA, NICE-GAN(选学) 1:06:17

P83 Transfer Learning 1:14:28

P84 More about Domain Adaptation (1_2) (选学) 52:01

P85 More about Domain Adaptation (2_2) (选学) 34:11

P86 Meta Learning – MAML (1_9) 07:42

P87 Meta Learning – MAML (2_9) 07:53

P88 Meta Learning – MAML (3_9) 10:21

P89 Meta Learning – MAML (4_9) 05:15

P90 Meta Learning – MAML (5_9) 13:22

P91 Meta Learning – MAML (6_9) 06:33

P92 Meta Learning – MAML (7_9) 08:54

P93 Meta Learning – MAML (8_9) 05:12

P94 Meta Learning – MAML (9_9) 06:53

P95 Meta Learning - Gradient Descent as LSTM (1_3) 11:40

P96 Meta Learning - Gradient Descent as LSTM (2_3) 10:06

P97 Meta Learning - Gradient Descent as LSTM (3_3) 10:39

P98 More about Meta Learning (选学) 44:10

P99 More about Meta Learning (选学) 53:11

P100 Life Long Learning (1_7) 13:51

P101 Life Long Learning (2_7) 07:25

P102 Life Long Learning (3_7) 12:04

P103 Life Long Learning (4_7) 04:40

P104 Life Long Learning (5_7) 03:20

P105 Life Long Learning (6_7) 14:15

P106 Life Long Learning (7_7) 11:35

P107 More about Lifelong Learning (选学) 57:48

P108 Deep Reinforcemen Learning(3_1) 1:06:22

P109 Deep Reinforcemen Learning(3_2) 13:20

P110 Deep Reinforcemen Learning(3_3) 1:05:34

P111 RL Advanced Version_1_Policy Gradient 45:49

P112 RL Advanced Version_2_Proximal Policy Optimization 41:34

P113 RL Advanced Version_3_Q-Learning 49:44

P114 RL Advanced Version_4_Q-Learning Advanced Tips 38:31

P115 RL Advanced Version_5_Q-Learning Continuous Action 14:58

P116 RL Advanced Version_6_Actor-Critic 34:16

P117 RL Advanced Version_7_Sparse Reward 30:16

P118 RL Advanced Version_8_Imitation Learning 34:02

P119 RL - Model-based, Large-scale, Meta, Multi-agent, Hide-and-seek, Alpha(选学) 1:42:05

​[双语字幕]吴恩达深度学习deeplearning.ai​

目录

50.0万播放

P1 1.1 欢迎 05:32

P2 1.2 什么是神经网络 07:16

P3 1.3 用神经网络进行监督学习 08:29

P4 1.4 为什么深度学习会兴起? 10:22

P5 1.5 关于这门课 02:28

P6 1.6 课程资源 01:56

P7 2.1 二分分类 08:24

P8 2.2 logistic 回归 06:00

P9 2.3 logistic 回归损失函数 08:12

P10 2.4 梯度下降法 11:24

P11 2.5 导数 07:11

P12 2.6 更多导数的例子 10:28

P13 2.7 计算图 03:34

P14 2.8 使用计算图求导 14:35

P15 2.9 logistic 回归中的梯度下降法 06:43

P16 2.10 m 个样本的梯度下降 08:01

P17 2.11 向量化 08:05

P18 2.12 向量化的更多例子 06:22

P19 2.13 向量化 logistic 回归 07:33

P20 2.14 向量化 logistic 回归的梯度输出 09:38

P21 2.15 Python 中的广播 11:07

P22 2.16 关于 Python _ numpy 向量的说明 06:50

P23 2.17 Jupyter _ ipython 笔记本的快速指南 03:44

P24 2.18 (选修)logistic 损失函数的解释 07:15

P25 3.1 神经网络概览 04:27

P26 3.2 神经网络表示 05:15

P27 3.3 计算神经网络的输出 09:58

P28 3.4 多个样本的向量化 09:06

P29 3.5 向量化实现的解释 07:38

P30 3.6 激活函数 10:57

P31 3.7 为什么需要非线性激活函数? 05:36

P32 3.8 激活函数的导数 07:58

P33 3.9 神经网络的梯度下降法 09:58

P34 3.10 (选修)直观理解反向传播 15:49

P35 3.11 随机初始化 07:58

P36 4.1 深层神经网络 05:52

P37 4.2 前向和反向传播 10:30

P38 4.3 深层网络中的前向传播 07:16

P39 4.4 核对矩阵的维数 11:10

P40 4.5 为什么使用深层表示 10:34

P41 4.6 搭建深层神经网络块 08:34

P42 4.7 参数 VS 超参数 07:17

P43 4.8 这和大脑有什么关系? 03:18

P44 1. 吴恩达采访 Geoffrey Hinton 40:23

P45 2. 吴恩达采访

Pieter Abbeel 16:04

P46 3. 吴恩达采访 Ian Goodfellow 14:56

P47 1.1 训练_开发_测试集 12:05

P48 1.2 偏差_方差 08:47

P49 1.3 机器学习基础 06:22

P50 1.4 正则化 09:43

P51 1.5 为什么正则化可以减少过拟合? 07:10

P52 1.6 Dropout 正则化 09:26

P53 1.7 理解 Dropout 07:05

P54 1.8 其他正则化方法 08:25

P55 1.9 归一化输入 05:31

P56 1.10 梯度消失与梯度爆炸 06:08

P57 1.11 神经网络的权重初始化 06:13

P58 1.12 梯度的数值逼近 06:36

P59 1.13 梯度检验 06:35

P60 1.14 关于梯度检验实现的注记 05:19

P61 2.1 Mini-batch 梯度下降法 11:29

P62 2.2 理解 mini-batch 梯度下降法 08:15

P63 2.3 指数加权平均 05:59

P64 2.4 理解指数加权平均 09:42

P65 2.5 指数加权平均的偏差修正 04:12

P66 2.6 动量梯度下降法 09:21

P67 2.7 RMSprop 07:42

P68 2.8 Adam 优化算法 07:08

P69 2.9 学习率衰减 06:45

P70 2.10 局部最优的问题 05:24

P71 3.1 调试处理 07:11

P72 3.2 为超参数选择合适的范围 08:51

P73 3.3 超参数训练的实践:Pandas VS Caviar 06:52

P74 3.4 正则化网络的激活函数 08:56

P75 3.5 将 Batch Norm 拟合进神经网络 12:56

P76 3.6 Batch Norm 为什么奏效? 11:40

P77 3.7 测试时的 Batch Norm 05:47

P78 3.8 Softmax 回归 11:48

P79 3.9 训练一个 Softmax 分类器 10:08

P80 3.10 深度学习框架 04:16

P81 3.11 TensorFlow 16:08

P82 1. 吴恩达采访 Yoshua Bengio 25:49

P83 2. 吴恩达采访 林元庆 13:37

P84 1.1 为什么是 ML 策略 02:43

P85 1.2 正交化 10:39

P86 1.3 单一数字评估指标 07:17

P87 1.4 满足和优化指标 05:59

P88 1.5 训练_开发_测试集划分 06:36

P89 1.6 开发集合测试集的大小 05:40

P90 1.7 什么时候该改变开发_测试集和指标 11:08

P91 1.8 为什么是人的表现 05:47

P92 1.9 可避免偏差 07:00

P93 1.10 理解人的表现 11:13

P94 1.11 超过人的表现 06:22

P95 1.12 改善你的模型的表现 04:35

P96 2.1 进行误差分析 10:33

P97 2.2 清除标注错误的数据 13:06

P98 2.3 快速搭建你的第一个系统,并进行迭代 06:02

P99 2.4 在不同的划分上进行训练并测试 10:56

P100 2.5 不匹配数据划分的偏差和方差 18:17

P101 2.6 定位数据不匹配 10:09

P102 2.7 迁移学习 11:18

P103 2.8 多任务学习 13:00

P104 2.9 什么是端到端的深度学习 11:48

P105 2.10 是否要使用端到端的深度学习 10:20

P106 1. 采访 Andrej Karpathy 15:11

P107 2. 采访 Ruslan Salakhutdinov 17:09

P108 1.1 计算机视觉 05:45

P109 1.2 边缘检测示例 11:31

P110 1.3 更多边缘检测内容 07:58

P111 1.4 Padding 09:50

P112 1.5 卷积步长 09:02

P113 1.6 三维卷积 10:45

P114 1.7 单层卷积网络 16:11

P115 1.8 简单卷积网络示例 08:32

P116 1.9 池化层 10:26

P117 1.10 卷积神经网络示例 12:38

P118 1.11 为什么使用卷积? 09:41

P119 2.1 为什么要进行实例探究? 03:08

P120 2.2 经典网络 18:19

P121 2.3 残差网络 07:08

P122 2.4 残差网络为什么有用? 09:13

P123 2.5 网络中的网络以及 1×1 卷积 06:41

P124 2.6 谷歌 Inception 网络简介 10:15

P125 2.7 Inception 网络 08:47

P126 2.8 使用开源的实现方案 04:57

P127 2.9 迁移学习 08:48

P128 2.10 数据扩充 09:32

P129 2.11 计算机视觉现状 12:39

P130 3.1 目标定位 11:55

P131 3.2 特征点检测 05:57

P132 3.3 目标检测 05:50

P133 3.4 卷积的滑动窗口实现 11:09

P134 3.5 Bounding Box预测 14:32

P135 3.6 交并比 04:19

P136 3.7 非极大值抑制 08:03

P137 3.8 Anchor Boxes 09:44

P138 3.9 YOLO 算法 07:02

P139 3.10 候选区域 06:28

P140 4.1 什么是人脸识别? 04:38

P141 4.2 One-Shot 学习 04:45

P142 4.3 Siamese 网络 04:36

P143 4.4 Triplet 损失 15:31

P144 4.5 面部验证与二分类 06:06

P145 4.6 什么是神经风格转换? 02:03

P146 4.7 什么是深度卷积网络? 07:58

P147 4.8 代价函数_bilibili 03:51

P148 4.9 内容代价函数 03:38

P149 4.10 风格代价函数 17:01

P150 4.11 一维到三维推广 09:09

P151 1.1为什么选择序列模型 03:01

P152 1.2数学符号 09:16

P153 1.3循环神经网络 16:32

P154 1.4通过时间的反向传播 06:12

P155 1.5不同类型的循环神经网络 09:34

P156 1.6 语言模型和序列生成 12:02

P157 1.7 新序列采样 08:39

P158 1.8带有神经网络的梯度消失 06:29

P159 1.9 GRU 单元 17:07

P160 1.10 长短期记忆(LSTM) 09:54

P161 1.11 双向神经网络 08:20

P162 1.12 深层循环神经网络 05:17

P163 2.1 词汇表征 10:08

P164 2.2 使用词嵌入 09:23

P165 2.3 词嵌入的特性 11:55

P166 2.4 嵌入矩阵 05:58

P167 2.5 学习词嵌入 10:09

P168 2.6 Word2Vec 12:48

P169 2.7 负采样 11:54

P170 2.8 GloVe 词向量 11:09

P171 2.9 情绪分类 07:38

P172 2.10 词嵌入除偏 11:09

P173 3.1 基础模型 06:19

P174 3.2 选择最可能的句子 08:57

P175 3.3 定向搜索 11:55

P176 3.4 改进定向搜索 11:01

P177 3.5 定向搜索的误差分析 09:44

P178 3.6 Bleu 得分(选修) 16:27

P179 3.7 注意力模型直观理解 09:42

P180 3.8 注意力模型 12:23

P181 3.9 语音辨识 08:54

P182 3.10 触发字检测 05:03

P183 3.11 结论和致谢 02:4

​深度学习(卷积网络、循环神经网络、对抗神经网络、Tensorflow实战)​

目录

29.1万播放

P1 1-1课程概述与环境配置 12:35

P2 1-2深度学习与人工智能概述 14:32

P3 1-3机器学习常规套路 12:29

P4 1-4K近邻与交叉验证 10:16

P5 1-5得分函数 12:02

P6 1-6损失函数 07:53

P7 1-7softmax分类器 08:28

P8 1-8课后讨论与答疑 37:19

P9 2-1梯度下降原理-2-2学习率的作用-2-3反向传播-2-4神经网络基础架构-2-5神经网络实例演示-2-6正则化与激活函数 1:05:40

P10 2-7drop-out 11:25

P11 2-8课后讨论 14:35

P12 3-1tensorflow安装 08:09

P13 3-2tensorflow基本套路 11:10

P14 3-3tensorflow常用操作 09:31

P15 3-4tensorflow实现线性回归 15:28

P16 3-5tensorflow实现手写字体 12:47

P17 3-6参数初始化 08:28

P18 3-7迭代完成训练 10:59

P19 3-8课后讨论 24:14

P20 4-1卷积体征提取 12:20

P21 4-2卷积计算流程 09:34

P22 4-3卷积层计算参数 16:29

P23 4-4池化层操作 13:27

P24 4-5卷积网络整体架构 07:02

P25 4-6经典网络架构 13:02

P26 5-1卷积网络复习(验证码数据代码下载–) 07:07

P27 5-2使用CNN训练mnist数 11:47

P28 5-3卷积与池化操作 09:03

P29 5-4定义卷积网络计算流程 13:29

P30 5-5完成迭代训练 10:56

P31 5-6验证码识别概述 10:18

P32 5-7验证码识别流程 17:43

P33 6-1自然语言处理与深度学 11:58

P34 6-2语言模型 12:29

P35 6-3神经网络模型 10:48

P36 6-4CBOW模型 13:07

P37 6-5参数更新 13:03

P38 6-6负采样模型 06:33

P39 6-7案例:影评情感分类(数据 17:55

P40 7-1基于词袋模型训练分类器 11:36

P41 7-2准备word2vec输入数据 10:53

P42 7-3使用gensim构建word2 16:36

P43 7-4tfidf原理 13:30

P44 7-5对抗生成网络原理概述(GAN数据代码下载—) 10:26

P45 7-6GAN网络结构定义 10:09

P46 7-7 Gan迭代生成 11:55

P47 7-8DCGAN网络特性(DCGAN数据代码下载—) 07:40

P48 7-9DCGAN网络细节 12:48

P49 8-1 RNN网络架构 12:23

P50 8-2LSTM网络架构 12:00

P51 8-3案例:使用LSTM进行情 13:14

P52 8-4情感数据集处理 13:08

P53 8-5基于word2vec的LSTM模型 17:37

P54 8-6趣味网络串讲(数据代 11:25

P55 8-7课后讨论版 07:43


标签:11,10,06,07,最全,学习,详细资料,Learning,08
From: https://blog.51cto.com/u_15717531/5732906

相关文章

  • 学习+做项目+科研 Keras详细讲解-视频
    ​​【莫烦Python】Keras快速搭建神经网络​​​​Keras深度学习快速简明教程最易学的深度学习入门课程人人都可以学的人工智能入门​​​​keras入门​​​​Keras项目......
  • 学习+做项目+科研 MXNet最全详细视频资料
    更多资料请关注公众号:计算机视觉与图形学实战​​[MXNet/Gluon]动手学深度学习第一课:从上手到多类分类​​目录播放量9.4万-[30min]介绍-[15min]演示从干净系统安装......
  • C语言学习记录4
    #每日落日分享#今天浅显的学习了'getchar',现在记录下来。#define_CRT_SECURE_NO_WARNINGS1#include<stdio.h>intmain(){intch=0;charpassword[20]={0};......
  • FPGA学习--VHDL基本结构
    一个完整的VHDL程序,或者说设计实体,通常要求最低能为VHDL综合器所支持,并能作为一个独立的设计单元,即元件的形式而存在的VHDL程序。在VHDL程序中,通常包含实体(ENTITY)、结构体......
  • 学习记录15集合
    集合什么是集合?同时存储多个元素,需要怎么做?以前学习过数组,可数组的使用是有弊端的——数组的长度是固定的集合与数组一样,都可以被看作是一个容器。在没有添加元素的情......
  • 深度学习常用数据集介绍与下载(附网盘链接)
    摘要:这篇博文总结了博主收集的深度学习常用的数据集,包含常用的分类、目标检测及人脸识别任务,对每个数据集给出了简要介绍、官网下载网站以及公众号获取的关键字。因为有的......
  • 学习+科研+做项目 PyTorch最详细视频讲解
    ​​PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】​​​​《PyTorch深度学习实践》完结合集​​​​莫烦Python-PyTorch神经网络​​​​Pytorch入门到精通全教程......
  • 面试+学习+做项目 OpenVINO最全视频讲解
    ​​基于Python的OpenVINO开发实战教程​​​​树莓派4B+OpenVINO快速实现人脸识别​​​​OpenVINO™_使用指南​​更多资料请关注:计算机视觉与图形学实战​​基于......
  • 面试+学习+做项目+最全Java视频讲解
    关注公众号:计算机视觉与图形学实战​​Java零基础教程视频(适合Java0基础,Java初学入门)​​​​尚硅谷Java零基础入门教程(含百道Java真题,2万多行Java代码实战)​​​​黑马程......
  • 【机器学习中的矩阵求导】(八)标量函数f(x)的雅克比矩阵(迹函数)
    学习总结交换律:,需要满足、同维度行列式微分:文章目录​​学习总结​​​​一、标量函数的雅克比函数​​​​二、关于迹函数的性质​​​​2.1常用性质​​​​2.2迹函数的......