李宏毅2020机器学习深度学习(完整版)国语[双语字幕]吴恩达深度学习deeplearning.ai深度学习(卷积网络、循环神经网络、对抗神经网络、Tensorflow实战)
更多资料请关注公众号:计算机视觉与图形学实战
目录 | 157.5万播放 |
P1 机器学习 37:08 | P2 Rule of ML 2020 22:04 |
P3 Regression - Case Study 1:18:35 | P4 Basic Concept 43:14 |
P5 Gradient Descent_1 1:01:52 | P6 Gradient Descent_2 02:36 |
P7 Gradient Descent_3 01:41 | P8 Optimization for Deep Learning (1_2) (选学) 54:36 |
P9 Optimization for Deep Learning (2_2) (选学) 54:32 | P10 Classification_1 1:09:41 |
P11 Logistic Regression 1:07:13 | P12 Brief Introduction of Deep Learning 46:30 |
P13 Backpropagation 31:26 | P14 Tips for Training DNN 1:26:02 |
P15 Why Deep- 57:45 | P16 PyTorch Tutorial 52:39 |
P17 Convolutional Neural Network 1:19:29 | P18 Graph Neural Network (1_2) (选学) 39:02 |
P19 Graph Neural Network (2_2) (选学) 1:11:37 | P20 Recurrent Neural Network (Part I) 49:00 |
P21 Recurrent Neural Network (Part II) 1:30:50 | P22 Semi-supervised 59:59 |
P23 Unsupervised Learning - Word Embedding 40:39 | P24 Explainable ML (1_8) 13:51 |
P25 Explainable ML (2_8) 14:08 | P26 Explainable ML (3_8) 06:08 |
P27 Explainable ML (4_8) 07:16 | P28 Explainable ML (5_8) 08:13 |
P29 Explainable ML (6_8) 07:27 | P30 Explainable ML (7_8) 08:03 |
P31 Explainable ML (8_8) 07:17 | P32 More about Explainable AI (选学) 1:44:29 |
P33 Attack ML Models (1_8) 06:06 | P34 Attack ML Models (2_8) 11:43 |
P35 Attack ML Models (3_8) 07:03 | P36 Attack ML Models (4_8) 08:12 |
P37 Attack ML Models (5_8) 06:39 | P38 Attack ML Models (6_8) 09:27 |
P39 Attack ML Models (7_8) 08:04 | P40 Attack ML Models (8_8) 10:11 |
P41 More about Adversarial Attack (1_2) (选学) 29:58 | P42 More about Adversarial Attack (2_2) (选学) 29:45 |
P43 Network Compression (1_6) 08:24 | P44 Network Compression (2_6) 12:44 |
P45 Network Compression (3_6) 08:33 | P46 Network Compression (4_6) 06:37 |
P47 Network Compression (5_6) 11:53 | P48 Network Compression (6_6) 13:09 |
P49 Network Compression (1_2) - Knowledge Distillation (选学) 1:07:53 | P50 Network Compression (2_2) – Network Pruning (选学) 39:33 |
P51 Conditional Generation by RNN & Attention 1:41:14 | P52 Pointer Network 13:34 |
P53 Recursive 24:58 | P54 Transformer 49:32 |
P55 Transformer and its variant (选学) 1:49:23 | P56 Unsupervised Learning - Linear Methods 1:40:20 |
P57 Unsupervised Learning - Neighbor Embedding 30:58 | P58 Unsupervised Learning - Auto-encoder 42:04 |
P59 More about Auto-encoder (1_4) 13:39 | P60 More about Auto-encoder (2_4) 06:12 |
P61 More about Auto-encoder (3_4) 12:29 | P62 More about Auto-encoder (4_4) 14:52 |
P63 ELMO, BERT, GPT 1:04:52 | P64 Self-supervised Learning (选学) 40:37 |
P65 Anomaly Detection (1_7) 13:23 | P66 Anomaly Detection (2_7) 14:10 |
P67 Anomaly Detection (3_7) 14:05 | P68 Anomaly Detection (4_7) 04:08 |
P69 Anomaly Detection (6_7) 12:20 | P70 Anomaly Detection (7_7) 06:02 |
P71 More about Anomaly Detection (选学) 46:52 | P72 Generative Adversarial Network(1_10) 1:33:15 |
P73 Generative Adversarial Network(2_10) 26:19 | P74 Generative Adversarial Network(3_10) 38:59 |
P75 Generative Adversarial Network(4_10) 1:20:19 | P76 Generative Adversarial Network(5_10) 25:04 |
P77 Generative Adversarial Network(6_10) 50:07 | P78 Generative Adversarial Network(7_10) 46:03 |
P79 Generative Adversarial Network(8_10) 22:46 | P80 Generative Adversarial Network(9_10) 1:27:23 |
P81 Generative Adversarial Network(10_10) 30:09 | P82 SAGAN, BigGAN, SinGAN, GauGAN, GANILLA, NICE-GAN(选学) 1:06:17 |
P83 Transfer Learning 1:14:28 | P84 More about Domain Adaptation (1_2) (选学) 52:01 |
P85 More about Domain Adaptation (2_2) (选学) 34:11 | P86 Meta Learning – MAML (1_9) 07:42 |
P87 Meta Learning – MAML (2_9) 07:53 | P88 Meta Learning – MAML (3_9) 10:21 |
P89 Meta Learning – MAML (4_9) 05:15 | P90 Meta Learning – MAML (5_9) 13:22 |
P91 Meta Learning – MAML (6_9) 06:33 | P92 Meta Learning – MAML (7_9) 08:54 |
P93 Meta Learning – MAML (8_9) 05:12 | P94 Meta Learning – MAML (9_9) 06:53 |
P95 Meta Learning - Gradient Descent as LSTM (1_3) 11:40 | P96 Meta Learning - Gradient Descent as LSTM (2_3) 10:06 |
P97 Meta Learning - Gradient Descent as LSTM (3_3) 10:39 | P98 More about Meta Learning (选学) 44:10 |
P99 More about Meta Learning (选学) 53:11 | P100 Life Long Learning (1_7) 13:51 |
P101 Life Long Learning (2_7) 07:25 | P102 Life Long Learning (3_7) 12:04 |
P103 Life Long Learning (4_7) 04:40 | P104 Life Long Learning (5_7) 03:20 |
P105 Life Long Learning (6_7) 14:15 | P106 Life Long Learning (7_7) 11:35 |
P107 More about Lifelong Learning (选学) 57:48 | P108 Deep Reinforcemen Learning(3_1) 1:06:22 |
P109 Deep Reinforcemen Learning(3_2) 13:20 | P110 Deep Reinforcemen Learning(3_3) 1:05:34 |
P111 RL Advanced Version_1_Policy Gradient 45:49 | P112 RL Advanced Version_2_Proximal Policy Optimization 41:34 |
P113 RL Advanced Version_3_Q-Learning 49:44 | P114 RL Advanced Version_4_Q-Learning Advanced Tips 38:31 |
P115 RL Advanced Version_5_Q-Learning Continuous Action 14:58 | P116 RL Advanced Version_6_Actor-Critic 34:16 |
P117 RL Advanced Version_7_Sparse Reward 30:16 | P118 RL Advanced Version_8_Imitation Learning 34:02 |
P119 RL - Model-based, Large-scale, Meta, Multi-agent, Hide-and-seek, Alpha(选学) 1:42:05 |
[双语字幕]吴恩达深度学习deeplearning.ai
目录 | 50.0万播放 |
P1 1.1 欢迎 05:32 | P2 1.2 什么是神经网络 07:16 |
P3 1.3 用神经网络进行监督学习 08:29 | P4 1.4 为什么深度学习会兴起? 10:22 |
P5 1.5 关于这门课 02:28 | P6 1.6 课程资源 01:56 |
P7 2.1 二分分类 08:24 | P8 2.2 logistic 回归 06:00 |
P9 2.3 logistic 回归损失函数 08:12 | P10 2.4 梯度下降法 11:24 |
P11 2.5 导数 07:11 | P12 2.6 更多导数的例子 10:28 |
P13 2.7 计算图 03:34 | P14 2.8 使用计算图求导 14:35 |
P15 2.9 logistic 回归中的梯度下降法 06:43 | P16 2.10 m 个样本的梯度下降 08:01 |
P17 2.11 向量化 08:05 | P18 2.12 向量化的更多例子 06:22 |
P19 2.13 向量化 logistic 回归 07:33 | P20 2.14 向量化 logistic 回归的梯度输出 09:38 |
P21 2.15 Python 中的广播 11:07 | P22 2.16 关于 Python _ numpy 向量的说明 06:50 |
P23 2.17 Jupyter _ ipython 笔记本的快速指南 03:44 | P24 2.18 (选修)logistic 损失函数的解释 07:15 |
P25 3.1 神经网络概览 04:27 | P26 3.2 神经网络表示 05:15 |
P27 3.3 计算神经网络的输出 09:58 | P28 3.4 多个样本的向量化 09:06 |
P29 3.5 向量化实现的解释 07:38 | P30 3.6 激活函数 10:57 |
P31 3.7 为什么需要非线性激活函数? 05:36 | P32 3.8 激活函数的导数 07:58 |
P33 3.9 神经网络的梯度下降法 09:58 | P34 3.10 (选修)直观理解反向传播 15:49 |
P35 3.11 随机初始化 07:58 | P36 4.1 深层神经网络 05:52 |
P37 4.2 前向和反向传播 10:30 | P38 4.3 深层网络中的前向传播 07:16 |
P39 4.4 核对矩阵的维数 11:10 | P40 4.5 为什么使用深层表示 10:34 |
P41 4.6 搭建深层神经网络块 08:34 | P42 4.7 参数 VS 超参数 07:17 |
P43 4.8 这和大脑有什么关系? 03:18 | P44 1. 吴恩达采访 Geoffrey Hinton 40:23 |
P45 2. 吴恩达采访 | Pieter Abbeel 16:04 |
P46 3. 吴恩达采访 Ian Goodfellow 14:56 | P47 1.1 训练_开发_测试集 12:05 |
P48 1.2 偏差_方差 08:47 | P49 1.3 机器学习基础 06:22 |
P50 1.4 正则化 09:43 | P51 1.5 为什么正则化可以减少过拟合? 07:10 |
P52 1.6 Dropout 正则化 09:26 | P53 1.7 理解 Dropout 07:05 |
P54 1.8 其他正则化方法 08:25 | P55 1.9 归一化输入 05:31 |
P56 1.10 梯度消失与梯度爆炸 06:08 | P57 1.11 神经网络的权重初始化 06:13 |
P58 1.12 梯度的数值逼近 06:36 | P59 1.13 梯度检验 06:35 |
P60 1.14 关于梯度检验实现的注记 05:19 | P61 2.1 Mini-batch 梯度下降法 11:29 |
P62 2.2 理解 mini-batch 梯度下降法 08:15 | P63 2.3 指数加权平均 05:59 |
P64 2.4 理解指数加权平均 09:42 | P65 2.5 指数加权平均的偏差修正 04:12 |
P66 2.6 动量梯度下降法 09:21 | P67 2.7 RMSprop 07:42 |
P68 2.8 Adam 优化算法 07:08 | P69 2.9 学习率衰减 06:45 |
P70 2.10 局部最优的问题 05:24 | P71 3.1 调试处理 07:11 |
P72 3.2 为超参数选择合适的范围 08:51 | P73 3.3 超参数训练的实践:Pandas VS Caviar 06:52 |
P74 3.4 正则化网络的激活函数 08:56 | P75 3.5 将 Batch Norm 拟合进神经网络 12:56 |
P76 3.6 Batch Norm 为什么奏效? 11:40 | P77 3.7 测试时的 Batch Norm 05:47 |
P78 3.8 Softmax 回归 11:48 | P79 3.9 训练一个 Softmax 分类器 10:08 |
P80 3.10 深度学习框架 04:16 | P81 3.11 TensorFlow 16:08 |
P82 1. 吴恩达采访 Yoshua Bengio 25:49 | P83 2. 吴恩达采访 林元庆 13:37 |
P84 1.1 为什么是 ML 策略 02:43 | P85 1.2 正交化 10:39 |
P86 1.3 单一数字评估指标 07:17 | P87 1.4 满足和优化指标 05:59 |
P88 1.5 训练_开发_测试集划分 06:36 | P89 1.6 开发集合测试集的大小 05:40 |
P90 1.7 什么时候该改变开发_测试集和指标 11:08 | P91 1.8 为什么是人的表现 05:47 |
P92 1.9 可避免偏差 07:00 | P93 1.10 理解人的表现 11:13 |
P94 1.11 超过人的表现 06:22 | P95 1.12 改善你的模型的表现 04:35 |
P96 2.1 进行误差分析 10:33 | P97 2.2 清除标注错误的数据 13:06 |
P98 2.3 快速搭建你的第一个系统,并进行迭代 06:02 | P99 2.4 在不同的划分上进行训练并测试 10:56 |
P100 2.5 不匹配数据划分的偏差和方差 18:17 | P101 2.6 定位数据不匹配 10:09 |
P102 2.7 迁移学习 11:18 | P103 2.8 多任务学习 13:00 |
P104 2.9 什么是端到端的深度学习 11:48 | P105 2.10 是否要使用端到端的深度学习 10:20 |
P106 1. 采访 Andrej Karpathy 15:11 | P107 2. 采访 Ruslan Salakhutdinov 17:09 |
P108 1.1 计算机视觉 05:45 | P109 1.2 边缘检测示例 11:31 |
P110 1.3 更多边缘检测内容 07:58 | P111 1.4 Padding 09:50 |
P112 1.5 卷积步长 09:02 | P113 1.6 三维卷积 10:45 |
P114 1.7 单层卷积网络 16:11 | P115 1.8 简单卷积网络示例 08:32 |
P116 1.9 池化层 10:26 | P117 1.10 卷积神经网络示例 12:38 |
P118 1.11 为什么使用卷积? 09:41 | P119 2.1 为什么要进行实例探究? 03:08 |
P120 2.2 经典网络 18:19 | P121 2.3 残差网络 07:08 |
P122 2.4 残差网络为什么有用? 09:13 | P123 2.5 网络中的网络以及 1×1 卷积 06:41 |
P124 2.6 谷歌 Inception 网络简介 10:15 | P125 2.7 Inception 网络 08:47 |
P126 2.8 使用开源的实现方案 04:57 | P127 2.9 迁移学习 08:48 |
P128 2.10 数据扩充 09:32 | P129 2.11 计算机视觉现状 12:39 |
P130 3.1 目标定位 11:55 | P131 3.2 特征点检测 05:57 |
P132 3.3 目标检测 05:50 | P133 3.4 卷积的滑动窗口实现 11:09 |
P134 3.5 Bounding Box预测 14:32 | P135 3.6 交并比 04:19 |
P136 3.7 非极大值抑制 08:03 | P137 3.8 Anchor Boxes 09:44 |
P138 3.9 YOLO 算法 07:02 | P139 3.10 候选区域 06:28 |
P140 4.1 什么是人脸识别? 04:38 | P141 4.2 One-Shot 学习 04:45 |
P142 4.3 Siamese 网络 04:36 | P143 4.4 Triplet 损失 15:31 |
P144 4.5 面部验证与二分类 06:06 | P145 4.6 什么是神经风格转换? 02:03 |
P146 4.7 什么是深度卷积网络? 07:58 | P147 4.8 代价函数_bilibili 03:51 |
P148 4.9 内容代价函数 03:38 | P149 4.10 风格代价函数 17:01 |
P150 4.11 一维到三维推广 09:09 | P151 1.1为什么选择序列模型 03:01 |
P152 1.2数学符号 09:16 | P153 1.3循环神经网络 16:32 |
P154 1.4通过时间的反向传播 06:12 | P155 1.5不同类型的循环神经网络 09:34 |
P156 1.6 语言模型和序列生成 12:02 | P157 1.7 新序列采样 08:39 |
P158 1.8带有神经网络的梯度消失 06:29 | P159 1.9 GRU 单元 17:07 |
P160 1.10 长短期记忆(LSTM) 09:54 | P161 1.11 双向神经网络 08:20 |
P162 1.12 深层循环神经网络 05:17 | P163 2.1 词汇表征 10:08 |
P164 2.2 使用词嵌入 09:23 | P165 2.3 词嵌入的特性 11:55 |
P166 2.4 嵌入矩阵 05:58 | P167 2.5 学习词嵌入 10:09 |
P168 2.6 Word2Vec 12:48 | P169 2.7 负采样 11:54 |
P170 2.8 GloVe 词向量 11:09 | P171 2.9 情绪分类 07:38 |
P172 2.10 词嵌入除偏 11:09 | P173 3.1 基础模型 06:19 |
P174 3.2 选择最可能的句子 08:57 | P175 3.3 定向搜索 11:55 |
P176 3.4 改进定向搜索 11:01 | P177 3.5 定向搜索的误差分析 09:44 |
P178 3.6 Bleu 得分(选修) 16:27 | P179 3.7 注意力模型直观理解 09:42 |
P180 3.8 注意力模型 12:23 | P181 3.9 语音辨识 08:54 |
P182 3.10 触发字检测 05:03 | P183 3.11 结论和致谢 02:4 |
深度学习(卷积网络、循环神经网络、对抗神经网络、Tensorflow实战)
目录 | 29.1万播放 |
P1 1-1课程概述与环境配置 12:35 | P2 1-2深度学习与人工智能概述 14:32 |
P3 1-3机器学习常规套路 12:29 | P4 1-4K近邻与交叉验证 10:16 |
P5 1-5得分函数 12:02 | P6 1-6损失函数 07:53 |
P7 1-7softmax分类器 08:28 | P8 1-8课后讨论与答疑 37:19 |
P9 2-1梯度下降原理-2-2学习率的作用-2-3反向传播-2-4神经网络基础架构-2-5神经网络实例演示-2-6正则化与激活函数 1:05:40 | P10 2-7drop-out 11:25 |
P11 2-8课后讨论 14:35 | P12 3-1tensorflow安装 08:09 |
P13 3-2tensorflow基本套路 11:10 | P14 3-3tensorflow常用操作 09:31 |
P15 3-4tensorflow实现线性回归 15:28 | P16 3-5tensorflow实现手写字体 12:47 |
P17 3-6参数初始化 08:28 | P18 3-7迭代完成训练 10:59 |
P19 3-8课后讨论 24:14 | P20 4-1卷积体征提取 12:20 |
P21 4-2卷积计算流程 09:34 | P22 4-3卷积层计算参数 16:29 |
P23 4-4池化层操作 13:27 | P24 4-5卷积网络整体架构 07:02 |
P25 4-6经典网络架构 13:02 | P26 5-1卷积网络复习(验证码数据代码下载–) 07:07 |
P27 5-2使用CNN训练mnist数 11:47 | P28 5-3卷积与池化操作 09:03 |
P29 5-4定义卷积网络计算流程 13:29 | P30 5-5完成迭代训练 10:56 |
P31 5-6验证码识别概述 10:18 | P32 5-7验证码识别流程 17:43 |
P33 6-1自然语言处理与深度学 11:58 | P34 6-2语言模型 12:29 |
P35 6-3神经网络模型 10:48 | P36 6-4CBOW模型 13:07 |
P37 6-5参数更新 13:03 | P38 6-6负采样模型 06:33 |
P39 6-7案例:影评情感分类(数据 17:55 | P40 7-1基于词袋模型训练分类器 11:36 |
P41 7-2准备word2vec输入数据 10:53 | P42 7-3使用gensim构建word2 16:36 |
P43 7-4tfidf原理 13:30 | P44 7-5对抗生成网络原理概述(GAN数据代码下载—) 10:26 |
P45 7-6GAN网络结构定义 10:09 | P46 7-7 Gan迭代生成 11:55 |
P47 7-8DCGAN网络特性(DCGAN数据代码下载—) 07:40 | P48 7-9DCGAN网络细节 12:48 |
P49 8-1 RNN网络架构 12:23 | P50 8-2LSTM网络架构 12:00 |
P51 8-3案例:使用LSTM进行情 13:14 | P52 8-4情感数据集处理 13:08 |
P53 8-5基于word2vec的LSTM模型 17:37 | P54 8-6趣味网络串讲(数据代 11:25 |
P55 8-7课后讨论版 07:43 |