标签:卷积 梯度 知识 传播 神经网络 6.3 反向
CNN感觉这个人的博客很懂
1 感知机
2.1 激活函数实例
4 卷积层
5 池化
6.1
6.2 反向传播
6.3 面临的两大问题
6.3.1 训练集有问题,GIGO(gabage in gabage out)
6.3.2 反向传播怎么更改参数
6.4 应用场景的限制:数据量大,要求低的行业
7 用梯度下降法调参
卷积是在输入维度很高才用的
梯度弥散与梯度爆炸
标签:卷积,
梯度,
知识,
传播,
神经网络,
6.3,
反向
From: https://www.cnblogs.com/bear-xin/p/16747842.html