深度学习--初识卷积神经网络
1.LeNet-5
80年代,正确率达到99.2% 5/6层
输入层:32*32
第一层:卷积层 6@28*28
第二层:下采样层 6@14*14
第三层:卷积层 16@10*10
第四层:下采样层 16@5*5
第五层:全连接层 120
第六层:全连接层 84
输出层:高斯连接层 10
2.AlexNet
2012年,8层网络结构 5个卷积层+3个
-
引入Max pooling 和 ReLU nonlinearity
-
多数据和大模型
-
GPU
-
Dropout引入
3.VGGNet
2014年:6个版本:11、16、19 19层
创新:小的卷积核窗口
4.GoogLeNet
2014年 22层
创新:
- 小的卷积核窗口
- 不同卷积核对同一层进行卷积
5.深度残差网络ResNet
引入shortcut连接,2-3层加一个短路,152层
现在主要学习ResNet和Inception网络就可以了
标签:10,16,--,卷积,神经网络,初识 From: https://www.cnblogs.com/ssl-study/p/17348505.html