参考了:
https://www.cnblogs.com/52machinelearning/p/5821591.html
https://blog.csdn.net/qq_24695385/article/details/80368618
LeNet
参考:https://www.jianshu.com/p/ce609f9b5910
AlexNet
参考:https://baike.baidu.com/item/AlexNet/22689612?fr=aladdin
GoogLeNet
2014年ImageNet冠军
参考:https://www.cnblogs.com/shouhuxianjian/p/7786760.html
https://www.cnblogs.com/Allen-rg/p/5833919.html
其中,Inception原理如下图所示:一个Inspection层可以达到多个CNN层的效果。这有点像ResNet的一个单元。
- 可用于提升网络非线性表达能力
- 削弱梯度消失的影响
- 减小参数的数量(削弱过拟合)。GoogleNet只使用500万个参数,是AlexNet的1/12,它使用了6000万个参数。VGGNet使用了比AlexNet3倍多的参数。
- 据说可以减少运算量。
VGG
2014年ImageNet亚军
参考:https://baike.baidu.com/item/VGG%20模型/22689655?fr=aladdin
ResNet
https://www.cnblogs.com/alanma/p/6877166.html
主要解决深层网络梯度消失问题。
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:经典深度学习CNN总结 – LeNet、AlexNet、GoogLeNet、VGG、ResNet - Python技术站