参考了:

https://www.cnblogs.com/52machinelearning/p/5821591.html

https://blog.csdn.net/qq_24695385/article/details/80368618

经典深度学习CNN总结 - LeNet、AlexNet、GoogLeNet、VGG、ResNet

 

LeNet

参考:https://www.jianshu.com/p/ce609f9b5910

 经典深度学习CNN总结 - LeNet、AlexNet、GoogLeNet、VGG、ResNet

 

AlexNet

参考:https://baike.baidu.com/item/AlexNet/22689612?fr=aladdin

 经典深度学习CNN总结 - LeNet、AlexNet、GoogLeNet、VGG、ResNet

GoogLeNet

2014年ImageNet冠军

参考:https://www.cnblogs.com/shouhuxianjian/p/7786760.html

https://www.cnblogs.com/Allen-rg/p/5833919.html

经典深度学习CNN总结 - LeNet、AlexNet、GoogLeNet、VGG、ResNet

其中,Inception原理如下图所示:一个Inspection层可以达到多个CNN层的效果。这有点像ResNet的一个单元。

  • 可用于提升网络非线性表达能力
  • 削弱梯度消失的影响
  • 减小参数的数量(削弱过拟合)。GoogleNet只使用500万个参数,是AlexNet的1/12,它使用了6000万个参数。VGGNet使用了比AlexNet3倍多的参数。
  • 据说可以减少运算量。

经典深度学习CNN总结 - LeNet、AlexNet、GoogLeNet、VGG、ResNet

 

VGG

2014年ImageNet亚军

 参考:https://baike.baidu.com/item/VGG%20模型/22689655?fr=aladdin

经典深度学习CNN总结 - LeNet、AlexNet、GoogLeNet、VGG、ResNet

ResNet

https://www.cnblogs.com/alanma/p/6877166.html

主要解决深层网络梯度消失问题。

 经典深度学习CNN总结 - LeNet、AlexNet、GoogLeNet、VGG、ResNet