Fast RCNN更准一些、其损失函数比YOLO简单。
YOLO更快
简介:
测试过程:
训练过程:
坐标、含有、不含、类别预测
目标检测的效果准确率
mAP:值1-100,m是mean。
YOLO v2
YOLO v2: https://arxiv.org/abs/1612.08242
改进部分:
1、使用了BN层提升了2%(Batch Normalization)。有助于规范化模型,提升收敛速度,可以在舍弃dropout优化后依然不会过拟合。
2、以往是Google Net提取特征网络
3、没有用全连接层。若是使用全连接层,为了保证网络尺寸,输入图片大小是要固定的。使用了类似Faster RCNN中的锚点预测。
4、k-means聚类,没有使用欧式距离。
5、预测定位,限制。sigmoid函数
6、多尺度特征融合
7、多尺度训练
8、特征提取网络改进。Google net改进为Darknet.
YOLO v2测试过程和v1基本一致。
YOLO v2训练过程:
因为最后要用到的是448×448。
训练过程:
损失函数:
YOLO v3
YOLO: Real-Time Object Detection https://pjreddie.com/darknet/yolo/
YOLO v3使用的是残差网络
【其他资料】
研究 | YOLO一眼就能认出你:看一个神经网络如何全视野实时检测目标 - 简书 https://www.jianshu.com/p/ec2f762e6246
基于深度学习的目标检测 - 代码学习者coding - 博客园 https://www.cnblogs.com/gujianhan/p/6035514.html
OverFeat是用CNN统一来做分类、定位和检测的经典之作。
基于区域提名的方法,包括R-CNN、SPP-net、Fast R-CNN、Faster R-CNN、R-FCN。
端到端(End-to-End)的目标检测方法,这些方法无需区域提名,包括YOLO和SSD。
yolo升级版 - fangxiangeng的博客 - CSDN博客 https://blog.csdn.net/fangxiangeng/article/details/80623129
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:目标检测YOLOv1-v3——学习笔记 - Python技术站