此篇文章灵感来源于一位正在做车端感知算法的程序员,本人在这之前并不了解YOLOv3的强大,但亲身感受后,不得不说YOLO的创造者-Joseph Redmon和Ali Farhadi等人简直是鬼才。随后本人翻阅了大量的文献和内容,发现如要想了解 YOLO v3必须得从之前的论文开始,因为关于YOLO v3的论文写的实在是随意。

 

2015年,Joseph Redmon和Ali Farhadi提出的基于单个神经网络的目标检测系统。比目前最好的方法提高了14%的精度,在GPU上能达到13FP。网络结构示意图如下:

 

Github热门AI技术推荐——目标检测之YOLO

详细中文解析链接:https://blog.csdn.net/u013187057/article/details/84498042

 

2016年,YOLO诞生了,被后人称为YOLOv1,它摒弃了RCNN系列方法中的region proposal步骤,将detection问题转为一个回归问题。YOLO v1 网络架构是受到图像识别模型GoogLeNet的启发。网络有24个卷积层后接2个全连接层。然而,不同于GoogLeNet中使用的inception modules简单地在1×1卷积层后面接上3×3卷积层(类似于Lin等人)。如下图 Figure 3 所示:

 

Github热门AI技术推荐——目标检测之YOLO

 

详细中文解析链接:https://www.cnblogs.com/CZiFan/p/9516504.html

 

2017年,YOLO模型升级,称为YOLOv2,基于实时目标检测系统YOLO9000,YOLOv2在PASCALVOC和COCO等标准检测任务上是当时最先进的。此外,YOLOv2可以运行在各种图像大小,以提供速度和准确性之间的平滑折衷。YOLOv2网络结构图如下:

 

Github热门AI技术推荐——目标检测之YOLO

 

详细中文解析链接:https://www.jianshu.com/p/9bb7d2c2b083

YOLOv2:https://pjreddie.com/darknet/

YOLO9000 github:https://github.com/philipperemy/yolo-9000

 

2018年,Joseph Redmon, Ali Farhadi将YOLO进行了进一步的更新,做了一些小设计更改让其表现更好。YOLOv3比YOLOv2相较大了一些,却更加准确,但是依然很快,并且YOLOv3成为了工程落地模型中的代表,目前国内具有代表性的自动驾驶公司例如百度-阿波罗正在使用YOLOv3,因为涉及到的摄像头路数比较多,YOLOv3在此功能上更有突出的表现。对于应用英伟达的开发者来说,YOLOv3搭载其GPU更加发挥了其速度快的优势。下图为YOLOv3的网络结构图:

 

Github热门AI技术推荐——目标检测之YOLO

 

中文论文链接:https://blog.csdn.net/qq_31914683/article/details/79766150

结构图:https://blog.csdn.net/leviopku/article/details/82660381

github地址:https://github.com/qqwweee/keras-yolo3

 

如今时隔快两年,YOLOv3并没有进化到YOLOv4,2020年2月23日消息,YOLO算法作者Joseph Redmon在个人Twitter上宣布,将停止一切CV研究,原因是自己的开源算法已经用在军事和隐私问题上。这对他的道德造成了巨大的考验。YOLO(You Only Look Once)你只需看一次,将成为CV界永远的辉煌。

 

欢迎大家转载、留言、评论