此篇文章灵感来源于一位正在做车端感知算法的程序员,本人在这之前并不了解YOLOv3的强大,但亲身感受后,不得不说YOLO的创造者-Joseph Redmon和Ali Farhadi等人简直是鬼才。随后本人翻阅了大量的文献和内容,发现如要想了解 YOLO v3必须得从之前的论文开始,因为关于YOLO v3的论文写的实在是随意。
2015年,Joseph Redmon和Ali Farhadi提出的基于单个神经网络的目标检测系统。比目前最好的方法提高了14%的精度,在GPU上能达到13FP。网络结构示意图如下:
详细中文解析链接:https://blog.csdn.net/u013187057/article/details/84498042
2016年,YOLO诞生了,被后人称为YOLOv1,它摒弃了RCNN系列方法中的region proposal步骤,将detection问题转为一个回归问题。YOLO v1 网络架构是受到图像识别模型GoogLeNet的启发。网络有24个卷积层后接2个全连接层。然而,不同于GoogLeNet中使用的inception modules简单地在1×1卷积层后面接上3×3卷积层(类似于Lin等人)。如下图 Figure 3 所示:
详细中文解析链接:https://www.cnblogs.com/CZiFan/p/9516504.html
2017年,YOLO模型升级,称为YOLOv2,基于实时目标检测系统YOLO9000,YOLOv2在PASCALVOC和COCO等标准检测任务上是当时最先进的。此外,YOLOv2可以运行在各种图像大小,以提供速度和准确性之间的平滑折衷。YOLOv2网络结构图如下:
详细中文解析链接:https://www.jianshu.com/p/9bb7d2c2b083
YOLOv2:https://pjreddie.com/darknet/
YOLO9000 github:https://github.com/philipperemy/yolo-9000
2018年,Joseph Redmon, Ali Farhadi将YOLO进行了进一步的更新,做了一些小设计更改让其表现更好。YOLOv3比YOLOv2相较大了一些,却更加准确,但是依然很快,并且YOLOv3成为了工程落地模型中的代表,目前国内具有代表性的自动驾驶公司例如百度-阿波罗正在使用YOLOv3,因为涉及到的摄像头路数比较多,YOLOv3在此功能上更有突出的表现。对于应用英伟达的开发者来说,YOLOv3搭载其GPU更加发挥了其速度快的优势。下图为YOLOv3的网络结构图:
中文论文链接:https://blog.csdn.net/qq_31914683/article/details/79766150
结构图:https://blog.csdn.net/leviopku/article/details/82660381
github地址:https://github.com/qqwweee/keras-yolo3
如今时隔快两年,YOLOv3并没有进化到YOLOv4,2020年2月23日消息,YOLO算法作者Joseph Redmon在个人Twitter上宣布,将停止一切CV研究,原因是自己的开源算法已经用在军事和隐私问题上。这对他的道德造成了巨大的考验。YOLO(You Only Look Once)你只需看一次,将成为CV界永远的辉煌。
欢迎大家转载、留言、评论
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:Github热门AI技术推荐——目标检测之YOLO - Python技术站