Introduction
YOLOv1是one-stage detector鼻祖、real-time detector鼻祖。
所谓one-stage,即不需额外一个stage来生成RP,而是直接分类回归出output:
YOLOv1直接将整张图片分成 S×SS×S 的小格子区域,每个区域生成 BB 个bbox(论文中B=2" role="presentation" >B=2),每个bbox去预测中心点落在该格的物体。但是每个格子生成的所有BB个bbox共享 一个分类score:
因此,YOLOv1最后一层的输出是一个 S×S×(B∗5+C)" role="presentation" >S×S×(B∗5+C) 的 tensor 。
其中,SS为每维的格子段数,B" role="presentation" >B为每格生成的bbox数,CC为前景类别数。
YOLOv1=24×Conv+2×FC" role="presentation" >YOLOv1=24×Conv+2×FC:
Note:
经过权衡利弊,YOLOv1采用了山寨版的GoogleNet作为basemodel,而非VGG;
在第24层时,每个单点对应原图的感受野达到了782×782782×782。而原图只有448×448448×448,覆盖了整张原图。也就意味着,到了第24层的时候,每个单点都能看到整张原图。更不要提第25、26层是两个fc操作了。
另外,Fast YOLOv1=9×Conv+2×FCFastYOLOv1=9×Conv+2×FC。速度更快,但精度也略低。
Innovation
one-stage detector鼻祖、real-time detector鼻祖,里程碑级的贡献。
从image pixel直达bbox cordination和class probability。
设计得很有新意,直接输出每个bbox的cls和reg结果(同一条向量上),并把分为前景的bbox向量条打到图上。
每个grid只负责一个物体。这样自然将候选框数量大幅砍削到了 S×S×BS×S×B 。有效缓解了类别不平衡,却也放弃了对每个ground truth框的大量试错机会。
Result
YOLOv1最大的优点就是“快”,“灰常快”。YOLOv1的检测速度为 45 fps ;Fast YOLOv1甚至达到了 155 fps :
不过作者自己也承认,精度方面还是和two-stage系中的state-of-the-art水平是有差距的:
但是,虽然整体检测精度(mAP)不如你Fast R-CNN,但是我对背景的检测精度比你高了一倍多啊:
然而这么比就有点不公平了。YOLOv1只生成少量候选框的机制,决定了遇到的背景框数量远少于Fast R-CNN,因此受到类别不平衡问题的影响更小,自然对背景框的检测精度就高啦。
Fast R-CNN + YOLOv1 的效果还比纯粹的Fast R-CNN高了2.3个点:
在各种实验的过程中,作者还惊喜地发现,YOLOv1在艺术图片上的泛化性能也是一大亮点:
以下第一排就是各种艺术画:
拿艺术画的检测结果demo并放入论文中的做法,也是很有新意。
Thinking
每个grid只负责一个物体。非常简单粗暴,这明显是对实际场景数据的观察得到的结果。
因为数据集中的大部分图片都是常规图片,分布有秩,大小合理。因此YOLOv1对于大部分常规图片检测是高效可行的。
但是小部分非常规图片(两个以上物体的中心位置落入同一个grid),直接就把YOLOv1的mAP值给拉低了。
同时,由于YOLOv1只针对最后7x7的特征图进行分析,使得它对小目标的检测效果不佳。
YOLOv1在鱼 (检测速度) 与熊掌 (检测精度) 中选择了短平快的方式,突破two-stage的格局限制,创造出one-stage。虽然离最高mAP还略有差距,但是速度的暴涨,让real-time detection成为现实。这一点,YOLOv1功在千秋。
YOLOv1由于精度太差,而空有那么高的检测速度。因此在实际落地中,基本不用YOLOv1。甚至连对实时性要求极高的自动驾驶,也是使用的FPN(+Faster R-CNN)。
[1] You Only Look Once: Unified, Real-Time Object Detection
[2] YOLO - Google Slides
[3] 论文阅读笔记:You Only Look Once: Unified, Real-Time Object Detection