图解目标检测 之 Faster-RCNN 原理 详解

Faster-RCNN

一.背景

最新的物体检测网络依赖于候选框(生成)算法来假设物体位置。最新的进展如SPPnet[1]和Fast R-CNN[2]已经减少了检测网络的时间,(间接)凸显出候选框计算成为算法时间的瓶颈。Faster-RCNN引入了Region Proposal Network (RPN) ,它和检测网络共享整图的卷积特征,这样使得候选框的计算几乎不额外占用时间。RPN是一个全卷积网络,可同时预测物体外接框和每个位置是否为物体的得分。RPN采用端到端的方式进行训练,产生高质量的候选框,进而被Fast R-CNN用来做检测。Faster-RCNN通过共享卷积特征,进一步融合RPN和Fast R-CNN为一个网络——使用最近流行的基于注意力机制的网络技术,RPN单元指引统一后的网络查看的地方。对于很深的VGG-16模型[3],Faster-RCNN的检测系统在GPU上达到5fps(包括所有步骤)的效率,同时实现了VOC2007, 2012和MS COCO数据集上最好的准确率,此时每张图上仅产生300个候选框。在ILSVRC和COCO 2015竞赛中,Faster R-CNN和RPN是几个不同领域中第一名模型的基础。代码已经开源。
在这里插入图片描述

经过R-CNN和Fast RCNN算法的历程,Ross B. Girshick在2016年提出了新的Faster RCNN,在结构

猜你喜欢

转载自blog.csdn.net/DFCED/article/details/105138996
今日推荐