MonoRUn: Monocular 3D Object Detection by Reconstruction and Uncertainty Propagation

       3D 空间中的目标定位是单目 3D 目标检测的一个具有挑战性的方面。 6DoF 姿态估计的最新进展表明,预测图像和对象 3D 模型之间的密集 2D-3D 对应图,然后通过 Perspective-nPoint (PnP) 算法估计对象姿态可以实现显着的定位精度。然而,这些方法依赖于目标的几何真值的训练,这在真实的户外场景中很难获得。为了解决这个问题,我们提出了 MonoRUn,这是一种新颖的检测框架,它以自监督的方式学习密集对应关系和几何图形,并带有简单的 3D 边界框注释。

       单目 3D 目标检测是计算机视觉中一个活跃的研究领域。尽管基于深度学习的 2D 对象检测取得了显着进展 [3, 30],但 3D 对应物仍然对准确的对象定位提出了更大的挑战,因为 单个图像无法提供明确的深度信息 。为了解决这个问题,大量工作利用几何先验并通过 2D-3D 约束解决对象姿态(相机帧中的位置和方向)。

猜你喜欢

转载自blog.csdn.net/YoooooL_/article/details/130876488