视觉SLAM综述

转自:https://blog.csdn.net/weixin_40024157/article/details/80804494

研究概述(内容简介、研究意义及作用)


SLAM是simultaneous localization andmapping的缩写,意为同时定位与建图技术,SLAM技术的巨大发展,主要是因为以下应用场景:

1.     室内环境、室外GPS信号不好的区域、水下、太空等,没有先验地图,难以获得全球定位,但是需要根据周围环境构建局部地图,进行自主导航。

2.     有先验地图,但是无法获得自身相对于地图的位置,比如提前绘制了工厂的地图,关机重启后不知道当前的位置,用SLAM技术就可以重定位。

SLAM技术主要根据传感器的不同主要分为激光SLAM和视觉SLAM。机器人通过激光雷达来实现SLAM被称为激光SLAM,激光雷达价格较为昂贵,有效距离不够远,开阔场景下不适用。使用相机作为唯一感知环境的传感器,被称为视觉SLAM。由于相机具有成本低,轻,很容易放到商品硬件上的优点,且图像含有丰富的信息,视觉SLAM技术受到了更大的关注。根据采用的视觉传感器不同,可以将视觉SLAM主要分为三类:仅用一个相机作为唯一外部传感器的单目视觉SLAM;使用多个相机作为传感器的立体视觉SLAM,其中双目立体视觉的应用最多;基于单目相机与红外传感器结合构成的传感器的RGBD-SLAM。

高鲁棒性、高精度、实时性的视觉SLAM,对无人驾驶,增强现实等领域有着里程碑式的意义。比如:无人驾驶领域用视觉SLAM技术来实现对车辆周围环境的建图和定位,对目标物体的检测与追踪,高鲁棒性带来高安全性,精度对车距的控制、启停刹车有着重大影响,而实时性不好可能会发生卡顿,从而引发危险。

国外相关领域研究综述

1.     基于特征点的视觉SLAM

基于特征点的视觉SLAM发展主要分为三个阶段。第一个阶段为滤波器阶段,这个阶段主要使用扩展卡尔曼滤波(EKF),无迹卡尔曼滤波(UKF),粒子滤波。第二个阶段为关键帧阶段,这一阶段将整个SLAM系统按线程划分为定位,建图,闭环检测,也成为现阶段比较主流的框架。第三个阶段为RGD阶段,由于微软推出了RGBD相机,可以获得图像的深度信息,简化了三维重建的过程,文献[18]是最早提出的使用RGBD相机对室内环境进行三维重建的方法,在彩色图像中提取SIFT特征并在深度图像上查找相应的深度信息。然后使用RNSAC方法对3⁃D特征点进行匹配并计算出相应的刚体运动变换,再以此作为ICP(iterativeclosest point)的初始值来求出更精确的位姿。

2.     直接的视觉SLAM

直接的SLAM方法指的是直接对像素点的强度进行操作,避免了特征点的提取,该方法能够使用图像的所有信息。此外,提供更多的环境几何信息,有助于对地图的后续使用。且对特征较少的环境有更高的准确性和鲁棒性。为了构建稠密的三维环境地图,比较具有代表性的是En-gel等[26] 提出的LSD-SLAM算法(large-scale direct SLAM),该方法在估计高准确性的相机位姿的同时能够创建大规模的三维环境地图。文献[29]是较好的直接RGB_D SLAM方法,该方法结合像素点的强度误差与深度误差作为误差函数,通过最小化代价函数,从而求出最优相机位姿,该过程由g2o实现,并提出了基于熵的关键帧提取及闭环检方法,从而大大降低了路径的误差。

视觉SLAM的主要标志性成果有:AndrewDavision提出的MonoSLAM[3]是第一个基于EKF方法的单目SLAM,能够达到实时但是不能确定漂移多少,能够在概率框架下在线创建稀疏地图。DTAM[24]是2011年提出的基于直接法的单目SLAM算法,该方法通过帧率的整幅图像对准来获得相对于稠密地图的相机的6个自由度位姿,能够在GPU上达到实时的效果。PTAM[10]是由Georg Klein提出的第一个用多线程处理SLAM的算法,将跟踪和建图分为两个单独的任务并在两个平行的线程进行处理。KinectFusion[27]是第一个基于Kinect的能在GPU上实时构建稠密三维地图的算法,该方法仅使用Kinect相机获取的深度信息去计算传感器的位姿以及构建精确的环境3D地图模型。ORB_SLAM[13]是2015年出的比较完整的基于关键帧的单目SLAM算法,将整个系统分为追踪、地图创建、闭环控制3个线程进行处理,且特征的提取与匹配、稀疏地图的创建、位置识别都是基于ORB特征,其定位精确度很高,且可以实时运行

国内相关领域研究综述

文献综述小结

十几年来,视觉 SLAM 虽然取得了惊人的发展,但是仅用摄像机作为唯一外部传感器进行同时定位与三维地图重建还是一个很具挑战性的研究方向,想要实时进行自身定位且构建类似人眼看到的环境地图还有很长的科研路要走。 为了弥补视觉信息的不足,视觉传感器可以与惯性传感器( IMU) 、激光等传感器融合,通过传感器之间的互补获得更加理想的结 果。 此 外, 为 了 能 在 实 际 环 境 中 进 行 应 用,SLAM 的鲁棒性需要很高,从而足够在各种复杂环境下进行准确的处理,SLAM 的计算复杂度也不能太高,从而达到实时效果。
 

猜你喜欢

转载自blog.csdn.net/YJThuicheng/article/details/83616281