目录
2.Weighted Scan Context: Global Descriptor with Sparse Height Feature for Loop Closure Detection
3.LiDAR Iris for Loop-Closure Detection(IROS 2020)
5.(语义图)Semantic Graph Based Place Recognition for 3D Point Clouds(IROS 2020)
6.(点云分割)SegMap: Segment-based mapping and localization using data-driven descriptors(2020IJRR)
7.Robust Place Recognition using an Imaging Lidar(ICRA 2021)
8.DiSCO: Differentiable Scan Context With Orientation
9.LiPMatch: LiDAR Point Cloud Plane based Loop-Closure(2021 RA-L)
10.BVMatch: Lidar-Based Place Recognition Using Bird's-Eye View Images (2021 RA-L)
11.SSC: Semantic Scan Context for Large-Scale Place Recognition(IROS 2021)
13.STD: A Stable Triangle Descriptor for 3D place recognition(ICRA 2023)
14.BTC: A Binary and Triangle Combined Descriptor for 3D Place Recognition(2024 arxiv )
15.A Fast and Robust Loop Detection and Correction Method for 3D Lidar SLAM(2018 sensors)
17.(点云强度局部描述)Local Descriptor for Robust Place Recognition Using LiDAR Intensity(2019RA-L)
18.Season-Invariant and Viewpoint-Tolerant LiDAR Place Recognition in GPS-Denied Environments(TIE)
4.OREOS: Oriented Recognition of 3D Point Clouds in Outdoor Scenarios(IROS2019)
5.Semantically Assisted Loop Closure in SLAM Using NDT Histograms(RA-L 2019)
7. Locus: LiDAR-based Place Recognition using Spatiotemporal Higher-Order Pooling(ICRA2021)
9.OverlapNet was nominated as the Best System Paper at Robotics: Science and Systems (RSS) 2020
11.A Registration-aided Domain Adaptation Network for 3D Point Cloud Based Place Recognition
13.Pyramid Point Cloud Transformer for Large-Scale Place Recognition
14.MinkLoc3D: Point Cloud Based Large-Scale Place Recognition
15.Radar-to-Lidar: Heterogeneous Place Recognition via Joint Learning
16.LCDNet: Deep Loop Closure Detection and Point Cloud Registration for LiDAR SLAM (IEEE T-RO 2022)
17.AttDLNet: Attention-based DL Network for 3D LiDAR Place Recognition.(ROBOT22)
18.TransLoc3D : Point Cloud based Large-scale Place Recognition using Adaptive Receptive Fields
19.LoGG3D-Net: Locally Guided Global Descriptor Learning for 3D Place Recognition.(ICRA 2022)
20.Retriever: Point Cloud Retrieval in Compressed 3D Maps
21.AutoPlace: Robust Place Recognition with Single-chip Automotive Radar(ICRA 2022)
26.CrossLoc3D: Aerial-Ground Cross-Source 3D Place Recognition ( ICCV 2023)
前言
回环检测(Loop Closure Detection)是机器人和计算机视觉领域中的一个重要概念,特别是在机器人导航、地图构建和定位(SLAM,Simultaneous Localization and Mapping)中。它的主要任务是识别机器人或传感器在环境中访问的相同位置或路径。这一过程对于确保地图的准确性和减少累积误差至关重要。
一、传统方法
1.Scan Context(IROS2018)
代码:SC-A-LOAM/include/scancontext/Scancontext.cpp at main · gisbi-kim/SC-A-LOAM (github.com)
中文博客:Scan Context / Scan Context ++ 论文和源码阅读-CSDN博客
摘要:为了实现基于结构信息的全局定位,我们提出了 Scan Context,这是一种来自 3D 光检测和测距 (LiDAR) 扫描的非基于直方图的全局描述符。与以前方法不同,所提出的方法直接从传感器记录可见空间的 3D 结构,而不依赖于直方图或先前的训练。此外,这种方法还建议使用相似性分数来计算两个扫描上下文之间的距离,并使用两阶段搜索算法来有效地检测循环。扫描上下文及其搜索算法使循环检测不受 LiDAR 视点变化的影响,因此可以在反向重访和拐角等位置检测到循环。已经通过 3D LiDAR 扫描的各种基准数据集评估了扫描上下文性能,所提出的方法显示出足够的性能改进。
2.Weighted Scan Context: Global Descriptor with Sparse Height Feature for Loop Closure Detection
原文:https://ieeexplore.ieee.org/document/9349417
摘要:在同时定位与建图(SLAM)中,回环检测模块对轨迹和地图的全局一致性有重要影响。相比于基于视觉的方法,基于LiDAR的方法因其能够获取完整的360°水平视野且不受光照变化影响,正逐渐受到关注。然而,纯粹从LiDAR点云中提取的高度特征在特定环境中容易出现特征退化问题。为减少高度特征退化的负面影响,我们提出了一种全局描述符——加权扫描上下文(Weighted Scan Context),该方法利用点的强度信息来稀疏高度方向的几何特征。为减少余弦距离对视点平移运动的敏感性,我们采用了一种混合距离度量方法,将余弦距离和欧氏距离相结合来衡量两个场景的相似性。通过在KITTI数据集上的实验,所提出的方法相比现有方法表现出更优的性能。
3.Scan Context++: Structural Place Recognition Robust to Rotation and Lateral Variations in Urban Environments
原文:https://ieeexplore.ieee.org/abstract/document/9610172
摘要:位置识别是机器人导航中的一个关键模块。现有的研究大多集中在视觉位置识别上,仅基于外观识别之前访问过的地方。在本文中,我们通过基于结构外观(即来自距离传感器)识别位置,来解决结构性位置识别的问题。我们在之前关于旋转不变空间描述符的基础上扩展,提出的描述符在滚转-俯仰运动不严重时,能够形成对旋转(航向)和位移都具有鲁棒性的通用描述符。我们引入了两个子描述符,并实现了拓扑位置检索,随后进行1自由度半度量定位,从而弥合拓扑位置检索与度量定位之间的差距。所提方法在环境复杂性和规模方面进行了全面评估。源代码已经公开,能够轻松集成到现有的激光雷达同时定位与建图系统中。
3.LiDAR Iris for Loop-Closure Detection(IROS 2020)
原文:https://ieeexplore.ieee.org/document/9341010
代码:https://github.com/JoestarK/LiDAR-Iris
摘要:本文提出了一种用于LiDAR点云的全局描述子,称为LiDAR虹膜,用于快速且精确的回环检测。通过对LiDAR虹膜图像表示进行多次LoG-Gabor滤波和阈值操作,可以为每个点云生成一个二进制特征图像。对于两个点云,可以通过计算从这两个点云中提取的二进制特征图像的汉明距离来衡量它们的相似性。假设在3D (x, y, 偏航角) 位姿空间中,LiDAR虹膜方法能够通过LiDAR虹膜表示的傅里叶变换在描述子层面实现姿态不变的回环检测。尽管如此,该方法通过额外的IMU传感器重新对齐点云后,通常也适用于6D位姿空间。对五个道路场景序列的实验结果表明,该方法在回环检测中表现出色。
4.(点云强度)Intensity Scan Context: Coding Intensity and Geometry Relations for Loop Closure Detection(ICRA 2020)
原文:https://ieeexplore.ieee.org/document/9196764
代码:https://github.com/wh200720041/iscloam
摘要:回环检测是同时定位与建图 (SLAM) 中一个重要且具有挑战性的问题。由于其对视角和光照的鲁棒性,通常采用激光雷达 (LiDAR) 传感器来解决此问题。现有的3D回环检测方法通常依赖于仅几何信息的局部或全局特征匹配,忽略了强度信息。在本文中,我们探索了激光雷达扫描中的强度特性,并证明其在地点识别中具有有效性。我们提出了一种新的全局描述子——强度扫描上下文 (ISC),该描述子结合了几何和强度特性。为了提高回环检测的效率,我们提出了一个高效的两阶段分层重识别过程,包括基于二进制操作的快速几何关系检索和强度结构重识别。通过本地实验和公共数据集测试,我们对所提方法的性能进行了全面评估。结果表明,我们的方法在召回率和召回精度上优于现有的仅几何信息方法。
5.(语义图)Semantic Graph Based Place Recognition for 3D Point Clouds(IROS 2020)
原文:https://ieeexplore.ieee.org/document/9341060
代码:https://github.com/kxhit/SG_PR
摘要:由于难以生成对遮挡和视点变化具有鲁棒性的有效描述符,因此 3D 点云的地点识别仍然是一个悬而未决的问题。与大多数专注于提取原始点云的局部、全局和统计特征的现有方法不同,我们的方法针对的是语义层面,该层面在对环境变化的鲁棒性方面可能更胜一筹。受人类视角的启发,人类通过识别语义对象并捕获它们之间的关系来识别场景,本文提出了一种基于语义图的新型位置识别方法。首先,我们通过保留原始点云的语义和拓扑信息,为点云场景提出了一种新的语义图表示。因此,地点识别被建模为图形匹配问题。然后,我们设计一个快速有效的图相似度网络来计算相似度。对 KITTI 数据集的详尽评估表明,我们的方法对遮挡和视点变化是稳健的,并且以很大的差距优于最先进的方法。
6.(点云分割)SegMap: Segment-based mapping and localization using data-driven descriptors(2020IJRR)
原文:https://journals.sagepub.com/doi/abs/10.1177/0278364919863090
代码:https://github.com/ethz-asl/segmap
摘要:精确估计机器人在先验全局地图中的位姿是移动机器人(如自动驾驶或灾区探索)的基本能力。然而,在非结构化、动态环境中,由于局部特征区分度不足和全局场景描述子信息过于粗略,这一任务依然充满挑战。因此,我们提出了SegMap:一种基于3D点云分割提取的定位与建图解决方案。分割级别的处理提供了对视角和局部结构变化的更高不变性,并促进了大规模3D数据的实时处理。SegMap利用一个紧凑的、数据驱动的描述子来执行多个任务:全局定位、3D密集地图重建以及语义信息提取。在多个城市驾驶和搜救实验中对SegMap的性能进行了评估。我们展示了学习到的SegMap描述子在段检索能力上优于现有的手工制作的描述子。因此,我们实现了更高的定位精度,并且比最先进的手工描述子提高了6%的召回率。这些基于分割的定位使我们能够减少多达50%的开环里程计漂移。SegMap是开源的,并附带易于运行的演示
7.Robust Place Recognition using an Imaging Lidar(ICRA 2021)
原文:https://ieeexplore.ieee.org/abstract/document/9562105
代码:https://github.com/TixiaoShan/imaging_lidar_place_recognition?
摘要:我们提出了一种使用成像LiDAR进行鲁棒实时地点识别的方法,该方法产生图像质量的高分辨率3D点云。利用成像LiDAR的强度读数,我们投影点云并获得强度图像。从图像中提取ORB特征描述子,并将其编码为一个词袋向量。该向量用于识别点云,并插入由DBoW维护的数据库,以便快速进行地点识别查询。返回的候选项通过匹配视觉特征描述子进一步验证。为了排除匹配的异常值,我们应用PnP方法,利用RANSAC最小化视觉特征在欧几里得空间中的位置与其在2D图像空间中的对应关系之间的重投影误差。结合相机和LiDAR基于地点识别方法的优势,我们的方法是真正的旋转不变,并且能够处理反向重访和倒置重访。所提方法在不同规模和环境下从多种平台收集的数据集上进行了评估。
8.DiSCO: Differentiable Scan Context With Orientation
原文:https://ieeexplore.ieee.org/document/9359460
代码:https://github.com/MaverickPeter/DiSCO-pytorch
摘要:全局定位对于机器人导航至关重要,第一步是从地图数据库中检索查询。这一问题被称为地点识别。近年来,基于LiDAR扫描的地点识别引起了关注,因为它对外观变化具有鲁棒性。在本论文中,我们提出了一种基于LiDAR的地点识别方法,称为具有方向性的可微分扫描上下文(DiSCO),该方法同时找到相似地点的扫描并估计它们的相对方向。该方向进一步可作为下游局部最优度量姿态估计的初始值,尤其在当前扫描与检索到的扫描之间存在较大方向差异时,提高姿态估计的准确性。我们的关键思路是将特征转换到频域。我们利用频谱的幅度作为地点描述子,这在理论上是旋转不变的。此外,基于可微分相位相关,我们可以使用频谱有效地估计全局最优相对方向。通过这样的结构约束,网络可以以端到端的方式进行学习,并且两项任务共享完整的主干,从而实现更好的可解释性和轻量化。最后,DiSCO在三个长期户外条件下的数据集上进行了验证,显示出优于对比方法的性能。
9.LiPMatch: LiDAR Point Cloud Plane based Loop-Closure(2021 RA-L)
原文:https://ieeexplore.ieee.org/document/9185044
代码:https://github.com/ahandsomeperson/LiPMatch
摘要:本文提出了一种基于点云的闭环检测方法,以纠正基于光学检测和测距的同时定位与地图构建(SLAM)系统中的长期漂移。在该方法中,我们将每个关键帧构建为一个完全连接的图,其中节点表示平面。为了检测闭环,所提方法采用几何约束来定义相似性度量,以匹配当前关键帧和地图中的关键帧。经过相似性评估后,符合几何约束的候选关键帧会通过平面的法向约束进行逐一检查,并通过改进的迭代最近点(ICP)方法进行验证。后者还提供了当前关键帧与匹配关键帧在全局参考框架中的相对姿态变换估计。实验结果表明,所提出的方法能够实现快速且可靠的闭环检测。
10.BVMatch: Lidar-Based Place Recognition Using Bird's-Eye View Images (2021 RA-L)
原文:https://ieeexplore.ieee.org/abstract/document/9462410
代码:https://github.com/zjuluolun/BVMatch
摘要:在大规模环境中使用激光雷达识别地点具有挑战性,主要是由于点云数据的稀疏特性。在本文中,我们提出了BVMatch,这是一种基于激光雷达的帧间地点识别框架,能够估计2D相对姿态。基于地面区域可以近似为平面的假设,我们将地面区域均匀离散为网格,并将3D激光雷达扫描投影为鸟瞰图(BV)图像。进一步地,我们使用一组Log-Gabor滤波器构建最大指数图(MIM),该图编码了图像中结构的方向信息。我们从理论上分析了MIM的方向特性,并引入了一种新颖的描述符,称为鸟瞰图特征变换(BVFT)。所提出的BVFT对鸟瞰图图像的旋转和强度变化不敏感。通过利用BVFT描述符,我们将激光雷达地点识别与姿态估计任务统一到BVMatch框架中。在三个大规模数据集上进行的实验表明,BVMatch在地点识别的召回率和姿态估计准确性方面优于最先进的方法。
11.SSC: Semantic Scan Context for Large-Scale Place Recognition(IROS 2021)
原文:https://ieeexplore.ieee.org/abstract/document/9635904
代码:https://github.com/lilin-hitcrt/SSC
摘要:地点识别使得SLAM系统能够纠正累积误差。与包含丰富纹理特征的图像不同,点云几乎仅包含纯几何信息,这使得基于点云的地点识别变得具有挑战性。现有的研究通常将坐标、法线、反射强度等低级特征编码为局部或全局描述符,以表示场景。此外,在匹配描述符时,它们往往忽略了点云之间的平移。与大多数现有方法不同,我们探索使用高级特征,即语义信息,以提高描述符的表示能力。同时,在匹配描述符时,我们尝试纠正点云之间的平移,以提高准确性。具体来说,我们提出了一种新颖的全局描述符,称为语义扫描上下文(Semantic Scan Context),它利用语义信息更有效地表示场景。我们还提出了一种两步全局语义ICP,以获得用于对齐点云的3D姿态(x,y,偏航),从而改善匹配性能。我们在KITTI数据集上的实验表明,我们的方法在很大程度上超越了最先进的技术。
12.A LiDAR-based single-shot global localization solution using a cross-section shape context descriptor(ISPRS 2022)
原文:https://www.sciencedirect.com/science/article/pii/S0924271622001447
代码:https://github.com/Dongxu05/CSSC
摘要:将LiDAR与高清(HD)地图融合是实现GNSS失效环境中全球定位的可行方法,这对于无人驾驶车辆和机器人技术至关重要。本文提出了一种单次全局定位解决方案,该方案仅使用旋转多束LiDAR传感器的当前扫描来定位自身在地理参考点云形式的HD地图中的位置和姿态。该单次全局定位解决方案估计当前时刻的状态,而不依赖于先前时刻的状态,从而避免了困扰基于滤波方法的非收敛问题。该解决方案允许来自不同LiDAR传感器的HD地图用于全球定位,且比现有方法更具鲁棒性。该方案包括两个过程:离线预处理和在线全局定位。在离线过程中,各种HD地图被预处理以构建用于定位过程的全局先验地图。在线全局定位过程包括两个元素:位置识别和位置与姿态估计。提出了一种新型的交叉截面形状上下文(CSSC)描述符,具有高度描述性和旋转不变性,用于后续处理。基于CSSC描述符,提出了两种策略:两阶段相似性估计和最近簇距离比率(NCDR),以提高位置识别精度。还提出了一种选择性广义迭代最近点(SGICP)算法,利用CSSC描述符准确计算位置和姿态。进行了全面的实验以评估该解决方案。对多个场景的精度-召回曲线的比较,尤其是在视点变化场景下,显示CSSC描述符比现有描述符更具鲁棒性。实验分析还确认,所提出的策略,两阶段相似性估计和NCDR,提升了位置识别精度。此外,与广义迭代最近点算法相比,SGICP算法在准确性上提高了31%,在效率上提高了60%。该解决方案在KITTI数据集上比OneShot算法的平均相对平移误差(RTE)改善了27%。在长期定位NCLT数据集测试中,该方案在1σ RTE上相较于基准有平均77%的改善。使用来自不同LiDAR传感器的HD地图时,所提出方案的平均RTE为0.13米。
13.STD: A Stable Triangle Descriptor for 3D place recognition(ICRA 2023)
代码:https://github.com/hku-mars/STD
原文:2209.12435
摘要—在这项工作中,我们提出了一种新颖的全局描述子,称为稳定三角形描述子(STD),用于3D位置识别。对于三角形,其形状由边的长度或包含角度唯一决定。此外,三角形的形状对刚性变换完全不变。基于这一特性,我们首先设计了一种算法,能够高效提取3D点云中的局部关键点,并将这些关键点编码为三角形描述子。随后,通过匹配点云之间描述子的边长(以及其他一些信息)实现位置识别。通过描述子匹配获得的点对应关系可以进一步用于几何验证,从而大大提高位置识别的准确性。在我们的实验中,我们将所提系统与其他先进系统(如M2DP、Scan Context)在公共数据集(如KITTI、NCLT和Complex-Urban)以及我们自收集的数据集(使用非重复扫描的固态LiDAR)上进行了广泛比较。所有定量结果表明,STD在适应性方面更强,并且在精度上相较于其他方法有显著提升。
14.BTC: A Binary and Triangle Combined Descriptor for 3D Place Recognition(2024 arxiv )
原文:待发布
代码:https://github.com/hku-mars/btc_descriptor
15.A Fast and Robust Loop Detection and Correction Method for 3D Lidar SLAM(2018 sensors)
摘要:在本文中,我们提出了一个完整的循环检测和校正系统,该系统是为来自激光雷达扫描仪的数据而开发的。关于检测,我们建议将全局点云匹配器与新颖的配准算法相结合,以高效的方式确定候选循环。配准方法可以处理方向上大多偏离的点云,同时比现有技术提高效率。此外,我们将全局点云匹配器的计算速度提高了 2-4 倍,最大限度地利用了 GPU。实验表明,与其他点云匹配器相比,我们的组合方法可以更可靠地检测激光雷达数据中的循环,因为它可以更好地权衡精度-召回率:对于接近 100% 的召回率,我们获得了高达 7% 的精度。最后,我们提出了一种新颖的循环校正算法,该算法使平均位姿误差和中位误差提高了 2 倍,同时只需要几秒钟即可完成。
原文:https://www.mdpi.com/1424-8220/19/1/23
16.Robust Place Recognition and Loop Closing in Laser-Based SLAM for UGVs in Urban Environments(sensor journal)
原文:https://ieeexplore.ieee.org/abstract/document/8316929
摘要:在本文中,提出了一种基于 3-D 激光的地方识别算法来完成同时定位和映射的闭环检测。采用名为方位角 (BA) 的图像模型将三维激光点转换为二维图像,然后利用从 BA 图像中提取的 ORB 特征进行场景匹配。由于查询 BA 图像与数据库中的所有 BA 图像匹配的计算成本太高,无法满足实时位置识别的要求,因此采用可视化词袋方法来提高搜索效率。此外,该文提出了一种速度归一化算法和一种基于三维几何的验证算法,以完成所提出的地方识别算法。在两个自主研发的 UGV 平台上进行了实验,以验证所提方法的性能。
17.(点云强度局部描述)Local Descriptor for Robust Place Recognition Using LiDAR Intensity(2019RA-L)
论文:Local Descriptor for Robust Place Recognition Using LiDAR Intensity
原文:https://ieeexplore.ieee.org/document/8618373
摘要:位置识别是移动机器人中一个具有挑战性的问题,尤其是在非结构化环境或视点和照明变化的情况下。大多数基于 LiDAR 的方法都依赖于几何特征来克服这些挑战,因为通常场景几何结构不受这些变化的影响,但往往会显著影响基于相机的解决方案。然而,与相机相比,LiDAR 缺乏成像所能提供的强大和描述性的外观信息。为了结合几何和外观的优点,我们建议将来自 LiDAR 的常规几何信息与其校准的强度耦合。该策略以新的描述符设计(称为 ISHOT)的形式提取非常有用的信息,在我们的本地描述符评估中,其性能明显优于流行的最先进的纯几何描述符。为了完成该框架,我们进一步开发了一种概率关键点投票地点识别算法,利用新的描述符并产生亚线性地点识别性能。我们的方法的有效性在大规模构建和非结构化环境中具有挑战性的全球定位实验中得到了验证。
18.Season-Invariant and Viewpoint-Tolerant LiDAR Place Recognition in GPS-Denied Environments(TIE)
原文:https://ieeexplore.ieee.org/abstract/document/8948317
摘要:在各种感知条件下,例如,所有天气、一天中的时间、季节和视点变化,地方识别仍然是一个具有挑战性的问题。与大多数现有的使用纯视觉的地方识别方法不同,本文研究了基于光检测和测距 (LiDAR) 的方法。点云对地点识别有一些好处,因为它们不会受到照明变化的影响。另一方面,它们受到不同角度或不同季节的结构变化的巨大影响。在本文中,提出了一种新颖的基于 LiDAR 的地方识别系统,即使在严重的季节性变化和视点变化的情况下,也能实现长期稳健的定位。为了提高效率,设计了一个紧凑的圆柱形图像模型,将三维点云转换为表示场景突出几何关系的二维图像。场景的上下文(建筑物、树木、道路结构等)用于高效的地点识别。还为后验证引入了基于序列的时间一致性检查。在三个数据集(Oxford RobotCar [1]、NCLT [2] 和 DUT-AS)上进行的广泛真实实验表明,所提出的系统优于最先进的视觉和基于 LiDAR 的方法,验证了其在具有挑战性的场景中的稳健性能。
19.(分割描述子)Seed: A Segmentation-Based Egocentric 3D Point Cloud Descriptor for Loop Closure Detection.(IROS2021)
原文:https://ieeexplore.ieee.org/document/9341517
摘要:地点识别对SLAM系统至关重要,因为它对于回环闭合起关键作用,并能帮助修正累积漂移,从而生成全局一致的地图。与视觉SLAM可以使用多种特征检测方法来描述场景不同,针对单次LiDAR扫描表示场景的研究较为有限。本文提出了一种基于分割的自我中心描述子,称为Seed,使用单次LiDAR扫描来描述场景。通过分割方法,首先获得不同的分割对象,能够减少噪声和分辨率的影响,使其更加鲁棒。随后,将分割对象的拓扑信息编码到描述子中。与其他已提出的方法不同,本文提出的方法具有旋转不变性,并且对平移变化不敏感。通过KITTI数据集评估了所提方法的可行性,结果表明该方法在精度方面优于最先进的方法。
二、学习方法
1.LocNet(IV 2018)
代码:HuanYin94/LocNet_frontend: The front-end implementation for LocNet (github.com)
原文:https://ieeexplore.ieee.org/document/8500682
摘要:在 3D 点云中进行全局定位是一个具有挑战性的问题,需要在没有任何先验知识的情况下估计车辆的姿态。在本文中,通过在全局先验地图中实现位置识别和姿态估计,提出了一种解决方案。具体来说,我们提出了一种使用 LocNet 的 LiDAR 点云的半手工制作的表示学习方法,该方法将地点识别问题陈述为相似性建模问题。通过 LocNet 的最终学习表示,提出了一个仅具有范围观测的全局定位框架。为了证明我们的全球定位系统的性能和有效性,我们采用了 KITTI 数据集与其他算法进行比较,并在我们长期的多会话数据集上进行评估。结果表明,我们的系统可以达到很高的准确率。
图:系统框架
2.PointNetVLAD(CVPR2018)
摘要:在本文中,我们提出了 PointNetVLAD,我们利用深度网络最近的成功来解决基于点云的地方识别检索问题。具体来说,我们的 PointNetVLAD 是现有 PointNet 和 NetVLAID 的组合/修改,它允许端到端训练和推理,以从给定的 3D 点云中提取全局描述符。此外,我们提出了 “lazy triplet and quadruplet” 损失函数,它可以实现更具判别性和可推广性的全局描述符来处理检索任务。我们为基于点云的地点识别检索创建了基准数据集,这些数据集上的实验结果表明了我们的 PointNetVLAD 的可行性。我们的代码和基准测试数据集下载链接可在我们的项目网站上找到。
代码:https://github.com/mikacuy/pointnetvlad?tab=readme-ov-file
原文:https://arxiv.org/pdf/1804.03492
3.1-Day Learning, 1-Year Localization: Long-Term LiDAR Localization Using Scan Context Image(2019 RA-L)
摘要:在这封信中,我们提出了一种长期的定位方法,该方法通过图像格式有效地利用环境的结构信息。所提出的方法即使在一天内就学会了,也能呈现出强大的全年本地化性能。所提出的定位器学习一个名为 Scan Context Image (SCI) 的点云描述符,并通过使用卷积神经网络将地点识别问题表述为地点分类,在网格地图上执行机器人定位。我们的方法比为位置识别提出的现有方法更快,因为它避免了数据库中查询和扫描之间的成对比较。此外,我们使用公开可用的长期数据集、NCLT 数据集和 Oxford RobotCar 数据集进行了全面的验证,并表明扫描上下文图像 (SCI) 定位在一年内实现了一致的性能,并且优于现有方法。
原文:https://ieeexplore.ieee.org/document/8633942
4.OREOS: Oriented Recognition of 3D Point Clouds in Outdoor Scenarios(IROS2019)
摘要:我们介绍了一种使用 3D LiDAR 扫描进行定向位置识别的新方法。经过训练,卷积神经网络可以从单个 3D LiDAR 扫描中提取紧凑的描述符。这些值既可用于从地图中检索附近的候选地点,也可用于估计引导本地注册方法所需的偏航差异。我们采用三元组损失函数进行训练,并使用硬负挖掘策略来进一步提高描述符提取器的性能。在对 NCLT 和 KITTI 数据集的广泛评估中,我们证明在具有挑战性的长期户外条件下,我们的方法优于基于数据驱动和手工制作数据表示的相关最先进方法。
原文:https://ieeexplore.ieee.org/document/8968094
(1)我们将当前的 3D LiDAR 扫描投影到 2D 距离图像上。
(2)利用卷积神经网络提取两个紧凑描述符 v 和 w。前者用于 k-Nearest-Neighbor (kNN) 搜索以检索wnn从地图中最近的候选地点开始。
(3)描述符 w 和wnn然后馈送到偏航估计神经网络中,以估计查询点云与地图中最近位置的点云之间的偏航角差异。
(4)最后,通过应用局部配准方法获得准确的 3 DoF 位姿估计,使用方向估计和来自最近地图位置的平面 x 和 y 坐标作为初始估计。
提出的用于描述符提取的网络架构由三个卷积层和两个全连接层组成。
5.Semantically Assisted Loop Closure in SLAM Using NDT Histograms(RA-L 2019)
摘要:精确的姿态知识对于移动机器人在户外环境中的可靠运行非常重要。同步定位和地图构建 (SLAM) 是在探索环境期间在线构建地图。SLAM 的一个组成部分是闭环检测,识别已访问过的相同位置以及现有地图上是否存在,并针对该位置进行定位。我们在以前的工作中已经表明,将深度分割网络的语义与正态分布变换 (NDT) 点云配准结合使用可以提高激光雷达里程计的鲁棒性、速度和准确性。在这项工作中,我们扩展了闭环检测方法,使用本地配准中已有的标签到 NDT 直方图中,并提出了一个基于语义辅助 NDT 和 PointNet ++ 的 SLAM 管道。我们在 KITTI 基准测试的序列上实验证明,我们提出的映射描述符优于没有语义的 NDT 直方图,并验证了它在 SLAM 任务中的使用。
代码:https://github.com/azaganidis/se_ndt
原文:https://ieeexplore.ieee.org/document/8968140
6.DetectionDH3D: Deep Hierarchical 3D Descriptors for Robust Large-Scale 6DoF Relocalization(ECCV2020)
原文:https://link.springer.com/chapter/10.1007/978-3-030-58548-8_43
摘要:为了在大规模点云中实现重定位,我们提出了首个统一全局地点识别和局部6自由度位姿精细化的方法。为此,我们设计了一个Siamese网络,能够直接从原始3D点学习3D局部特征检测和描述。该网络集成了FlexConv和Squeeze-and-Excitation (SE) 模块,以确保学习到的局部描述子能够捕捉多层次的几何信息和通道间的关系。为了检测3D关键点,我们以无监督的方式预测局部描述子的区分能力。通过直接聚合学习到的局部描述子并结合有效的注意力机制,我们生成了全局描述子。这样,局部和全局的3D描述子能够在一次前向传递中推理完成。多项基准测试的实验结果表明,我们的方法在全局点云检索和局部点云配准方面均取得了与最先进方法相当的结果。为了验证我们3D关键点的通用性和鲁棒性,我们还展示了在没有微调的情况下,该方法在由视觉SLAM系统生成的点云配准任务中也表现出色。
7. Locus: LiDAR-based Place Recognition using Spatiotemporal Higher-Order Pooling(ICRA2021)
原文:https://ieeexplore.ieee.org/abstract/document/9560915
代码:https://github.com/csiro-robotics/locus
摘要:地点识别通过在同时定位与建图 (SLAM) 中提供非本地约束,使得能够估计出全局一致的地图和轨迹。本文提出了一种新颖的地点识别方法Locus,利用3D LiDAR点云在大规模环境中进行识别。我们提出了一种提取和编码与场景组件相关的拓扑和时间信息的方法,并展示了将这些辅助信息纳入地点描述如何导致更鲁棒和更具区分性的场景表示。通过使用二阶池化和非线性变换来聚合这些多层次特征,生成固定长度的全局描述子,该描述子对输入特征的排列不变。所提出的方法在KITTI数据集上优于最先进的方法。此外,Locus在遮挡和视角变化等多种挑战性情况下表现出良好的鲁棒性。
8.LPD-Net: 3D Point Cloud Learning for Large-Scale Place Recognition and Environment Analysis(ICCV 2019)
摘要:基于点云的场所识别仍然是一个开放性问题,主要原因在于从原始三维点云中提取局部特征并生成全局描述符的困难,尤其在大规模动态环境中更为复杂。本文提出了一种新型深度神经网络,名为LPD-Net(大规模场所描述网络),该网络能够从原始三维点云中提取具有区分性和广泛适应性的全局描述符。我们设计了两个模块:自适应局部特征提取模块和基于图的邻域聚合模块,这些模块有助于提取局部结构并揭示大规模点云中局部特征的空间分布,以端到端的方式进行处理。我们将所提出的全局描述符应用于解决基于点云的检索任务,以实现大规模场所识别。对比结果表明,LPD-Net的性能显著优于PointNetVLAD,并达到了最新的研究水平。我们还将LPD-Net与基于视觉的解决方案进行了比较,结果显示我们的方法在不同天气和光照条件下具有更强的鲁棒性。
代码:https://github.com/Suoivy/LPD-net?tab=readme-ov-file
9.OverlapNet was nominated as the Best System Paper at Robotics: Science and Systems (RSS) 2020
原文:https://www.roboticsproceedings.org/rss16/p009.pdf
代码:https://github.com/PRBonn/OverlapNet
摘要——同时定位与地图构建(SLAM)是大多数自主系统所需的基本能力。在本文中,我们针对基于自动驾驶汽车记录的3D激光扫描数据的SLAM回环检测问题进行了研究。我们的方法利用深度神经网络,结合来自LiDAR数据的多种线索来寻找回环闭合点。该网络能够估计广义的图像重叠度并提供扫描对之间的相对偏航角估计。基于这些预测,我们处理了回环检测问题,并将该方法集成到现有的SLAM系统中,以改进其地图构建结果。我们在KITTI里程计基准测试序列和校园数据集上对我们的方法进行了评估。结果表明,我们的方法能够有效检测回环,其检测性能超越了现有最先进的方法。为突出我们方法的泛化能力,我们在只使用KITTI进行训练的情况下对福特校园数据集进行了评估。实验表明,学习到的特征表示能够在未见过的环境中提供可靠的回环检测候选点。
10.NDT-Transformer: Large-Scale 3D Point Cloud Localisation using the Normal Distribution Transform Representation
原文:https://ieeexplore.ieee.org/abstract/document/9560932
代码:https://github.com/dachengxiaocheng/NDT-Transformer
摘要:基于3D点云的地点识别在GPS信号不良的环境中对于自动驾驶的需求非常高,并且是基于LiDAR的SLAM系统中的一个重要组成部分(即回环闭合检测)。本文提出了一种名为NDT-Transformer的新方法,用于实时和大规模的地点识别,利用3D点云。具体来说,采用3D法向分布变换(NDT)表示法,将原始的、密集的3D点云凝聚为概率分布(NDT单元),以提供几何形状描述。然后,新的NDT-Transformer网络从一组3D NDT单元表示中学习全局描述子。得益于NDT表示和NDT-Transformer网络,学习到的全局描述子丰富了几何信息和上下文信息。最后,通过查询数据库实现描述子检索以进行地点识别。与最先进的方法相比,所提方法在Oxford Robotcar基准测试中平均实现了7.52%的top 1召回率提升和2.73%的top 1%召回率提升
11.A Registration-aided Domain Adaptation Network for 3D Point Cloud Based Place Recognition
代码:https://github.com/qiaozhijian/vLPD-Net?tab=readme-ov-file
原文:https://arxiv.org/abs/2012.05018
摘要:在自动驾驶和移动机器人领域的大规模SLAM中,基于3D点云的位置识别由于其对昼夜变化和天气变化环境的鲁棒性,已经引起了广泛的研究兴趣。然而,在真实世界中获取用于位置识别模型训练的高质量点云数据以及用于配准的真实标签既耗时又费力。为此,提出了一种基于点云的位置识别的新型注册辅助3D域自适应网络。引入了一个结构感知的配准网络,帮助学习具有几何信息的特征,并能够估计部分重叠的两个点云之间的6自由度位姿。模型通过GTA-V生成的包含多种天气和昼夜条件的虚拟LiDAR数据集进行训练,并通过全局特征对齐实现域自适应,迁移到现实世界中。我们的结果在现实世界的Oxford RobotCar数据集上超越了现有的3D位置识别基准,或者表现出与之相当的效果,并在虚拟数据集上可视化了配准过程。
12.SOE-Net: A Self-Attention and Orientation Encoding Network for Point Cloud based Place Recognition(CVPR 2021)
代码:https://github.com/Yan-Xia/SOE-Net
原文:论文
摘要:我们针对点云数据中的位置识别问题,提出了一种自注意力与方位编码网络(SOE-Net),该网络充分探索了点与点之间的关系,并将长距离上下文信息融入到点级局部描述符中。通过PointOE模块,每个点的局部信息从八个方向进行捕捉,而局部描述符之间的长距离特征依赖关系则通过自注意力单元捕捉。此外,我们提出了一种新的损失函数,称为Hard Positive Hard Negative四元组损失(HPHN quadruplet),其性能优于常用的度量学习损失函数。基准数据集上的实验结果表明,该网络在性能上优于当前的最新方法。
13.Pyramid Point Cloud Transformer for Large-Scale Place Recognition
代码:https://github.com/fpthink/PPT-Net
原文:原文
摘要:最近,基于深度学习的点云描述符在位置识别任务中取得了显著的成果。然而,由于点云的稀疏性,如何提取区分性强的局部特征以高效形成全局描述符仍然是一个具有挑战性的问题。在本文中,我们提出了一种金字塔点云变换网络(PPT-Net),用于从点云中学习区分性强的全局描述符,以实现高效检索。具体来说,我们首先开发了一个金字塔点变换模块,该模块自适应地学习点云中不同k近邻点的空间关系,并提出了分组自注意力机制来提取点云的区分性局部特征。分组自注意力不仅增强了点云的长距离依赖关系,还降低了计算成本。为了获得区分性强的全局描述符,我们构建了一个金字塔VLAD模块,将点云的多尺度特征图聚合为全局描述符。通过在多尺度特征图上应用VLAD池化,我们利用上下文门控机制对多个全局描述符进行自适应加权,将多尺度全局上下文信息融入最终的全局描述符。实验结果表明,在Oxford数据集和三个内部数据集上,我们的方法在基于点云的位置识别任务中达到了最新的性能水平。
14.MinkLoc3D: Point Cloud Based Large-Scale Place Recognition
原文:原文
代码:github
摘要:该论文提出了一种基于学习的方法,用于计算用于位置识别的区分性3D点云描述符。现有的方法,如PointNetVLAD,基于无序点云表示,使用PointNet作为第一个处理步骤来提取局部特征,随后将这些特征聚合成全局描述符。PointNet架构并不擅长捕捉局部几何结构,因此最新的方法通过添加不同的机制来增强基础PointNet架构,以捕捉局部上下文信息,例如图卷积网络或使用手工设计的特征。我们提出了一种替代方法,称为MinkLoc3D,基于稀疏体素化点云表示和稀疏3D卷积来计算区分性3D点云描述符。该方法具有简单且高效的架构。在标准基准测试上的评估证明,MinkLoc3D的性能优于当前的最新方法。
15.Radar-to-Lidar: Heterogeneous Place Recognition via Joint Learning
原文:https://www.frontiersin.org/journals/robotics-and-ai/articles/10.3389/frobt.2021.661199/full
代码:https://github.com/HuanYin94/radar-to-lidar-place-recognition
摘要:位置识别对于离线建图和在线定位至关重要。然而,目前基于单一传感器的位置识别在恶劣条件下仍然面临挑战。本文提出了一种基于异构测量的长期位置识别框架,该框架从现有的激光雷达(LiDAR)地图中检索查询雷达扫描。为此,在学习阶段构建了一个深度神经网络,并进行联合训练;在测试阶段,提取雷达和激光雷达的共享嵌入以实现异构位置识别。为了验证所提方法的有效性,我们在多会话公共数据集上进行了测试和泛化实验,并与其他竞争方法进行了比较。实验结果表明,我们的模型能够执行多种位置识别,包括激光雷达到激光雷达(L2L)、雷达到雷达(R2R)以及雷达到激光雷达(R2L),而学习到的模型仅训练一次。
16.LCDNet: Deep Loop Closure Detection and Point Cloud Registration for LiDAR SLAM (IEEE T-RO 2022)
代码:https://github.com/robot-learning-freiburg/LCDNet
原文:https://arxiv.org/abs/2101.02374
摘要:回环检测是同时定位与建图(SLAM)系统中的一个关键组件,它能够减少随时间累积的漂移。多年来,已有多种深度学习方法被提出用于解决这一任务,然而它们在处理反向回环时的性能仍逊色于手工设计的技术。在本文中,我们提出了新颖的LCDNet,该方法通过同时识别先前访问过的地点和估计当前扫描与地图之间的6自由度相对变换,来有效地检测LiDAR点云中的回环。LCDNet由一个共享编码器组成,包含一个用于提取全局描述符的位置识别头和一个用于估计两个点云之间变换的相对姿态头。我们引入了一种基于不平衡最优传输理论的创新相对姿态头,并以可微分的方式实现,允许端到端的训练。我们在多个真实世界自动驾驶数据集上对LCDNet进行了广泛评估,结果表明,在处理反向回环时,我们的方法在回环检测和点云配准技术上大幅超越了现有的最新方法。此外,我们将所提出的回环检测方法集成到LiDAR SLAM库中,提供了一个完整的建图系统,并通过在不同传感器配置下的全新城市中展示了其泛化能力。
17.AttDLNet: Attention-based DL Network for 3D LiDAR Place Recognition.(ROBOT22)
代码:https://github.com/Cybonic/AttDLNet
原文:https://arxiv.org/pdf/2106.09637
摘要:摘要——基于LiDAR的位置识别是自动驾驶和机器人应用中SLAM与全局定位的关键组成部分。随着深度学习(DL)方法在从3D LiDAR中学习有用信息方面的成功,位置识别也受益于这一模态,特别是在环境条件变化显著的情况下,导致了更高的重新定位和回环检测性能。尽管该领域取得了一定进展,从3D LiDAR数据中提取对变化条件和方向不变的适当且高效的描述符仍然是一个未解决的挑战。为了解决这一问题,本文提出了一种新颖的基于3D LiDAR的深度学习网络(称为AttDLNet),该网络采用基于距离的代理表示用于点云,并使用堆叠注意力层的注意力网络,选择性地关注长距离上下文和特征之间的关系。所提网络在KITTI数据集上进行了训练和验证,并进行了消融研究,以评估新的注意力网络。结果表明,添加注意力机制可提高性能,实现高效的回环检测,并超越了已建立的基于3D LiDAR的位置识别方法。消融研究结果显示,中间编码器层的平均性能最高,而更深层则对方向变化更具鲁棒性。
18.TransLoc3D : Point Cloud based Large-scale Place Recognition using Adaptive Receptive Fields
代码:https://github.com/slothfulxtx/TransLoc3D
原文:https://arxiv.org/pdf/2105.11605
摘要:位置识别在自动驾驶和机器人导航领域中扮演着至关重要的角色。基于点云的方法主要集中在从点云的局部特征中提取全局描述符。尽管已取得令人鼓舞的成果,现有解决方案忽视了以下几个方面,这可能导致性能下降:(1)户外场景中物体之间的巨大尺寸差异;(2)与位置识别无关的移动物体;(3)远程上下文信息。我们阐明了上述方面给提取区分性全局描述符带来的挑战。为了解决这些问题,我们提出了一种新颖的方法,称为TransLoc3D,利用自适应接收场和逐点重加权方案来处理不同尺寸的物体,同时抑制噪声,并使用外部变换器来捕获远程特征依赖关系。与现有采用固定且有限接收场的架构不同,我们的方法受益于尺寸自适应接收场以及全局上下文信息,并在流行数据集上显著超越当前的最先进技术。
19.LoGG3D-Net: Locally Guided Global Descriptor Learning for 3D Place Recognition.(ICRA 2022)
代码:https://github.com/kxhit/awesome-point-cloud-place-recognition?tab=readme-ov-file
原文:https://arxiv.org/pdf/2109.08336
摘要——基于检索的位置识别是一个高效且有效的解决方案,用于在预构建地图中进行重新定位或实现同时定位与建图(SLAM)的全局数据关联。这种方法的准确性在很大程度上依赖于提取的场景级表示的质量。尽管端到端解决方案——从输入点云中学习全局描述符——已显示出令人鼓舞的结果,但此类方法在强制执行局部特征级别的理想属性方面仍有限。在本文中,我们引入了一种局部一致性损失,以指导网络学习在重复访问中保持一致的局部特征,从而导致更可重复的全局描述符,整体上改善3D位置识别性能。我们将该方法构建在一个名为LoGG3D-Net的端到端可训练架构中。在两个大规模公共基准(KITTI和MulRan)上的实验表明,我们的方法在KITTI和MulRan上分别达到了0.939和0.968的平均F1max分数,实现了最先进的性能,同时接近实时操作。
20.Retriever: Point Cloud Retrieval in Compressed 3D Maps
原文:https://www.ipb.uni-bonn.de/wp-content/papercite-data/pdf/wiesmann2022icra.pdf
代码:PRBonn/retriever: Point Cloud-based Place Recognition in Compressed Map
摘要——大多数自动驾驶和机器人应用需要检索车辆当前位置周围的地图数据。由于这些地图覆盖的区域较大,通常以压缩形式存储以节省内存并提高传输效率。本文中,我们针对压缩点云地图中的位置识别问题进行了研究。为此,我们提出了一种新颖的深度神经网络架构,该架构直接在由压缩编码器生成的压缩特征表示上操作,从而避免了计算密集型的地图解压缩过程,同时利用了压缩特征的紧凑性和描述性。此外,我们还提出了一种替代常用的NetVLAD层来聚合局部描述符的方法,这里我们利用了局部特征与潜在编码之间的注意力机制。我们的实验表明,这种方法能够为点云的位置信息识别生成更具描述性的特征表示。通过消融研究验证了我们做出的所有架构选择,并在两个常用数据集上将我们的性能与其他最先进的基线进行了比较。
21.AutoPlace: Robust Place Recognition with Single-chip Automotive Radar(ICRA 2022)
原文:https://arxiv.org/pdf/2109.08652
代码:https://github.com/ramdrop/AutoPlace
摘要——本文提出了一种新颖的位置识别方法,旨在利用低成本的单芯片汽车雷达为自动驾驶车辆提供支持。为了提高识别的鲁棒性并充分利用这一新兴汽车雷达提供的丰富信息,我们的方法遵循一个系统化的流程,包括:(1)从瞬时多普勒测量中去除动态点;(2)在雷达点云上进行时空特征嵌入;(3)从雷达截面测量中提炼检索候选项。在公共nuScenes数据集上的大量实验结果表明,现有的视觉/激光雷达/旋转雷达位置识别方法对于单芯片汽车雷达的适用性较差。相比之下,我们专为汽车雷达设计的方法通过一系列综合指标始终优于多种基线方法,提供了在真实系统中使用时效果的深刻见解。
22.MinkLoc3D-SI: 3D LiDAR place recognition with sparse convolutions,spherical coordinates, and intensity(2022 RA-L)
代码:https://github.com/KamilZywanowski/MinkLoc3D-SI
原文:https://ieeexplore.ieee.org/abstract/document/9661423
摘要:3D激光雷达位置识别旨在基于来自旋转3D激光雷达传感器的单次扫描,在先前见过的环境中估计粗略定位。现有的解决方案包括手工设计的点云描述符(如ScanContext、M2DP、LiDAR IRIS)和基于深度学习的解决方案(如PointNetVLAD、PCAN、LPD-Net、DAGC、MinkLoc3D),这些方法通常仅在来自Oxford RobotCar数据集的累积2D扫描上进行评估。我们提出了MinkLoc3D-SI,这是一种基于稀疏卷积的解决方案,利用3D点的球坐标并处理3D激光雷达测量的强度,在使用单个3D激光雷达扫描时提高了性能。我们的方法将手工设计的描述符(如ScanContext)的改进与最有效的3D稀疏卷积(MinkLoc3D)相结合。实验结果表明,在来自3D激光雷达的单次扫描(USyd校园数据集)上表现出改善的结果,并展现出良好的泛化能力(KITTI数据集)。在累积的2D扫描(RobotCar Intensity数据集)上使用强度信息提升了性能,尽管球面表示没有明显改善。因此,MinkLoc3D-SI适用于从3D激光雷达获取的单次扫描,使其在自动驾驶车辆中具有应用潜力。
23.RINet: Efficient 3D Lidar-Based Place Recognition Using Rotation Invariant Neural Network(2022 RA-L)
代码:https://github.com/lilin-hitcrt/RINet
原文:https://ieeexplore.ieee.org/document/9712221
摘要:基于激光雷达的位置识别(LPR)是机器人基本能力之一,可以从地图中检索场景并识别之前访问过的位置,基于3D点云。由于机器人通常从不同视角经过相同的位置,LPR方法应具备对旋转的鲁棒性,但大多数当前基于学习的方法在这方面不足。在本篇文章中,我们提出了一种旋转不变的神经网络结构,即使训练数据全部朝同一方向,也能检测反向闭环。具体而言,我们设计了一种新颖的旋转等变全局描述符,结合了语义特征和几何特征,以提高描述能力。然后,实施了一个旋转不变的孪生神经网络,以预测描述符对的相似性。我们的网络轻量且能够在i7-9700 CPU上运行超过8000 FPS。在KITTI、KITTI-360和NCLT数据集上的全面评估和鲁棒性测试表明,我们的方法可以在各种场景中稳定工作,并取得了最先进的性能。
24. An Efficient and Yaw-Angle-Invariant Transformer Network for LiDAR-Based Place Recognition(2022 RA-L)
代码:https://github.com/haomo-ai/OverlapTransformer
原文:https://arxiv.org/pdf/2203.03397
摘要——位置识别是自主导航车辆在复杂环境和变化条件下的重要能力。它是实现闭环SLAM或全球定位等任务的关键组成部分。在本文中,我们针对由自主车辆记录的3D LiDAR扫描解决位置识别问题。我们提出了一种新颖的轻量级神经网络,利用LiDAR传感器的范围图像表示,实现每帧少于2毫秒的快速执行。我们设计了一种对偏航角不变的架构,利用变换网络,提升了我们方法的位置识别性能。我们在KITTI和福特校园数据集上评估了我们的方法。实验结果表明,与最先进的方法相比,我们的方法能够有效检测闭环,并在不同环境中具有良好的泛化能力。为了评估长期位置识别性能,我们提供了一个新数据集,其中包含在不同时间由移动机器人记录的重复位置的LiDAR序列。
25.Improving Point Cloud Based Place Recognition with Ranking-based Loss and Large Batch Training(2022 CVPR)
原文:https://ieeexplore.ieee.org/document/9956458
代码:https://github.com/jac99/MinkLoc3Dv2?tab=readme-ov-file
摘要:该论文提出了一种简单且有效的基于学习的方法,用于计算用于位置识别的判别性3D点云描述符。当前最新的方法通常具有相对复杂的架构,如多尺度点Transformer金字塔与特征聚合模块金字塔的结合。我们的方法则采用了一种简单且高效的3D卷积特征提取,基于稀疏体素化表示,并通过通道注意块进行增强。我们借鉴了图像检索领域的最新进展,提出了一种基于可微分平均精度近似的改进版损失函数。为了获得最佳效果,此类损失函数需要在非常大的批量下进行训练,这通过多阶段的反向传播得以实现。实验评估表明,我们的方法在流行基准测试上证明了其有效性,且在各方面都优于当前的最新方法。
26.CrossLoc3D: Aerial-Ground Cross-Source 3D Place Recognition ( ICCV 2023)
代码:https://github.com/rayguan97/crossloc3d
原文:https://arxiv.org/pdf/2303.17778
摘要:我们提出了CROSSLOC3D,一种新颖的3D位置识别方法,旨在解决跨源设置下的大规模点匹配问题。跨源点云数据对应于由不同精度的深度传感器捕获的点集,这些点集来自不同的距离和视角。我们解决了开发3D位置识别方法时面临的挑战,特别是不同来源的点之间的表示差距。我们的方法通过利用多粒度特征和选择与最显著特征相对应的卷积核大小来处理跨源数据。受到扩散模型的启发,我们的方法使用了一种新的迭代精炼过程,逐渐将来自不同来源的嵌入空间转移到单一的标准空间,以便进行更好的度量学习。此外,我们还介绍了CS-CAMPUS3D,这是第一个由空中和地面LiDAR扫描的点云数据组成的3D空地跨源数据集。CS-CAMPUS3D中的点云存在表示差距以及其他特征,如不同的视角、点密度和噪声模式。我们展示了CROSSLOC3D算法在我们的CS-CAMPUS3D基准测试中,能够实现4.74%-15.37%的Top 1平均召回率的提升,并且在表现上与Oxford RobotCar上的最先进3D位置识别方法相当。
27.Spectral Geometric Verification: Re-Ranking Point Cloud Retrieval for Metric Localization(2023 RA-L)
代码:https://github.com/csiro-robotics/SpectralGV
原文:https://ieeexplore.ieee.org/document/10065560
摘要:在大规模度量定位中,检索过程中的错误结果将导致不正确的姿势估计或循环闭合。重新排序方法建议考虑所有排名靠前的检索候选者,并对它们重新排序,以增加排名靠前的候选者正确的可能性。然而,在对许多潜在候选者进行重新排序时,最先进的重新排序方法效率低下,因为它们需要在查询和每个候选数据库之间进行资源密集型点云配准。在这项工作中,我们提出了一种不需要配准的高效几何验证光谱方法(名为 SpectralGV)。我们演示了两个点云的对应兼容性图的最佳集群间分数如何表示衡量它们空间一致性的稳健适应度分数。此分数考虑了结构相似的点云之间的细微几何差异,因此可用于在全局相似性搜索检索到的潜在匹配项中识别正确的候选值。SpectralGV 是确定性的,对异常值对应关系具有鲁棒性,并且可以对所有潜在候选者并行计算。我们在 5 个大规模数据集上进行了广泛的实验,以证明 SpectralGV 优于其他最先进的重新排序方法,并表明它始终提高了 3 种最先进的度量定位架构的召回率和姿态估计,同时对它们的运行时间的影响可以忽略不计。
持续更新中.....