SLAM综述之Lidar SLAM
目录
1 介绍
1.1 激光雷达传感器
1.2 2D激光雷达SLAM
1.3 3D 激光雷达SLAM
2 基于深度学习的激光SLAM
2.1 基于特征的深度学习的检测:
2.2 点云的分割与识别:
2.3 点云定位:
3 点云SLAM的挑战与未来
参考文献
源自该论文中对SLAM技术的系统性综述与分析
1 介绍
SLAM主要包含两个核心任务:位姿估计与环境建模,在移动机器人或者自动驾驶系统中,则是一个关键的技术难题:为了实现机器人的精准运动控制,则必须建立一个准确的环境地图;而构建这一地图则要求机器人必须具备自身的定位信息。
于1990年,[1]首次提出了一种基于扩展卡尔曼滤波器(EKF)的方法来逐步估计机器人在动态环境中的后验姿态分布以及地标点的位置参数。随后的研究表明,在未知初始位姿的情况下,机器人通过持续利用自身运动轨迹中捕捉到的动态特征信息不断更新自身定位信息,并根据这些更新结果逐步构建周围环境的增量模型图。最终实现机器人的同时定位与环境建模目标。
近年来定位问题日益复杂化并成为社会关注的热点议题之一
1.1 激光雷达传感器
激光雷达传感器主要包含2D激光雷达和3D激光雷达 ,它们基于激光雷达光束的数量定义 的标准进行分类。在生产工艺方面,此外还可以根据具体的技术要求进行细分。
基于传统机械设计的激光雷达系统

- SLAMTEC:采用低成本激光雷达配合机器人平台配置方案(如RPLIDAR A1、A2及R3型号)。单通道激光雷达技术搭配一个移动平台配置方案,则可轻松实现移动机器人基础设计。
 - Ouster:具备16至128通道的机械式高性能激光雷达技术配置方案。
 - Quanergy:S3型固态激光雷达是全球首款;M8型则是传统机械式激光雷达技术升级版;S3-QI型则是微固态创新技术应用版本。
 - Ibeo:采用Lux 4L和Lux 8L两种传统机械式高精度核心传感器技术;与法雷奥合作推出混合动力固态式创新解决方案——Scala。
 
激光雷达的发展趋向微型化和高强度的固态设计,并将成为主要应用领域之一。该技术不仅能够占据市场主导地位,并且能够广泛应用于各类产品领域。目前相关企业包括但不限于SICK、Hokuyo、HESAI、RoboSense、LeddarTech、ISureStar、benewake、Livox、Innovusion以及Innoviz等

1.2 2D激光雷达SLAM
GMapping:它是以Rao-Blackwell化局部滤波器为基础,在机器人领域应用最广泛的SLAM软件包。该系统采用扫描匹配技术实现定位[3]。它作为FastSLAM[4]的升级版,在支持栅格地图的前提下显著提升了性能。GMapping中具体功能模块之间的交互机制

HectorSlam:该系统实现了对2D SLAM技术、3D导航与扫描匹配技术以及惯性传感系统的集成[5]
•KartoSLAM:这是一个基于图的SLAM系统[6]。
LagoSLAM是一种建立在图论基础上的SLAM技术;它通过最小化非线性非凸代价函数来实现对复杂环境的实时定位与建图。
•CoreSLAm:这是一种在性能损失最小的情况下可以理解的算法[8]。
改写说明

1.3 3D 激光雷达SLAM
Loam:该方法采用3D Lidar [10]被实时地用于构建地图,并包含回旋式扫描和基于连续扫描的2D激光雷达两种版本
Lego-Loam系统基于水平布置的Velodyne VLP-16激光雷达及其可选安装的IMU设备,能够接收并处理点云数据作为输入信号。该系统通过实时计算实现6自由度(6D)的姿态估计,并整合了全局优化功能以及闭环检测机制[11]。
• Cartographer:它支持2D和3D SLAM [9]。
IMLS-SLAM是一种创新性的低误差定位与建图系统(SLAM),该系统通过开发出一种新型的高精度定位与建模算法实现对动态环境的有效感知与重建,并主要依赖于利用扫描匹配模型构建的三维LiDAR数据集[10]。

2 基于深度学习的激光SLAM
2.1 基于特征的深度学习的检测 :
该方法PointNetVLAD [11]可实现从任意3D点云数据中生成全局描述符,旨在针对三维点云的空间定位检索问题展开研究与优化。
VoxelNet [12]是一种广泛应用于3D检测领域的系统性方法;它通过整合特征提取与边界框预测,在同一个单阶段、端到端的可训练深度网络框架内完成任务。其他相关研究也可在BirdNet [13]中找到。
LMNet [14]主要关注并重点研究了一种高效的一阶段卷积神经网络模型,在目标检测领域表现出色,并能够实现目标检测任务的同时输出对应的目标定位信息以及各关键点的位置偏移量。
PIXOR [15]是一种不带提议的单阶段检测器,能够输出基于像素级别的神经网络预测结果的三维物体的定向估计.
Yolo3D [16]是基于2D透视图像空间中one-shot回归 anchor框架的成功延伸,并进一步发展出一种能够从LiDAR点云生成定向的3D object bounding boxes的方法。
PointCNN [17]建议从输入的点云中提取X变换特征。该变换特征是通过将典型的卷积操作应用于点云数据后进行逐元素相乘并累加得到的。
MV3D [18] 是一种多模态传感器融合框架,通过将激光雷达点云和RGB图像作为输入数据使用,并预测带有方向性的3D边界框。
PU-GAN [19]提出了一种基于生成对抗网络(GAN)的新的点云上采样网络。

2.2 点云的分割与识别 :
对3D点云进行分割的方法可归类于基于边界的分割技术、区域扩展算法以及模型拟合过程等不同策略的集合,并结合了混合分割策略和机器学习驱动的应用领域(如深度学习)[20]。本文着重探讨深度学习领域的分割技术.
PointNet [21]基于对点云数据进行直接处理的创新性神经网络架构,在执行分类、分割以及语义分析任务方面表现出色。
点网++ [22]在点网的基础上提取随上下文规模扩大而形成的层次结构特征。该网络基于点网++实现端到端的人体姿态估计技术。
该系统采用VoteNet方案实现了对点云数据的三维检测。该方法通过SegMap算法,在处理三维点云数据时实现了精准的定位与制图。
SqueezeSeg [25]是一种基于递归CRF(条件随机场)的卷积神经网络,在利用3D激光雷达数据实现道路目标实时识别方面表现出色。
PointSIFT [26]属于三维点云语义分割领域的一个重要方法。其中该系统基于一个简洁的设计方案,并能够从中提取出相关特征信息
该研究团队[27]开发了一种卷积神经网络模型。该算法作为一种创新性的端到端解决方案,在双水平方向上实现了非结构化点云的语义分割,并通过利用固有上下文特征提升了性能。此外还有其他相关研究探讨此领域问题,并非仅局限于文献[29][30]。
SegMatch [31]是一种基于3D的分割检测和匹配的闭环方法。
KdNetwork [32]专为3D模型识别任务而设计,可与非结构化点云一起使用。
DeepTemporalSeg [33]开发了一种深度卷积神经网络(DCNN),针对时序一致的LiDAR扫描进行语义分割。
LU-Net [34]实现了语义分割的功能,而不是应用某些全局3D分割方法。

2.3 点云定位:
论文[35]提出了一种创新性学习模式下的LiDAR定位方案,在实现厘米级定位精度方面具有显著性能优势。
SuMa ++ [36]采用了基于点标记的方法计算出完整的语义分割结果,在此基础之上使得我们可以建立标注过的surfels构成一个高度丰富的语义地图,并通过利用语义约束进一步优化了投影扫描匹配过程。

3 点云SLAM的挑战与未来
1)成本和适应性
Lidar的主要优势在于它能够提供丰富的三维信息,并能有效避免外界光照强度波动干扰。此外该系统还具有覆盖范围广的特点能够实现无死角监测。然而激光雷达技术由于其较高的技术门槛导致开发周期较长且运行成本较高。未来的发展方向将是注重小型化设计追求性价比并致力于提升系统的适应性和可靠性
2)低纹理和动态环境
大多数SLAM系统都存在局限性,在固定环境中工作就显得力有未逮了;但环境是会不断变化的。此外,在复杂场景中的典型障碍包括低纹理的情况(如长走廊和大管道),这会给激光雷达SLAM带来挑战.[37]能够辅助2D SLAM克服上述障碍的是IMU这一辅助传感器;此外,[38]通过将时间维度纳入构建地图的过程,则能确保机器人在动态环境下始终保持准确的地图.A map-building process that incorporates temporal information can help robots maintain accurate maps in a dynamically changing environment.从技术角度来看,我们应该更加深入地探讨如何使Lidar SLAM系统对低纹理和动态环境表现得更为强大,以及如何维护地图的新陈代谢速度.
3)对抗传感器攻击
深度神经网络往往容易遭受对抗性样本的攻击影响,在相机感知系统中同样得到了验证。然而,在激光雷达感知领域中尽管其重要性不可忽视但它尚未被深入研究。[39]通过中间人攻击手段首先欺骗了激光雷达设备干扰了其输出数据和距离估计结果这种新型饱和度攻击完全干扰了基于Velodyne VLP-16的数据采集过程。[40]针对这一现象研究者们提出了一种策略性的方法旨在操控这些欺骗性攻击以误导机器学习模型的表现。本文将任务建模为一个优化问题并设计了相应的算法框架最终将模型的成功率提升至75%以上。这种类型的对抗性传感器攻击将会对基于激光雷达点云的数据驱动SLAM系统造成严重威胁使其难以察觉从而形成了一种隐蔽性的威胁模式在这种情况下如何构建有效的防护机制来抵御这类潜在的安全威胁就成为了当前研究中的一个重要课题。
参考文献
[Randy Smith, Matt Self, and Pete Cheeseman. Assessing uncertain spatial connections within robotic systems. In a collection titled 'Autonomous Robot Vehicles', spanning pages 167 to 193. Springer in 1990.]
[2] Baiquan Huang, Jingbin Liu, Wei Sun, and Fan Yang. 一种基于蓝牙低功耗的室内定位方法,并采用独立信道信息。Sensors, 19(16):3487, 2019.
[3] Sebastian Thrun, Wolfram Burgard, and Dieter Fox. Probabilistic robotics: An integrated approach. MIT Press, 2005.
The researchers introduced an enhanced particle filter-based approach to address the SLAM problem in their FastSlam 2.0 method. [5] Their proposed SLAM solution demonstrated robustness and versatility in achieving full three-dimensional motion estimation.
[6] Kurt Konolige, Giorgio Grisetti, Rainer K ¨ummerle, Wolfram Burgard, Benson Limketkai, and Regis Vincent. High efficiency sparse-to-sparse pose estimation in 2D mapping. In 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems, pages 22–29. IEEE, 2010.
该研究提出了一种基于图辅助的线性化方法用于同时定位与建图(SLAM),发表于Robotics: Science and Systems VII会议中。
[8] B. Steux and O. Hamzaoui. A SLAM algorithm implemented in fewer than 200 lines of C language code. Proceedings of the IEEE International Conference on Control, Automation, Robotics, & Vision (ICARCV) held in Singapore on pages 7–10 in 2010.
Wolfgang Hess und seine Kollegen präsentierten eine Studie zu realzeitigen closed-loop-LiDAR-Verbesserungen am IEEE-International-Conference-on-Robotics-and-Automation (ICRA) im Jahr 2016. Die Arbeit wurde im Konferenzband publishing publiziert und enthielte Sektionen von Sektionen von Seiten von Seiten von Sektionen bis auf Sektionen bis auf Sektionen.
[10] Jean-Emmanuel Deschaud. The IMLS-SLAM method employs scan-to-model matching based on 3D data. In the proceedings of the 2nd IEEE International Conference on Robotics and Automation (ICRA), pages dedicated to advancing robotic automation techniques were covered. The research was published by the IEEE in the year of publication.]
Mikaela A. Uy and Gim Hee Lee. PointNet-VLAD: A deep learning-based method for large-scale place recognition through 3D point cloud retrieval. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 4470–4479, 2018.
[12] Yin Zhou and Oncel Tuzel. Voxelnet: End-to-end learning for point cloud based 3d object detection. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 4490–4499, 2018.
[13] Jorge Beltr´an, Carlos Guindel, Francisco Miguel Moreno, Daniel Cruzado, Fernando Garcia, and Arturo De La Escalera. Birdnet: a 3d object detection framework from lidar information. In 2018 21st International Conference on Intelligent Transportation Systems (ITSC), pages 3517–3523. IEEE, 2018.
[14] Kazuki Minemura, Hengfui Liau, Abraham Monrroy, and Shinpei Kato. Lmnet: A real-time multi-class object detection system utilizing 3d lidar technology on a cpu.
Bin yang et al. developed PointX for real-time three-dimensional object detection based on point cloud data within the proceedings of the IEEE conference on Computer Vision and Pattern Recognition in volume ..., appearing in pages ... , year ...
[16] Waleed Ali, Sherif Abdelkarim, Mahmoud Zidan, Mohamed Zahran, and Ahmad El Sallab. Yolo3d: End-to-end real-time 3d oriented object bounding box detection from lidar point cloud. In Proceedings of the European Conference on Computer Vision (ECCV), pages 0–0, 2018.
在完成这个任务之前,请您先确认以下几点:
- 您提供的文本是否包含数学公式?如果是的话,请用...将数学公式原样保留
 - 您希望输出的文本中是否包含具体解释?如果不需要请选中
 - 如果您希望输出的文本中包含更多细节描述,请选中
 - 如果您希望输出的文本中包含更多观点说明,请选中
 - 如果您希望输出的文本中包含更多问题讨论,请选中
 
在完成这个任务之前,请您先确认以下几点:
- 您提供的文本是否包含数学公式?如果是的话,请用...将数学公式原样保留
 - 您希望输出的文本中是否包含具体解释?如果不需要请选中
 - 如果您希望输出的文本中包含更多细节描述,请选中
 - 如果您希望输出的文本中包含更多观点说明,请选中
 - 如果您希望输出的文本中包含更多问题讨论,请选中
 
[XIAOZHI CHEN et al., Multi-View Three-Dimensional Object Detection Network for Autonomous Driving. In the proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 1907–1915, held in 2017.]
注
[20] E Grilli, F Menna, and F Remondino. A review of point clouds segmentation and classification algorithms. The International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, 42:339, 2017.
Charles R Qi, Hao Su, Kaichun Mo, and Leonidas J Guibas. Pointnet: A method for deep learning on point sets in three-dimensional space for classification and segmentation. arXiv preprint arXiv:1612.00593, 2016.
[22] Charles R Qi, Li Yi, Hao Su, and Leonidas J Guibas. Pointnet++: Deep hierarc
Highly effective feature learning on point sets within a metric space. Preprint on arXiv: 1706.02413, 2017.
[23] 查尔斯·R·QI等人提出了一种采用深度霍夫投票法进行三维物体在点云中的检测的方法,并将其成果发布于arXiv预印本平台上的论文编号为arXIV:1904-09664(年份为2019年)。
[24] 詹内·杜比等人提出了SegMap方法及其在《机器人学科学与系统》会议 proceedings上(简称RSS)发表的文章中应用的数据驱动描述符方法。
Bichen Wu et al. propose SqueezeSeg, an innovative approach combining convolutional neural networks (CNNs) with recurrent CRF to achieve real-time road object segmentation in three-dimensional LiDAR point clouds. Their work was presented at the proceedings of the IEEE International Conference on Robotics and Automation (ICRA), held in 2018.
[26] Jiang Mingyang, Wu Yiran, Zhao Tianqi, Zhao Zelin, and Lu Cewu. Pointsift: A network module inspired by sift aimed at 3D point cloud semantic segmentation. arXiv preprint arXiv:1807.00652, 2018.
(27)Binshun Hua, Min-ho Trian,和Saikit Yeung. Point-wise convolutional neural network. In the field of computer vision and pattern recognition, as documented in CVPR in 2018.
Xiaoting Guo et al. propose an innovative approach based on deep learning techniques to enhance temporal modeling in sequential data processing. Their method integrates advanced optimization algorithms into a unified framework to improve computational efficiency and accuracy. Extensive experiments conducted across multiple benchmark datasets demonstrate significant improvements compared to existing state-of-the-art methods.
This work focuses on large-scale point cloud semantic segmentation using supervoxel-based graph structures.
Renaud Dubé及其合著者Daniel Ducas、Elena Stumm、Juan Nieto、Roland Siegwart及Cesar Cadena共同撰写了题为《Segmatch: 基于段落的三维点云定位方法》的研究论文。该研究论文作为IEEE国际机器人与自动化大会(ICRA)的一篇论文得以发表,并在第5266至5272页中进行了详细展示。
The authors propose a method to escape cells, which is implemented as deep convolutional networks for the recognition of 3D point cloud models.
[32] Ayush Dewan and Wolfram Burgard. Deeptemporalseg: Temporally consistent semantic segmentation of 3d lidar scans. arXiv preprint arXiv:1906.06962, 2019. [33] Pierre Biasutti, Vincent Lepetit, Jean-Franois Aujol, Mathieu Brdif, and Aurlie Bugeau. Lu-net: An efficient network for 3d lidar point cloud semantic segmentation based on end-to-end-learned 3d features and u-net. 08 2019.
Shaoshuai Shi, Xiaogang Wang, and Hongsheng Li. The paper titled Pointrcnn introduces a novel approach for three-dimensional object proposal generation and detection using point cloud data. This work was presented at the proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, where it was featured in pages 770–779 during the year 2019.
Lu Weixin et al., L3-net aims to achieve learning-based lidar localization for autonomous driving applications at the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) in 2019.
陈学人、Andres Milioto和Emanuelea Palazzolo. Suma++: highly efficient lidar-based semantic SLAM technology. In 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2019.
Zhongli Wang et al. proposed an Inertial-aided two-dimensional simultaneous localization and mapping (SLAM) technique for low-texture surfaces in dynamic environment contexts. The method was successfully applied to Applied Sciences journal, achieving the publication in volume 8, issue 12 on page 2534 in the year 2018.
[38] Aisha Walcott-Bryant and her co-authors introduced the dynamic pose graph slam approach during their presentation at the 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems. This method was applied to long-term mapping within highly dynamic settings, as detailed in lines 1871–1878 of the conference proceedings.
[39] H. Shin, D. Kim, Y.-J.Kwon and Y.-D.Kim (2017). "Illusion and Dazzle: Potential Vulnerabilities in Automotive Lidar Systems Exploited via Adversarial Optical Interference Techniques." In Proc.of CHES 2017 (pp.\ 445-467). Springer.]
[40] Yulong Cao, Chaowei Xiao, Benjamin Cyr, Yimeng Zhou, Won Park, Sara Rampazzi, Qi Alfred Chen, Kevin Fu, and Z Morley Mao. Adversarial sensor attack on lidar-based perception in autonomous driving. arXiv preprint arXiv:1907.06826, 2019
本文仅做学术分享,如有侵权,请联系删文。
