论文笔记_S2D.76_2013_IROS_DVO-SLAM_基于RGB-D相机的稠密视觉SLAM
目录
基本情况
摘要
主要创新点:
介绍
参考
基本情况
- 出处:Kerl C, Sturm J, Cremers D. Dense visual SLAM for RGB-D cameras[C]//2013 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2013: 2100-2106.
- 论文主页:vision.in.tum.de/data/software/dvo
- vedio: Dense Visual SLAM for RGB-D Cameras_哔哩哔哩_bilibili
- 开源代码:https://github.com/tum-vision/dvo_slam
摘要
该系统开发了一种针对RGB-D相机应用的独特而高效的稠密视觉SLAM方案。与基于特征的传统稀疏方法相比,在图像数据利用率方面更为卓越,并因而提升了姿态估计精度。本系统采用熵作为衡量标准的方法来实现关键帧选取与回路闭合检测功能,并通过整合所有成功匹配结果构建了一个优化框架图。该框架借助g2o算法进行全局优化处理,在经过全面评估后发现,在低纹理与低结构性环境中表现尤为出色。
主要创新点:
本文的主要贡献有:
- 该文提出了一种高效的方法用于帧对齐,并具有优化强度和深度误差的能力。
- 该算法基于信息论中的熵概念设计出一种关键帧检测算法,并大幅降低了累积漂移。
- 此外还提出了一种基于相同熵度量用于验证闭环路径的方法。
- 最后将上述所有技术整合到统一的几何视觉SLAM框架中,并有效降低了累计漂移。

介绍
本文旨在仅限于基于摄像机生成的连续帧序列中的视觉信息推导出其运动状态。对于每一个时间步t(其中t∈T),相机输出一个包含强度矩阵It和深度映射Zt的空间信息表示。通过使用两个连续的时间步骤提供的RGB-D图像序列来计算相机的姿态参数g及其平移量Δp和旋转量Δr。如图2所示,则描述了该方法的基本概念。

采用了基于近邻搜索的方法,在有限空间内的室内环境中执行操作,并特别强调了视觉定位系统的精确度。系统通过在围绕关键帧位置设定的球体内寻找循环闭合的候选者来实现空间信息的闭环处理。随后,在粗分辨率下计算每个候选帧与其相关的关键帧之间的相对变换矩阵及协方差信息。为了验证候选者的有效性,则采用与关键帧选择相同的熵比测试标准进行评估。具体而言,在计算阶段首先确定中间帧到关键帧的所有匹配的成功熵值,并将其平均作为新的评估指标。为了进一步优化结果质量,则通过引入更高分辨率的数据重新估计这些参数值,并再次应用相同的熵比检验方法来确认改进效果是否达标。如果两次检验均获得成功,则将新的约束关系以边的形式插入图中表示出来作为状态更新依据。最终结果显示,在相机返回至第50帧附近(即第420450号帧)时发生了明显的状态更新事件;而图3中所展示的情况表明:当系统的估计误差较低时其对应的熵比值会呈现高值特征

基于慕尼黑技术大学提供的RGB-D基准开展评估研究[10]。该基准包含了通过RGB-D相机获取的真实场景数据集。每个数据集均配有一个来自外部运动捕捉系统的精确地面参考轨迹。第一次实验重点考察了结合光度与几何误差最小化策略的优势,并发现不同纹理与结构组合的RGB-D数据集更适合用于此目标。图4展示了各数据集代表性的图像样本;表1汇总了各实验条件下的估计精度(单位:m/s)。前两列标记了各数据集是否包含(x)纹理与结构信息或无此信息(-)。对比仅依赖深度信息的情况,在无明显纹理但有结构性特征的空间场景中,单纯利用RGB信息进行里程计估算表现出更好的性能,在具备丰富纹理却缺乏明确空间结构的数据集中,则相反效果更佳。尽管如此,在不同的应用场景中仍展现出更强的学习适应性,并且深度项的有效性也体现在自动曝光导致光照强度突变情况下对估计值稳定性的保障上

我们对当前最新型视觉SLAM方法进行了系统对比研究,并将研究结果归纳于表3中。具体而言,在实验设置上采用以下参数:...

表二详细列出了所有freiburg1数据集的平移漂移指标(RPE)及其对应的RMSE值(单位:m/s)。此外,在分析中涉及了多种里程计类型以及姿态图优化。特别值得注意的是,在评估过程中采用了无公共基准验证数据集,并借助在线工具进行了性能评估。相比于基于每帧计算的传统里程计方法,在关键帧辅助下能实现约16%性能提升。通过姿态图优化技术进一步降低了累计漂移量,并使结果精度平均提升约20%。

表一:与三个最先进系统的对比结果中可以看出本文提出的视觉SLAM系统在绝对轨迹误差(m)方面表现优异其RMSE值显著低于其他方法并展现出更高的稳定性优势
本研究在配置为英特尔酷睿i7-2600 3.40GHz处理器、16GB内存的PC上运行了所有实验。视觉里程计与SLAM组件分别位于独立线程运行状态。每帧至关键帧追踪所需的时间基本稳定地维持在约32毫秒。循环检测与优化所需时间主要取决于图中的关键帧数量及边的数量。该系统地图更新平均处理时间为135毫秒。本文针对运动估计采用了从粗到精的不同分辨率策略,在实验中最大设置为320×240像素
参考
基于密集视觉的SLAM算法在RGB-D相机上的实现和分析
