面向自动驾驶的定位方法综述
目录
1 引言
2 典型的单个定位方式
2.1 基于通信的定位方式
2.1.1 全球卫星导航系统定位
2.1.2 车联网定位
2.2 基于航位推测的定位方式
2.2.1 惯性测量单元定位
2.2.2 轮式里程计定位
2.3 基于特征匹配的定位方式
2.3.1 高精地图
2.3.2 激光雷达定位
2.3.3 雷达定位
2.3.4 超声波定位
2.3.5 相机定位
2.4 单个定位方式对比
3 典型的融合定位方式
3.1 GPS/IMU融合定位
3.2 Camera/IMU融合定位
3.3 LiDAR/Camera融合定位
3.4 多种方式混合定位
4 总结与展望
参考文献
摘要
关键词 :自动驾驶;定位;融合;通信定位;航位推算;特征匹配
1 引言
自动驾驶主要包括环境感知、定位导航、决策规划以及控制执行四个关键部分[3]。
在自动驾驶系统中占据重要地位的是定位问题,在广义角度而言,则是旨在确定自身的位置。
其中明确自身在全局范围内的具体坐标是关键点之一。
其精确度直接影响着整个自动驾驶系统的可靠性和准确性。
由此可见,在深入研究这一领域时具有重要意义。
本文旨在从定位方法的层面出发对各类定位手段进行分类比较与深入研究。主要从单个定位方式和融合定位方式两个维度展开讨论,并将这三大类定位方法分别对应于以下三种类型:通信基因除外的数据处理方法、基于航位推算的方法以及基于特征匹配的技术。在第二部分中详细阐述每种方法的工作原理及其优缺点;第三部分则聚焦于当前应用较为广泛的融合定位技术;第四部分则深入探讨了该领域的发展动态及未来趋势。
2 典型的单个定位方式
从采用的方法层面出发,在自动驾驶系统中,单个定位方式可分为三类:具体而言是基于通信机制、基于航位推算以及基于特征匹配的技术[5]。本节将对这些定位方式进行详细阐述,并着重探讨它们的工作原理及其优缺点,在最后进行了定性和定量比较。自动驾驶中单个定位方式的概览图如下所示。

图1 自动驾驶中单个定位方式概览图
2.1 基于通信的定位方式
2.1.1 全球卫星导航系统定位
全球卫星导航系统(GNSS)由美国的全球定位系统(GPS)、中国的北斗卫星导航系统以及欧洲的伽利略等多套卫星定位技术体系组成。在自动驾驶领域具有广泛的应用和不可或缺的作用,在车辆导航、道路 signage 识别以及实时交通管理等方面发挥着不可替代的重要作用。
GNSS主要由空间卫星群、地面控制站和用户端三部分构成。它基于飞行时间原理(Time of Flight, TOF)实现定位功能。使用一个卫星时可以在一个球面上确定物体的位置;使用两个卫星时可以在两个球面的交集——圆上进行定位;当使用三个卫星时,则能将物体定位到上述圆与球面的交点上(如图2所示)。在实际应用中很容易识别出其中一个交点处于太空位置,因此理论上只需利用三颗卫星即可确定物体的空间位置[4]。由于接收机与卫星之间的距离未知因素存在,则需要至少四颗卫星才能完成精确的定位过程

图2 GNSS 定位原理图[4]
目前GNSS定位技术已达到较高的成熟度。其定位精度通常在米级附近(约10米左右)。在高精度定位方案中,实时动态相位差分技术(Real Time Kinematic, RTK)以其卓越的性能受到广泛关注,其精度可望达到厘米至两厘米水平。然而该方法依赖于参考站接收的数据,其准确度会随着与参考站距离的增长而逐步下降,通常会导致测量误差增大。此外还存在站点切换带来的时间延迟,这可能导致整体测量过程出现短暂中断。同时该方法的成本相对较高.
总体而言,GNSS定位具有以下优势:首先,在全球范围内实现无缝覆盖;其次,在任何天气条件下均可正常运行;最后,在成本控制和操作便捷方面表现突出。然而该系统也存在一些局限性:首先,在高-rise建筑、地下车库、室内空间以及复杂山地地形等特定环境条件下容易出现信号被遮挡或产生多径效应而导致定位精度下降甚至完全失灵;其次容易受到电离层散射和对流层折射等多种因素的影响;最后在数据传输累积延迟显著(达到每秒50次)且定位更新频率较低(1Hz至50Hz)。
2.1.2 车联网定位
车联网技术(V2X)是指汽车与所有其他事物之间的互联与信息交换。它涵盖汽车间通信(V2V)、汽车与基础设施间的通信(V2I)以及汽车与行人之间的通信(V2P)等多种形式,并旨在实现‘智慧汽车与智能道路’的有效协同。当前广泛采用的技术主要有两种:一种是基于专用短距离通讯技术 (Dedicated Short-Range Communications, DSRC ),主要应用于碰撞预警等关键领域;另一种则是采用蜂窝网络长期发展的LTE-V标准体系,在逐步演进至第五代移动通讯系统扩展性车联网版本 (5G-NR-V2X)[6]的过程中发挥重要作用
基于车辆网络的定位技术亦被称作协作定位技术。该技术依赖于无线广播信号(包括Wi-Fi、 cellular、UWB等多种类型)对广播发送者的相对位置或距离进行评估。当仅需测定相对距离时只需一个这样的广播信号即可;而要确定相对位置则通常需要三个广播信号。以下是一些主要依据:到达时间(TOA)、到达时差(TDOA)、到达角度(AOA)以及无线电信号强度(RSS),如图3所示。

图3 车联网定位方式。a)TOA方式 b)TDA方式 c) AOA方式[1]
(1)V2V
基于车辆自组网(VANET)这一技术框架,在整合相邻车辆的位置数据后实现精准的定位[7]。其优势主要体现在:不仅能够探测视野范围外的其他车辆位置信息,并且在成本方面表现优异;此外,在数据处理效率上也具有显著优势。然而,在高速行驶的情景下,则会因为频繁的车辆间通信连接切换而导致系统稳定性受到影响。
(2)V2I
V2I定位主要通过路边单元(Road Side Unit, RSU)或者蜂窝基站进行通信以获取位置信息这一方案具有显著优势
因为自动驾驶对车辆定位提出了严苛的要求——即必须具备低延时和高精度——所以5G技术逐渐成为公众关注的焦点。其被认为是实现这一目标的关键基础。Del等人[8]对其在5G技术支持下的V2I网络定位能力展开了可行性分析。其仿真实验结果表明,在高速公路上采用50MHz至100MHz信号带宽时,在99%的情况下定位精度可维持在20厘米至25厘米之间。
2.2 基于航位推测的定位方式
Dead Reckoning 方法(DR)基于物体的起始坐标信息,在监测其运动方向与行程距离的基础上进行未来瞬间位置的估算。该类方法属于较为传统的定位技术。主要包含有惯性导航定位系统(INS)以及里程计测距等技术手段[9]。
2.2.1 惯性测量单元定位
在惯性导航系统中广泛使用的设备是惯性测量单元(IMU),它能够通过检测物体沿三个轴线方向的速度变化与旋转频率来进行相对定位。该设备能够检测物体在三个维度上的加速度与旋转频率,并据此完成相对定位。通常情况下,在IMU内部配置了三组正交方向的加速度计(用于测量加速度并积分得出速率)以及三组单轴陀螺仪(用于测定方位角与旋转速率)。为了提升姿态估计的准确性,在某些IMU设计中还配备了磁力计以测定偏航角。

图4 IMU 坐标系示意图
该定位方式具有显著优势主要体现在三个方面:1)能够完全自主运行并正常工作无论是处于简单环境还是复杂环境下;2)具有极高的实时更新能力(频率达100Hz);3)能够提供关于位置的全面信息(包括六个自由度)。然而该方法也存在两个主要缺陷:1)该方法在远程范围内表现优异但长期使用后会产生累积误差并导致位置偏差;2)系统精度受到环境温度变化的影响因此需要与GPS等无累积误差的方法结合使用以提高定位精度
2.2.2 轮式里程计定位
轮式里程计是通过安装于车轮上的传感器直接获取车辆速度与位移信息的一种常用装置。它主要包含三种类型:纯机械式的、混合电感式的以及全电感式的设备。例如全电感式的旋转编码器就是其中一种典型代表,在这种设备中利用电磁感应原理将轮胎转动圈数转换为电压信号从而测量行驶速度与运动角度;而对其速度沿时间轴进行积分运算则可实现定位目的
轮式里程计具有以下优势:操作简便;占地面积小且经济实用;能够在较短时间内实现较高的定位精度。与IMU(惯性测量单元)类似的方法也存在不足之处:累计误差逐渐增大;当车轮发生打滑或路面状况欠佳时会导致定位精度下降。在实际应用中发现此方案主要适用于行进于平坦区域的步行者及室内环境中的移动设备,在自动驾驶系统中则多作为辅助手段以提升整体导航精度。
2.3 基于特征匹配的定位方式
2.3.1 高精地图
在追求高度自动驾驶的过程中, 各界普遍认为, 高精地图(High Definition Map, HD Map)是不可或缺的技术. 同样地, 基于特征匹配的定位技术也是至关重要. 高精地图直接影响定位精度, 同时也为规划模块提供了基础数据支持.
然而,在高精地图的具体形态尚未达成统一标准的情况下,Kuutti 等[1]将其划分为两大类:平面分层地图与三维点云地图.前者利用卫星与航空摄影技术获取基础的地图层次数据,并附加车道级别路网信息,最终生成High-Dimensional Maps(即HD Map).这种表示方式能够在不同地图层次上展示丰富的道路环境细节;另一类则借助3D传感器(如激光雷达、摄像头等)收集地形要素的空间三维数据,同样生成High-Dimensional Maps(如图5所示).刘等[10]提出了一种类似但非完全相同的分类体系.该体系将高精地图划分为三个子模型:主要用于整体路径导航的道路模型,主要用于车道级局部路径规划的车道模型,以及辅助定位的定位模块.这种划分具有重要的参考价值.

图5 高精地图实例。该图表中的绿色标记代表道路及其周围的点云模型;由箭头指示的道路线条和曲线则表示了车道矢量信息。
关于HD Map的数据格式规范及其应用现状。对于HD Map的数据格式规范及其实现情况而言,在当前技术领域内已形成两种较为成熟的技术方案:即导航数据规范(Navigation Data Norms, NDN)和开放驾驶规范(OpenDRIVE)。这两种方案在很大程度上借鉴了传统地理数据文件规范(Geographic Data Files, GDF)的理论基础,并形成了各自独特的特点。它们与传统的地理数据文件规范对比见表1。无论采用哪种分类方法,在基于特征匹配定位方面均发挥着重要作用。
表1 三种格式的地图标准对比[10]

值得注意的是,在高精地图与传统地图的关键差异中,主要体现在于地图精度级别的提升。具体而言,在这一转变过程中,“精度由米级提升至厘米级”。一个具有代表性的案例是定位精度的表现形式从道路级别跃升至车道级别。随着技术的进步和发展,“未来的高清地图将借助空中下载技术(Over The Air, OTA)实现动态更新”。借助5G技术和云计算技术的快速发展推动其持续进步
2.3.2 激光雷达定位
基于传统雷达技术和现代激光技术的融合创新

图6 Velodyne VLS-128TM LiDAR示意图
在激光雷达定位过程中首先由移动设备收集道路相关信息随后运用构建技术生成三维点云地图接着采用不同类型的算法进行处理(包括基于注册法、特征提取法以及深度学习法[11])对实时获取的三维点云数据特征展开比对最终确定车辆当前位置及其行驶方向
激光雷达具备以下优势:能够生成大量详细的空间数据信息,并且包括三维坐标信息以及纹理细节;由于具有较高的分辨率(涉及距离、角度以及速度),因此其精度高且实时性出色;基于激光波长较短的特点,具有较强的抗干扰能力;同时能够有效降低一定程度上降低了多路干涉的影响;此外不受外界光照强度变化的影响;而体积小巧的设计使得安装极为简便;但同时也存在一些不足之处:首先受到环境气候条件的显著影响,在雨雪雾尘等极端天气条件下传播距离会大幅衰减;其次高昂的价格是许多汽车制造商寻求替代方案的主要原因之一;最后产生的数据量庞大要求具备高效的处理系统.
由于自动驾驶系统对定位精度的要求非常高,在此背景下 lasers radar的作用日益显得愈发关键。当RTK信号失效时,在高精度定位方面的主要方法是通过融合laser radar与geographic information system(GIS)的信息实现匹配。传统的mechanical laser radar当前已较为成熟,在此背景下, solid-state laser radar设计逐渐成为提升性能的新方向。值得注意的是, solid-state laser radar的一个显著缺点是其水平视场角通常小于180度,这使其在某些应用场景下无法完全取代mechanical counterparts.因此,在cost与coverage方面存在优势的可能性下,在未来可能会出现将多个solid-state laser radar联合作用的方案
2.3.3 雷达定位
基于无线电波测量物体位置、方向及运动参数的装置被称为RADAR。按照使用的电磁波长度不同,则可将雷达分为毫米波雷达与分米波雷达等类型。目前在自动驾驶领域被广泛应用的是毫米波雷达因其优异的定位精度,在自动驾驶系统中占据重要地位。其工作频率范围限定于10 GHz至300 GHz之间。其中较为常见的工作频段包括24 GHz和77 GHz两个主要频段。根据传播距离的不同,则可分为短距离(SRR)、中距离(MRR)及远程(LRR)等多种型号。
整体来说
(1)SRR
短程雷达主要采用24GHz频段其探测范围较小约在30米内覆盖角度较大最大覆盖角度达120度左右。相较于其他类型短程雷达具有低成本优势但存在体积较大的缺点综合以上分析可知短程雷达主要应用于盲区检测车道保持辅助变道辅助以及自动泊车等功能。
(2)MRR/LRR
中距离雷达主要采用76至77 GHz频段进行信号接收与处理其覆盖范围约在60米内可实现扫描扇宽约达60度的有效探测。相比之下长距离雷达则采用更高的频率即77 GHz能够将探测范围扩展至约200米远但其扫描扇宽仅约达20度由于技术限制导致成像精度相对较低。就技术性能而言中远程雷达相较于短距离设备具备较高的检测精度以及紧凑的小型化设计特点然而其制造工艺要求更为严格且技术成熟度有待进一步提升因此通常应用于车辆动力控制与安全辅助系统等领域图示则直观展示了三种车载毫米波雷达的工作覆盖范围

图7 不同类型的毫米波雷达测量范围示意图[12]
2.3.4 超声波定位
基于超声波技术(Ultrasonic technology, 简称 Ultrasound system)的定位方法是一种利用发射探头持续输出特定频率声音信号并结合回波时间差进行精确测距的技术手段。该技术通常用于医疗诊断、工业检测以及环境监测等领域。具体而言,在实际应用中我们主要采用的工作频段包括 4 MHz、6 MHz 和 11 MHz,在这些频段中 6 MHz 是应用最为广泛的。其定位精度通常在 1 厘米至 3 厘米之间,并且适用于检测范围为 2 分米至 5 米的目标物体
优点如下:1)具备很强的穿透力,在一定程度上能够有效抵御水、沙尘等环境;2)具有较低的成本;3)完全不受电磁因素的影响。这种方式也有一些不足之处:1)由于其有限的检测范围,在一定程度上限制了其应用效果;因此通常会在车辆低速行驶时布置多台设备以提高检测效率;2)该方法难以准确判断障碍物的具体位置;例如当有两个障碍物返回相同的探测距离时会引发误判;3)容易受到车速、震动、温度及湿度等外界因素的干扰。
基于这些特点

图8展示了超声波技术在倒车场景中的应用示意图。其中蓝色扇形区域对应于APA型超声波雷达的探测范围,在透明扇形区域内则体现了UPA型超声波雷达的有效覆盖面积。
2.3.5 相机定位
依靠图像实现相机定位技术,在视觉基准定位系统中处于核心地位。该系统通过分析空间数据(包括矢量图、三维点云等),确定物体的姿态信息。这些关键数据类型包括图像、三维模型和彩色点云数据,并包含光学特征、几何结构以及语义意义等多方面的信息。
总体而言,视觉定位具有以下优势:一方面,在硬件投入相对较低的情况下且技术较为成熟的基础上实现了良好的应用效果;另一方面,在特定场景下具有较高的精度水平(例如在交通标示识别任务中表现尤为突出)。此外该方法还具备提供较为全面的信息以及便于获取关键信息的特点等优势。然而其存在明显局限性即在某些情况下会出现不足之处:首先该方法对光照条件较为敏感,在逆光环境强光环境下以及面对黑夜雾天等极端天气时会面临较大的定位困难;其次当处理细节较少的场景时该方法会导致定位效果欠佳;最后该方法还需要较大的计算资源以保证较高的定位精确度并且在被测物体距离过远时可能会出现识别误差等问题
本节重点阐述自动驾驶技术在图像感知领域的核心应用及其相关定位算法。具体而言,我们将深入探讨以下几类关键方法:多点透视问题(Perspective n Point, PnP)及其解决方案、基于视觉的移动估计(Vision Odometry, VO)技术和路径标记辅助定位技术,同时详细分析其相互关联并重点关注视觉同步定位与地图构建(Vision Simultaneous Localization And Mapping, V-SLAM/Visual SLAM)这一前沿领域。其中,V-SLAM/Visual SLAM作为一种集成性解决方案,整合了自顶向下的语义理解与自底向上的感知特征提取机制,在提升系统鲁棒性和准确性方面展现出显著优势。
(1)PnP问题
通过相机获取图像用于定位车辆的过程等价于计算镜头的姿态(即旋转矩阵R和平移向量t)。解决PnP问题的本质,在已知条件下包括:相机内参数矩阵、二维图像中的特征点位置以及三维世界中的对应特征点位置的基础上,推导出外参数矩阵(由旋转矩阵R和平移向量t构成)[30]。
PnP问题主要采用三点透视法、直接线性变换法以及高效多点透视法等三种算法进行处理。在矩阵求解阶段通常使用正交三角分解法或者奇异值分解法等方法来加速计算过程例如矩阵求逆这类耗时操作可以通过上述方法显著减少计算时间从而提高效率。在解决方程时经常需要进行非线性优化而BundlerAdjustment方法则被认为是实现这一过程的有效途径即通过空间点坐标与相机参数矩阵作为优化变量以最小化像素级重投影误差为目标完成这一复杂的优化任务[29]。值得注意的是由于PnP算法的时间复杂度高达O(n5)Vincent提出的改进型EPnP算法成功地降低了时间复杂度至O(n)从而使其在实际应用中得到了更广泛的推广和应用
(2)VO
视觉里程计主要采集单个或多个摄像头图像作为输入,并用于评估智能体(如车辆、行人、机器人)自身的运动情况[15][26][28]。视觉里程计源自Nister于2004年的研究成果[14]。类似于PnP问题,在视觉 Odometry(VO)中求解相机的姿态和位置。
VO的基本理论框架由特征提取、特征匹配以及运动估计三个核心环节构成。根据所依据的图像信息类型不同,VO的具体方法可划分为间接法(如基于特征点匹配)与直接法(如光流估计技术),以及半直接法(如结合两种方法的SVO算法)。在基于所使用的相机类型分类方面,则主要包含单目视觉 Odometry (Monocular VO)、立体视觉 Odometry (Stereo VO)以及基于 RGB-D 感知的地图构建方法[16]。
单目视觉里程计通过单个相机捕获图像并完成运动评估。值得注意的是,并非只能依赖单一图像来进行评估;即使采用同一相机在不同时间拍摄的多幅图像也能实现运动评估。该技术具有以下优势:首先其设备配置较为简单;其次运行成本相对较低。然而该方法也存在一些局限性:一方面难以精确估计目标的实际尺寸(通常需要结合其他传感器如IMU来提高精度);另一方面计算误差可能会累积影响最终结果。立体视觉里程计则采用了双目或多目的相机组合来采集信息并通过计算空间关系来实现对物体位置的数据估算。其主要优势体现在能够获取物体深度信息以及在近距离时具有较高的测量精度(通常可达毫米级)。不过该技术也存在一些挑战性问题:首先需要对各相机进行精确标定;其次其整体成本较高且体积较大;再者当采用双目设计时测距范围会受到两摄像头之间距离(即基线长度)的限制;当基线超过一定范围时系统性能将逐渐下降最终退化为单目模式;此外该方法同样会面临误差积累的问题影响测量准确性。基于RGB-D的信息传感器能够同时捕捉场景的颜色信息以及深度数据从而实现完整的三维重建过程并用于定位计算中。相比于其他两种方法该技术的优势在于信息获取全面且深度数据可以直接用于后续计算节省了大量处理时间;然而其局限性也比较明显即测量范围受限且对其所处环境中的光照条件较为敏感因此目前主要应用于室内场景中
(3)路标定位
该种定位方式依赖于环境中一些具有特殊意义的物体(人工标志牌或自然标志物),作为标记(已知其坐标和形状),通过检测这些标记来进行定位。这种技术的优点主要体现在:1)操作简便且灵活高效;2)定位速度迅速;3)精确度高。然而,在应用过程中也存在一些挑战:例如,在真实场景中安装或布置路标以及在数字地图上进行精确标注都需要大量的人工操作。人工路标种类繁多,并采用多种形式表示特定含义的信息:如同心圆标志牌、彩色方格标识以及二维码等多种形式[33](见图9)。与之相比的方法则依赖于找到一些稳定的、不易被遮挡且特征鲜明的对象(如大型建筑物等),并提前在其位置上进行精确标注。

图9 人工路标定位示例。 a)同心圆路标 b)彩色方格路标 c)二维码路标[33]。
(4)V-SLAM
在视觉定位领域中构建高效准确的SLAM系统是一个极具挑战性的研究方向。

图10 视觉SLAM整体流程图[38]
可以看出该技术整合了VO与建图任务的关联性。两者的区别主要体现在:前者侧重于全局轨迹的一致性构建,而后者则专注于局部轨迹的一致性优化[15]。
基于SLAM的方法多种多样。在数据处理的不同基础下,我们可以将其划分为传统上采用滤波方法进行SLAM以及基于优化技术的SLAM方法(如BA算法和当前广泛采用的图优化方法)。此外,在同步或独立执行的特点下,则可分为单体SLAM和多体SLAM[35]。进一步地,在依赖于所使用的传感器类型的不同前提下,则可区分为激光测距仪(LIDAR)、视觉相机(Vision)以及深度相机(Depth camera)等各类别下的SLAM系统。其中V-SLAM与Vision SLAM具有相似性,在具体实现过程中主要依据所使用的相机类型而划分出单目、双目及RGB-D等多种形式。
激光SLAM的发展起步较早,在理论和技术创新方面已经较为完善。尽管其定位精度较高但同时也伴随着较高的成本因此为V-SLAM提供了发展的契机。相比之下V-SLAM的发展起步稍晚但得益于计算机视觉领域的技术进步其低成本以及丰富的信息资源使其获得了快速发展的机遇。然而V-SLAM并非没有局限性:它对光照条件和纹理细节具有较高的敏感性并且计算负担也相对较大。目前广泛采用的经典SLAM方案主要包括:首次将非线性优化技术与关键帧检测相结合并实现了实时后端处理功能的PTAM系统[21];基于特征点检测实现较为完整的ORB-SLAM框架[22];能够构建大规模场景地图的单目直接法驱动的LSD-SLAM系统[23];运行速度较快且适合复杂场景的半直接法优化器SVO算法[24];以及结合机器学习方法实现快速定位效果的人工 popup SLAM技术[25]等创新性的解决方案
2.4 单个定位方式对比
如上所述,在各个单一的定位手段各有不同的适用领域和应用场景的情况下,本小节就它们之间的差异进行了定性和定量的分析,请参考表2。
表2单个定位方式对比

从表中可以看出
3 典型的融合定位方式
多种传感器或数据类型能够满足特定需求。然而现实中环境情况复杂多变,包括但不限于天气状况、季节变化等自然条件,光照与纹理特征,电磁干扰等因素的影响;此外,各类型传感器各自具有局限性,通常需要配合其他类型的传感器来弥补这些不足。因此为了解决这些问题而发展出融合定位技术,其相关内容安排见图11

图11 融合定位方式及本节内容安排
应用融合定位技术时,在实施过程中需要综合考虑多个关键参数。考虑到探测范围(涉及距离与角度)、刷新频率以及数据量大小等因素。这些参数共同决定了实现精准定位的技术方案的选择与优化路径。根据应用场景的不同可将 fusion 技术划分为多源感知器 fusion 和多维度特征 fusion 两类。针对第一类 fusion 方案进行深入探讨

图12 各种传感器作用范围示意图[36]
3.1 GPS/IMU融合定位
采用GPS与IMU的结合进行定位是一种比较典型的手段。一方面 GPS 的定位依赖于外部卫星信号,在面对隧道内信号缺失以及多径效应等挑战时容易出现误差;另一方面 IMU 不受外部信号的影响,在此情况下则能有效规避这些干扰因素带来的影响。然而由于 IMU 的累积误差问题以及 GPS 定位误差不会随时间累积的特点 所以两者之间取长补短[2]。但是当 IMU 在匀速运动状态下出现加速度计失效的情况时 仅有 GPS 单方面提供速度信息 但在自动驾驶领域 这种精度(通常仅达到米级)显然无法满足需求;尽管如此 但 RTK-GPS 技术的发展与普及 将使得基于低成本实现厘米级精度方案的可能性也随之提高[2]。
GPS与IMU融合方案主要有两种:松耦合与紧耦合。其中松耦合的工作机制是两个系统各自独立运行,在各自完成定位后通过卡尔曼滤波对IMU输出进行补偿校正以提高精度水平。该方法具有操作简便的特点但也存在定位精度较为不足的问题。相比之下紧耦合则通过将接收的GPS原始数据直接与IMU输出信息同步处理以实现更为精确的位置估计效果具有较高的算法精度但其系统设计相对复杂。基于GPS/IMU定位技术还可以与其配合使用轮式里程计来进行辅助定位功能。例如冼承钧等[40]所提出的多传感器融合导航方法当GPS信号正常时主要采用GPS/IMU联合定位;而在GPS信号失效的情况下则切换为基于里程计的数据抑制IMU误差积累从而完成位置估算这一过程
此外人们还提出了不依赖与GNSS的定位,如下面两种融合方式。
3.2 Camera/IMU融合定位
通过融合相机与惯性测量单元的数据,本研究开发出一种新型的视觉惯性里程计(VIO)算法。这一融合过程生成了视觉惯性里程计(VIO),并列于同类方案的是这一经典且经济高效的定位技术。这些传感器组成了视觉惯性导航系统(VINS),并为后续研究奠定了基础。
主要原因在于相机能够提供丰富的场景细节但受限于技术限制难以获取精确的尺度信息同时受光照条件和天气状况等因素的影响较为明显另一方面IMU同样能够提供精确的尺度数据其工作性能与外界条件的变化关联较小此外在成本控制和能耗优化方面两者的性能表现都很出色因此在无需依赖 GNSS 的情况下这一技术方案既经济又具备较高的定位精度
在状态估计问题领域中,VINS同样面临着松耦合与紧耦合两种融合方式的选择。对于松耦合方案而言,在分别对相机和IMU的运动约束进行处理后实施数据融合的方式具有显著优势。其主要优势在于显著提升了计算效率[39];然而,在解耦合的过程中可能会导致部分信息丢失的情况出现。相比之下,在同一个运动过程中直接实现测量值的融合能够进一步提高系统的精度水平[41][42]。其中较为典型的方案包括基于非线性优化原理设计的VINS方案、以及通过证实紧耦合精度更高的OKVIS算法[41]等实现完整且具有较强鲁棒性的VINS-Mono方案[42]
3.3 LiDAR/Camera融合定位
在获取大量细节信息方面,相机表现优异;然而,在捕捉精确三维数据这一方面存在局限性。相比之下,LiDAR技术能够提供高度准确的三维数据;两者的结合能够充分发挥各自的优势,在完成高精度地图(HD Map)制作过程中扮演着不可或缺的角色。当车辆处于动态行驶状态时,可以通过融合LiDAR和相机的数据来识别当前行驶环境中的关键特征(如车道线、障碍物点云等),并与已建立的高精度地图进行比对分析;从而实现精准的车辆定位与导航功能。
Xu团队[43]开发了一种基于立体图像匹配的3D点云数据定位系统。该系统首先将物体的三维坐标从全球坐标系转换为相机局部坐标系,并随后与图像中相应位置的点进行比对定位。为了提升系统的稳定性与精确度,在不同环境条件下表现出色。为了适应多变的工作场景需求,Thiruvedula等人[44]设计了一种多 season自适应算法:具体而言,他们首先收集了不同季节下的卫星遥感影像;接着,利用LiDAR技术对车辆全景成像设备获取的画面进行了分类处理,将其分解为空间地物与非地物区域;随后,对该算法处理后所得的空间地物影像进行了变换生成俯视图;最后,通过比较卫星遥感影像的地物区域与其预处理后的俯视图实现了精准比对与匹配进而完成了空间目标的位置估计工作
为了实现自动驾驶系统的高精确度和高可靠性要求,在确定定位信息时应确保其具有冗余性以保证即使某个传感器失效时系统的运行不受影响。我们接下来将深入探讨不同种类传感器联合运用的定位方案
3.4 多种方式混合定位
自动驾驶任务涉及多个方面;同一类传感器可能具备多种功能(例如,在实现定位时, 它们还可以用于目标检测和语义分析)。此外, 不同类型的传感器可能会拥有共同的功能特性, 这充分体现了技术设计中对多能性组件的重视和应用价值。
Apollo项目组成员Wan等人[49]开发了一种基于RTK-GNSS/IMU/LiDAR多传感器融合定位方案。该方案充分运用了LiDAR的强大强度和高度信息特征,在预先构建了基于高斯混合模型(GMM)的空间单元网格地图上实现了初步定位过程。随后通过结合RTK和IMU的高精度定位结果,在复杂环境中(如城市道路、隧道等)实现了厘米级至十厘米级的横向与纵向定位精度保障。类似地,Levinson等人[50]也采用了GPS/IMU/LiDAR联合概率网格地图等技术手段实现高精度定位;但与前者不同在于:该方法采用贝叶斯推理技术降低了地图单元要素存在的不确定性,并通过离线同时实现SLAM算法中的环境要素校准操作以增强动态环境下的定位鲁棒性保障
然而,在采用RTK和LiDAR技术时会伴随较高的成本开销。Suhr等人[51]提出了一种基于粒子滤波器(Particle Filter, PF)的低成本定位方案。该方法通过道路标记(symbolic road marking, SRM)制作轻量化的地图信息,并生成轻量化的地图数据。随后通过相机识别这些特定的道路标记来获取初步的位置信息;接着结合GPS、IMU和里程计的数据来完成定位过程。值得注意的是,在缺乏道路标记的情况下,该方法的定位精度可能会有所下降。
4 总结与展望
作为自动驾驶中的核心技术问题,定位成为研究热点。尽管已经取得诸多成果[分号]但在信号干扰或丢失[分号]剧烈晃动等复杂环境下[;顿号;]以及动态物体[分号]极端天气[分号]季节变化[分号]物体遮挡[分号]缺乏纹理[分号]光照不佳等场景下[;顿号;]其定位效果仍显不足。目前业界中Google主要使用基于LiDAR的定位方案[;而顿号;Tesla和Mobileye则采用视觉为主的方案[;分号;]Bosch则更倾向于依赖毫米波雷达的技术。这些方法各有特点:在智能汽车领域中具有显著优势的LiDAR技术可以在复杂交通环境中提供高精度数据;在无人机导航方面具有显著优势的视觉系统能够实时捕捉环境特征;而基于毫米波雷达的方法则擅长应对快速移动障碍物的情况但都存在各自的局限性需要根据不同应用场景进行优化选择。
当
参考文献
- Kuutti S, Fallah S, Katsaros K, et al. A survey of the state-of-the-art localization techniques and their potentials for autonomous vehicle applications[J]. IEEE Internet of Things Journal, 2018, 5(2): 829-846.
- Yurtsever E, Lambert J, Carballo A, et al. A survey of autonomous driving: Common practices and emerging technologies[J]. IEEE Access, 2020, 8: 58443-58469.
- Jo K, Kim J, Kim D, et al. Development of autonomous car—Part I: Distributed system architecture and development process[J]. IEEE Transactions on Industrial Electronics, 2014, 61(12): 7131-7140.
- Groves P D. Principles of GNSS, inertial, and multisensor integrated navigation systems, [Book review][J]. IEEE Aerospace and Electronic Systems Magazine, 2015, 30(2): 26-27.
- 中国智能网联汽车产业创新联盟自动驾驶地图与定位工作组.自动驾驶地图与定位技术产业发展报告[J].智能网联汽车,2019,(3):58-67.
- 陈山枝,时岩,胡金玲.蜂窝车联网(C-V2X)综述[J].中国科学基金,2020,34(02):179-185.
- Harding J, Powell G, Yoon R, et al. Vehicle-to-vehicle communications: readiness of V2V technology for application[R]. United States. National Highway Traffic Safety Administration, 2014.
- Del Peral-Rosado J A, López-Salcedo J A, Kim S, et al. Feasibility study of 5G-based localization for assisted driving[C].2016 International Conference on Localization and GNSS (ICL-GNSS). IEEE, 2016: 1-6.
- Levi R W, Judd T. Dead reckoning navigational system using accelerometer to measure foot impacts: U.S. Patent 5,583,776[P]. 1996-12-10.
- Liu R, Wang J, Zhang B. High definition map for automated driving: Overview and analysis[J]. The Journal of Navigation, 2020, 73(2): 324-341.
- Elhousni M, Huang X. Review on 3D Lidar Localization for Autonomous Driving Cars[J]. arXiv preprint arXiv:2006.00648, 2020.
- KEYSIGHTCN.智能化、网联化、新能源化——未来汽车的技术迭代[EB/OL]. http://news.eeworld.com.cn/mp/KEYSIGHT/a64133.jspx 2019-04-10/2020-06-08
- Piasco N, Sidibé D, Demonceaux C, et al. A survey on visual-based localization: On the benefit of heterogeneous data[J]. Pattern Recognition, 2018, 74: 90-109.
- Nistér D, Naroditsky O, Bergen J. Visual odometry[C]//Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2004. CVPR 2004. Ieee, 2004, 1: I-I.
- Scaramuzza D, Fraundorfer F. Visual odometry [tutorial][J]. IEEE robotics & automation magazine, 2011, 18(4): 80-92.
- 慈文彦, 黄影平, 胡兴. 视觉里程计算法研究综述[J]. 计算机应用研究, 2019 (9): 1.
- 马玉娇. 基于立体视觉里程计的移动机器人定位研究[D]. 武汉科技大学, 2009.
- Moravec H P. Obstacle avoidance and navigation in the real world by a seeing robot rover[R]. Stanford Univ Ca Dept of Computer Science, 1980.
- Yousif K, Bab-Hadiashar A, Hoseinnezhad R. An overview to visual odometry and visual SLAM: Applications to mobile robotics[J]. Intelligent Industrial Systems, 2015, 1(4): 289-311.
- Wu Y, Tang F, Li H. Image-based camera localization: an overview[J]. Visual Computing for Industry, Biomedicine, and Art, 2018, 1(1): 1-13.
- Klein G, Murray D. Parallel tracking and mapping on a camera phone[C]//2009 8th IEEE International Symposium on Mixed and Augmented Reality. IEEE, 2009: 83-86.
- Mur-Artal R, Montiel J M M, Tardos J D. ORB-SLAM: a versatile and accurate monocular SLAM system[J]. IEEE transactions on robotics, 2015, 31(5): 1147-1163.
- Engel J, Schöps T, Cremers D. LSD-SLAM: Large-scale direct monocular SLAM[C]//European conference on computer vision. Springer, Cham, 2014: 834-849.
- Forster C, Pizzoli M, Scaramuzza D. SVO: Fast semi-direct monocular visual odometry[C]//2014 IEEE international conference on robotics and automation (ICRA). IEEE, 2014: 15-22.
- Yang S, Song Y, Kaess M, et al. Pop-up slam: Semantic monocular plane slam for low-texture environments[C]//2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2016: 1222-1229.
- 俞毓锋, 赵卉菁, 崔锦实, 等. 基于道路结构特征的智能车单目视觉定位[J]. 自动化学报, 2017, 43(5): 725-734.
- 潘林豪, 田福庆, 应文健, 等. 基于直接法的视觉同时定位与地图构建技术综述[J]. 计算机应用研究, 2019, 36(4): 961-966.
- 赵霞, 袁家政, 刘宏哲. 基于视觉的目标定位技术的研究进展[J]. 计算机科学, 2016, 43(6): 10-16.
- 吴福朝. 计算机视觉中的数学方法[M]. 科学出版社, 2008.
- Hartley R, Zisserman A. Multiple view geometry in computer vision[M]. Cambridge university press, 2003.
- Lepetit V, Moreno-Noguer F, Fua P. Epnp: An accurate o (n) solution to the pnp problem[J]. International journal of computer vision, 2009, 81(2): 155.
- Forster C, Pizzoli M, Scaramuzza D. SVO: Fast semi-direct monocular visual odometry[C]//2014 IEEE international conference on robotics and automation (ICRA). IEEE, 2014: 15-22.
- 许磊.基于角点特征匹配的机器人路标定位方法研究[D].重庆:重庆大学,2018.
- Durrant-Whyte H, Bailey T. Simultaneous localization and mapping: part I[J]. IEEE robotics & automation magazine, 2006, 13(2): 99-110.
- Bresson G, Alsayed Z, Yu L, et al. Simultaneous localization and mapping: A survey of current trends in autonomous driving[J]. IEEE Transactions on Intelligent Vehicles, 2017, 2(3): 194-220.
- Bram Geenen A, Ali Nasseri V, Adriaan Schiphorst A. 2020 AUTONOMOUS VEHICLE TECHNOLOGY REPORT[ER/OL] https://www.wevolver.com/article/2020.autonomous.vehicle.technology.report 2020-03-06/2020-06-12
- 刘勇. 多源融合SLAM-现状与挑战[R]. 第二届全国SLAM技术论坛, 清华大学, 中国图象图形学学会(CSIG), 2019-7-27
- 高翔. 视觉 SLAM 十四讲: 从理论到实践[M]. 电子工业出版社, 2017.
- Huang G. Visual-inertial navigation: A concise review[C]//2019 International Conference on Robotics and Automation (ICRA). IEEE, 2019: 9572-9582.
- 冼承钧,徐铭鸿,时广轶,王春波,吴志刚,徐开明,金玉丰. 基于多传感器融合的组合导航方法及系统[P]. 江苏省:CN111141273A,2020-05-12.
- Leutenegger S, Furgale P, Rabaud V, et al. Keyframe-based visual-inertial slam using nonlinear optimization[J]. Proceedings of Robotis Science and Systems (RSS) 2013, 2013.
- Qin T, Li P, Shen S. Vins-mono: A robust and versatile monocular visual-inertial state estimator[J]. IEEE Transactions on Robotics, 2018, 34(4): 1004-1020.
- Xu Y, John V, Mita S, et al. 3D point cloud map based vehicle localization using stereo camera[C]//2017 IEEE Intelligent Vehicles Symposium (IV). IEEE, 2017: 487-492.
- Viswanathan A, Pires B R, Huber D. Vision-based robot localization across seasons and in remote locations[C]//2016 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2016: 4815-4821.
- Badue C, Guidolini R, Carneiro R V, et al. Self-driving cars: A survey[J]. arXiv preprint arXiv:1901.04407, 2019.
- Zuo X, Geneva P, Lee W, et al. LIC-Fusion: LiDAR-Inertial-Camera Odometry[J]. arXiv preprint arXiv:1909.04102, 2019.
- Shao W, Vijayarangan S, Li C, et al. Stereo visual inertial lidar simultaneous localization and mapping[J]. arXiv preprint arXiv:1902.10741, 2019.
- Zhang J, Singh S. LOAM: Lidar Odometry and Mapping in Real-time[C]//Robotics: Science and Systems. 2014, 2(9).
- Wan G, Yang X, Cai R, et al. Robust and precise vehicle localization based on multi-sensor fusion in diverse city scenes[C]//2018 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2018: 4670-4677.
- Levinson J, Thrun S. Robust vehicle localization in urban environments using probabilistic maps[C]//2010 IEEE International Conference on Robotics and Automation. IEEE, 2010: 4372-4378.
- Suhr J K, Jang J, Min D, et al. Sensor fusion-based low-cost vehicle localization system for complex urban environments[J]. IEEE Transactions on Intelligent Transportation Systems, 2016, 18(5): 1078-1086.
