自动驾驶相关的传感器和坐标系
在自动驾驶技术中常见的传感器类型包括但不限于摄像头、激光雷达阵列、毫米波雷达阵列以及超声波测距仪等。以下对这些传感器的使用场景及工作原理进行简要概述:摄像头主要负责图像采集与物体识别;激光雷达利用激光信号测量距离并生成三维地图;毫米波雷达通过多普勒效应检测车辆速度和周围环境状况;超声波测距仪则依靠声波反射原理实现精确距离测量。

(1)各传感器优劣
自动驾驶汽车依靠不同种类的传感器用于感知周围环境;每种传感器都具有其独特的优势与局限性。以下是对几种常用传感器的简要分析及其优缺点与适用场景总结:
摄像头(Camera)具有以下特点:首先,在成本方面具有优势——它能够以较低的成本获得高质量图像数据,并且能在各种复杂环境下正常工作。此外,在功能上同样出色——它能实时采集并处理来自不同角度的环境数据,并通过先进的算法实现精确的数据分析与处理能力。
雷达(Radar) * 优点 :无论天气如何(无论天气条件如何),雷达都能正常工作,并传递距离和速度数据;它能够有效覆盖较远区域以进行检测。 * 缺点 :由于其较低的分辨率能力不高,在识别物体的具体形状和类型方面存在局限性;不仅难以清晰区分不同物体的形状特征,而且也无法准确判断它们的具体类型信息。 * 使用场景 :自适应巡航控制、碰撞预警系统、以及弥补视野盲区的盲点检测技术等应用领域都有广泛的应用。
激光雷达(LiDAR) * 优点 :该技术具备高精度的三维空间数据采集能力,并可实现物体形状和大小的精准检测和提升其辨识度。 * 缺点 :该技术具有较高的初始成本,并易受恶劣天气条件(如雨雾)的影响;此外,在处理海量数据时需要具备强大的计算处理能力和足够的实时性保障以确保准确性和可靠性。 * 使用场景 :该技术主要应用于制作高精度地图、进行障碍物探测以及构建环境模型等关键领域。
**超声波传感器系统(Ultrasonic Sensors)**具有显著优势:其价格相对较低且便于部署,在短距离测量方面表现出色。然而,在长距离探测方面存在局限性,并且其分辨能力和精确度均不足。该技术广泛应用于车辆自动泊车辅助系统以及周边环境中的障碍物实时监测等场景。
惯性测量单元(IMU)具有多个优势:能够准确测度车辆加速度与旋转状态,并不受外部信号干扰影响。该方法也存在一些局限性:易受传感器噪声干扰导致数据准确性下降;且长期运行时系统稳定性较差。主要应用于车辆动态控制以及辅助定位领域。
全球定位系统(GPS) * 优点:覆盖广袤地域的位置信息,并广泛应用于路径规划与导航功能。
- 缺点:在复杂建筑环境中信号可能不稳定,并容易受障碍物影响精度。
- 使用场景:全局定位与路径规划应用。
车轮编码器(Wheel Encoders) * 优点:能够有效获取车轮转速与位置数据并确保其精确度较高。
- 缺点:该技术仅能获取车轮触地点的信息而无法全面确定整车位置。
- 使用场景:该编码器系统适用于需要精准测定车辆运行速度与位置信息的应用场景。
各种传感器都有各自独特的应用场景,在自动驾驶系统中,通常会综合运用多种传感器以达到对环境的全面感知。通过多传感器融合的方法可以显著提升系统的可靠性和精确度,并且能够弥补单一传感器所无法提供的信息或性能缺陷。
(2)传感器标定以及相互转换
在自动驾驶系统中,传感器标定是指通过计算或判定传感器相对于车辆坐标系或世界坐标系的准确方位与位置的过程。该过程的主要目的是保证传感器所收集的数据真实、可靠地捕捉车辆及其环境的状态信息。
相机标定:采用带有明确几何特性的模板作为基准物,在不同方位进行成像采集,并通过多方位取景获取多个视图数据;系统会根据图像数据推导出相机镜头本身的特性(如焦距长度及主点坐标),以及其相对于物体的姿态信息(即相机的姿态角和平移量)。这些参数对于后续的应用开发至关重要。
激光雷达(LiDAR)校准:通常需要确定LiDAR相对于车辆坐标系的位置与方向。这可以通过将LiDAR的点云数据与已知位置的物体进行配准来实现。
雷达校准 通常包括对天线方向和角度的精确调节;为了提高测量精度,在进行雷达校准时通常会调整天线的方向参数以确保最佳的工作状态
IMU标定:通常需对加速度计与陀螺仪进行校正。这一步骤可帮助抵消设备固有的偏差及噪声干扰。随后的操作一般会根据物体的不同运动状态来进行设计,并结合实时数据反馈机制完成精确的定位计算。
GPS 校准 : GPS 校准涉及对接收器位置误差的校正,可通过与已有固定位置基站对比实现
涉及专业标定设备的一般流程包括诸如标准板、测试场地以及软件包等元素。采用机器学习算法与计算机视觉技术能够实现自动化的校准流程,并能有效提升效率与精度。总体而言而言而言而言而言而言这是一个较为复杂的作业流程需要精确测量与计算其参数才能确保系统性能的安全运行。在实际应用中中,在实际应用中中,在实际应用中中,在实际应用中中,在实际应用中中,在实际应用中传感器校准是一个持续进行的过程需要定期进行以适应车辆及环境的变化情况
(3)坐标系相互转化
当所有传感器完成标定后,则必须将这些数据转换至同一个坐标系统中进行处理。具体来说,则包括:
在进行坐标系转换操作时:完成从某一特定的测量基准向另一测量基准的转变过程。这通常可以通过建立并应用相应的数学模型来实现。
时间同步 :确保传感器数据在时间上的一致性,可能需要时间戳校准。
数据融合 :结合来自不同传感器的数据,以获得更全面和准确的环境感知。
而目前基于参考框架的不同, 坐标系统主要分为世界坐标系统、传感器坐标系统和汽车坐标系统. 各具特色的传感器则对应着多样化的数据类型以及各自对应的坐标体系.

每个传感器都具有独立的坐标系系统,在设计时根据其工作原理被划分为两大类:一类是基于环境信息感知的技术架构——即相对测距装置;另一类则是基于自身体动状态监测——即绝对测距设备。对于采用相对定位方式的传感器而言,在这种模式下获取的数据通常是该装置内部固有的;而采用自身体动状态进行定位的方式所获得的数据则与相邻或全局坐标系统相关联。下面将对常见的测距传感设备类型进行具体阐述并分析它们各自的优缺点。
1.相机坐标系
在下图中左侧展示的是世界坐标系与相机坐标系之间的关系图,在相机坐标系统内确定其原点位于成像平面中心位置,并以与z轴正交的平面作为焦点位置。右侧则呈现了像素图像坐標体與物體物理坐標體之間之關聯示意圖,在_pixel image coordinate system中,则将该坐标的起点设置于图像左上方位置。

- 世界坐標體:选定作為基準的世界參考系統用於描繪環境中物體及攝影機之位置。
- 摄影機坐標體:將攝影機焦點設於三維直角坐標空間之Z軸原點並建立基於此之定位系統。
- 像素圖像坐標體:經小孔成像過程形成二維栅格結構在此框架下定義基於像素單元之圖像空間並將坐標體基點設於左上角位置。
- 數值圖像坐標體:采用物理量表示每个像素的空间位置信息,并将该原点设定在镜头光学轴与实际平面交汇处.
相机基于小孔成像原理,在实际应用中将真实的影像呈现在成像平面上。该平面作为物理世界中的真实存在,在尺寸上通常较小,并采用毫米作为基准单位。然而,在实际应用中所获取的图像则以像素为基准单位进行表示。因此,在图像处理领域中会区分并使用两种不同的坐标系统:一种是基于像素的图像坐标系(pixel-based coordinate system),另一种则是基于物理尺寸的实际空间坐标系(physical space coordinate system)。

对应的相机成像计算过程,


反过来即

2.激光雷达坐标系
64线激光雷达进行环境扫描过程:全周扫描数据

在激光雷达坐标系统中,旋转式激光雷达通常以激光发射中心作为坐标系的原点,并规定Z轴正方向为向上的方向;X轴和Y轴则共同构成水平面。图中的红色线条代表了激光雷达发射出的所有光束,在任何给定时刻都形成一个平行于Z轴且垂直于XY平面的扇形扫描区域;每束光线在其发射过程中均具有固定的俯仰角θ值,在设计制造阶段即被设定为该参数;随着时间t的变化,扇形扫描平面绕着Z轴旋转的角度φ(t)会发生变化,并将这一信息记录在原始测量数据中。


3.车体坐标系
该系统用于表征车辆及其周围环境中的物体之间的相对位置关系。在学术界与工业界中存在若干种主要采用的车体坐标系定义方案。具体包括 ISO 国际标准规范、美国 automotive engineers协会的标准规定以及基于 inertial measurement unit(IMU)的定位体系。

在车辆动力学领域中,ISO所设定的车体坐标系是一种常见的选择。另一方面,在航空航天领域常用的机舱坐标系统则与SAE所设定的车体坐标准备方案保持一致。此外,在基于IMU建立的车体坐标系统下,在涉及IMU的应用场景中也得到了广泛应用。无论如何选择坐标准备方案,在正确应用的情况下都可以实现对车身姿态信息的有效描述,并准确地确定周围物体及自身相对于对方的位置关系。开发人员应根据具体应用场景的需求以及个人偏好来决定采用何种坐标准备方案

4.世界坐标系
从广义上讲,在计算机视觉领域中表示物体在空间中位置和方向的坐标系通常指用于描述地球及其上物体位置和方向的系统。其中一部分被称为地理空间定位系统(Spatial referencing system),这一体系又可分为基于球面或椭球面坐标的地理投影方法以及基于平面直角坐标的投影方法两种大类。其中一种常用的标准是WGS-84(World Geodetic System)坐標系統,在此体系中地理位置通过经纬度数值来确定其在地球表面的位置;而另一类则是将地理空间转换为平面直角坐标的投影方法,并以米作为单位量度空间距离和大小。其中一种常见的是UTM(Universal Transverse Mercator)投影系统的应用
地理坐标系统(其缩写形式为GCS或Geographical Coordinate System)作为度°分’秒单位的标准形式具有精确定位能力

投影坐标系统被称为PCS(Projection Coordinate System的缩写)。该系统的单位为米(m),它擅长进行各种计算。

5.坐标系变换
在对单个传感器进行标定后,还需确定各传感器坐标系间的相对变换关系。通常采用的方法是通过多传感器协同定位技术来确定各传感器坐标系间的相对变换关系。具体包括以下步骤:首先建立多个基准参考框架;其次利用优化算法求解各参数;最后验证计算结果的有效性。
标定板法 :采用带有标准几何图案的标准板(例如棋盘格),从不同角度和位置对标准板进行拍摄,并同时采集LiDAR和雷达的数据。
特征提取 :
-
通过摄像头成像数据识别标定板的关键点。
-
在LiDAR测得的三维空间分布中获取标记板的关键位置信息。
-
对于雷达技术而言,在利用已知反射特性和特定算法进行计算分析的基础上才能实现对标记板特征的有效识别。
特征对应:在多源传感器数据中实现对应回合。这可能包含点云与图像等多种处理手段,以保证特征点的精确对应。
设置坐标系:对每个传感器和摄像头分别设置局部坐标框架,通常选取标定板中心作为基准点。
确定转换矩阵 :基于特征点匹配的结果,采用最小二乘法或采用其他优化算法来确定传感器相对于摄像头的旋转矩阵和平移向量。
提升标定流程的效率:在实际应用中,为了提高标定精度和稳定性,通常会采用迭代优化策略。例如,在图像处理阶段进行特征提取,并根据实际情况不断优化匹配算法;同时,在坐标系转换过程中引入新的计算模型以提高精度。
评估旋转矩阵的准确性和鲁棒性
软件平台
具体计算旋转矩阵的方法可能包括:
- 直接线性变换(DLT) 是一种基于最小二乘法解决多视图间点对应关系的线性技术。
- RANSAC(随机抽样一致性) 是一种循环算法,在数据集中估计数学模型的基本参数。
- ICP(逐次 closest point)算法 是一种用于配准点云的方法。
经过计算得到的旋转矩阵具备将LiDAR或雷达设备采集的数据点转换到与摄像头图像一致的空间坐标系的能力,并能完成多源传感器数据的有效融合与同步处理。这种空间关系对自动驾驶系统而言具有至关重要的意义,并有助于提升车辆对周围环境的认识能力和实时决策能力。
(4)其他细节
1.视觉应用基础
在立体视觉中,在研究物体表面至观察者视线距离相关的数据时我们将其定义为深度信息z。该信息反映了物体表面至摄像头光心之间的实际距离。为了便于描述我们将这一概念称为深度z

其中常见的几个概念:
视差(disparity)

视差图(disparity map)
视差图指存储立体校正后单视图所有像素视差值的二维图像。
1. 视差图是一张二维图像,和原图等大小
2. 视差图每个位置保存的以像素为单位的该位置像素的视差值
3. 采用左视图视差图作为示例,在 pixels 位置 p 处的 disparity 值等于该 pixels 在 right 图像中对应匹配点所在 column 的位置索引减去 left 图像中同一 pixels 所在 column 的位置索引。
深度(depth)
深度D代表像素在该视图相机坐标系下的Z坐标作为空间单位 。尽管未经过校正的图像对同样可用于获取深度信息,在这种情况下也能生成有效的深度图。其中深度值的计算建立在以下几个假设的基础上:
- 相机的焦距参数𝑓已被确定,并决定了成像平面至相机光心的距离。
- 两台相机中心间的基线距离为𝑏,并与其所在的成像平面保持垂直关系。
- 同一物体在两张不同相机图像中水平方向上相差𝑥个像素。
深度 𝑑的计算公式可以表示为:
𝑑=𝑏⋅𝑓 / 𝑥
此处 𝑥 被定义为视差,在两个相机图像中被观察到的同一物点投影之间的水平间距。
深度图(depth map)
深度图主要用于记录单视图中每个像素对应的三维空间位置信息的二维图像,并表示空间中的位置基准。例如毫米。
1. 深度图是一张二维图像,和原图等大小,也就和视差图等大小
2. 深度图每个位置保存的是该位置像素的深度值
3. 深度值就是相机坐标系下的Z坐标值
点云(point cloud)

视差图是基于立体匹配算法生成的结果这一产物,在实际应用中扮演着重要的角色。而深度图则是在将立体匹配结果转换为点云数据的过程中起到关键作用。在视差图与深度图之间存在一一对应的数学关系:

2.视觉基本任务
涉及并认为单应性矩阵、基础矩阵和本质矩阵是计算机视觉中的基本任务,并且特别是在多视图几何和立体视觉领域中占据重要地位。这些矩阵主要用于描述图像之间的空间关系。以下是如何计算这些矩阵的概述:
涉及并认为单应性矩阵、基础矩阵和本质矩阵是计算机视觉中的基本任务,并且特别是在多视图几何和立体视觉领域中占据重要地位。这些矩阵主要用于描述图像之间的空间关系。以下是如何计算这些矩阵的概述:
》单应性矩阵 (Homography Matrix)
单应性矩阵表征两个平面间的相互转换关系,并多用于同一平面在不同视图中的转换。

》基础矩阵
基础矩阵描述两幅图像之间的点对应关系,且不依赖于摄像机的内参数。

》本质矩阵
本质矩阵用作表示当相机内部参数已知时两幅图像间的点对应关系

以下是一些估算单应性矩阵、基本几何约束关系矩阵以及物点之间相对位置与姿态关系模型的具体计算步骤。在实际操作中,这些步骤通常会涉及图像预处理、特征点提取与配准过程,并通过优化算法来提升计算效率和准确性。
在获得相机的姿态参数后( camera pose parameters),特征点深度可被空间定位技术 (Triangulation)所确定。
- 假设相机1和相机2之间的相对外参信息已知完整,并在两张图像中标出了同一物体或特征点对应的像素坐标p₁和p₂。
- 根据这些相机的外参信息,我们可以将这些匹配点分别投影到各自的成像空间后得到两条射线,并通过求解这两条射线方程得到它们在三维空间中的交点位置Pw'。
每个匹配特征点集合中的深度坐标Z值是通过其射线交点集与相机相对于该物体的位置进行精确计算得到的。
3.立体匹配
立体视觉也被称作 binocular vision 或 stereo matching, 它是一种基于两组视点(通常指两台相机)观察同一场景并恢复其三维结构的方法。其核心原理在于通过 disparity(即同一场景点在两张图像中水平方向的像素偏移量)来推导深度信息。以下将介绍如何通过立体视觉技术计算三维空间中物体位置的基本步骤及其工作原理。
对应特征对:
计算视差 :视差实际上是反映同一场景在两张相机图像中对应点的横向偏移程度。通常情况下,两台相机安装在同一个水平面上,在这种情况下观察到的位移主要发生在水平方向上。
三角测距技术:基于视差原理利用两台相机之间的相对位置关系(具体指两台相机中心之间的直线距离),可实现各匹配点空间位置信息的确定。其中深度d的计算公式可简化为:d = \frac{b \cdot f}{x}。这里b表示基线距离、f表示相机焦距、x则代表视差值。
确定三维空间中的坐标位置:当获得深度数据时(d=z),可以通过相机的内部参数(如镜头焦距及中心点位置)和外部参数(如相机的位置与朝向)来推导出各匹配点在三维空间中的坐标值。这一过程通常需要求解一个线性方程组的过程。
坐标系:计算所得的空间坐标通常基于相机所处的相机坐标系进行表示。每个相机都具有独立的局部坐标系系统:其原点一般设置在镜头成像中心;朝向镜头的方向为Z轴正方向;而X轴和Y轴则分别沿着水平和平面方向延伸。
坐标系:计算所得的空间坐标通常基于相机所处的相机坐标系进行表示。每个相机都具有独立的局部坐标系系统:其原点一般设置在镜头成像中心;朝向镜头的方向为Z轴正方向;而X轴和Y轴则分别沿着水平和平面方向延伸。
坐标变换 :如果有必要,则可以通过以下方式将这些局部坐标系下的三维点映射为全局坐标系中的点:这通常包括对齐不同空间中的几何数据以及应用相应的旋转矩阵和平移向量进行处理。
立体视觉的核心在于能够精准定位匹配点对,并借助相机的几何和光学特性来恢复场景的三维结构信息。这种方法的一个显著限制是其受限于图像中存在充足的纹理细节以确保可靠的特征提取,并且仅限于相机视场范围内可捕获区域的重建。此外,在缺乏额外技术支持的情况下(如结构光法等),立体视觉通常只能提供场景深度信息而无法直接还原其高度信息。
补:
以下是Autoware和Apollo的对比总结表:
| 特性 | Autoware | Apollo |
|---|---|---|
| 开发者 | 日本的Autoware Foundation | 中国的百度公司 |
| 目标 | 城市环境中的自动驾驶,主要用于研究和开发 | 全面自动驾驶解决方案,适用于城市和高速公路,支持商业应用和开发者社区 |
| 系统架构 | 高度模块化设计,基于ROS | 完整生态系统,使用Cyber RT实时操作系统 |
| 感知 | 支持LIDAR、摄像头、雷达,具有点云处理、物体检测、跟踪功能 | 多传感器融合技术,包括LIDAR、摄像头、毫米波雷达,具备强大检测和跟踪能力 |
| 定位 | 使用SLAM和NDT进行精确定位 | 多传感器融合技术(RTK GPS和惯性导航系统),依赖高清地图进行定位 |
| 路径规划 | 提供A*、Dijkstra和行为决策树等多种算法 | 复杂路径规划算法,包括层次化行为决策、任务和运动规划 |
| 决策 | 基于规则和状态机的简单决策 | 采用行为树和神经网络等先进算法,处理复杂驾驶决策任务 |
| 控制 | 采用PID控制器和MPC算法 | 使用先进的MPC算法,提供精确的车辆控制能力 |
| 执行 | 通过CAN总线与车辆通信,执行控制命令 | 提供标准化车辆接口,支持多种车辆平台的集成和控制 |
| 仿真 | 支持Gazebo仿真环境,适用于学术研究和初步开发测试 | 提供Apollo Simuator和LGSVL仿真工具,具备复杂场景的仿真能力 |
| 测试 | 主要用于小规模测试和研究项目 | 在多个实际城市环境中进行测试,与汽车制造商合作进行大规模测试 |
| 社区 | 主要在学术界和研究机构中受到欢迎,社区较小但活跃 | 拥有庞大且活跃的开发者社区,受到全球开发者和商业公司的广泛支持 |
| 生态系统 | 提供基本的生态系统支持,依赖ROS生态系统进行扩展 | 提供全面的生态系统支持,包括硬件、软件、云服务等 |
参考链接:
该文章深入解析了自动驾驶技术中的核心问题——环境感知与定位机制。文章重点探讨了如何通过环境感知设备准确确定车辆在复杂交通场景中的绝对位置与相对位置关系,并详细阐述了不同参考系之间的转换过程及其对自动驾驶系统运行的重大意义。
介绍立体匹配的基础知识:通过视差图展示物体距离的变化情况;结合深度图获取精确的距离信息;利用点云技术构建三维空间模型以实现精准定位
