Advertisement

自动驾驶汽车的传感器融合技术详解

阅读量:

自动驾驶汽车的传感器融合技术是实现自动驾驶的关键,通过整合多种传感器的数据,能更全面、精准地感知车辆周围环境。以下是对自动驾驶汽车中常用传感器工作原理及数据融合方法的详细介绍。

自动驾驶汽车常用传感器工作原理

  • 摄像头 * 成像原理 :目标物体通过镜头生成光学图像投射到图像传感器上,光信号转变为电信号,再经过 A/D(模数转换)后变为数字图像信号,最后送到 DSP(数字信号处理芯片)中进行加工处理,由 DSP 将信号处理成特定格式的图像4。

    • 视觉感知 :摄像头可实现广角度、长距离视觉感知,能精准识别障碍物的大小和类别,如各类车道线、红绿灯以及交通标志等,还能对车辆行驶的安全边界进行划分,对横向移动目标进行探测和追踪4。
  • 雷达 * 毫米波雷达 :利用毫米波频段的电磁波来检测目标物体。通过发射和接收毫米波信号,分析信号的频率变化(多普勒效应)来确定目标物体的速度,根据信号的往返时间来计算目标物体与车辆的距离。其优点是不受天气影响,能在恶劣天气下稳定工作,且对高速运动目标的检测精度高。缺点是对物体的形状和纹理信息识别能力较弱,无法提供详细的视觉图像。

    • 超声波雷达 :一般用于近距离检测。它发射超声波脉冲,当超声波遇到障碍物时会反射回来,通过测量发射和接收超声波的时间差来计算障碍物与车辆的距离。常用于车辆的泊车辅助系统,能准确检测车辆周围近距离的障碍物,但检测范围有限,通常在数米以内。
  • 激光雷达 1

    • 工作原理 :通过发射和接受激光束,分析激光遇到目标对象后的折返时间,计算出目标对象与车的相对距离,并利用收集的目标对象表面大量的密集点的三维坐标、反射率等信息,快速复建出目标的三维模型及各种图件数据,建立三维点云图,绘制出环境地图,以达到环境感知的目的。
    • 优势 :能提供高精度的三维空间信息,对物体的轮廓、形状和位置感知准确,在晴朗天气下性能极佳,可有效检测出道路上的障碍物、行人、其他车辆等目标,为自动驾驶系统提供丰富的环境细节。不过,激光雷达的成本较高,且在恶劣天气(如雨、雪、雾)下,激光束会被散射或吸收,导致性能下降。

自动驾驶汽车传感器数据融合方法

  • 按抽象级别融合 3

    • 低级别融合 :融合来自多个传感器的原始数据,如融合激光雷达的点云数据和摄像头的像素级数据。这种融合考虑了所有数据,具有很大潜力,但早期因处理量巨大难以实现。例如,将 3D 点云投影到图像中并与像素关联,可用于对象检测。
    • 中级别融合 :将传感器独立检测到的物体进行融合。如摄像头检测到障碍物,雷达也检测到它,就把这些结果融合,以形成对障碍物位置、类别和速度的最佳估计,通常使用卡尔曼滤波器(贝叶斯算法)。不过,该方法严重依赖检测器,若一个检测器失败,整个融合可能受影响。
    • 高级别融合 :融合对象及其轨迹,不仅依赖检测,还包括预测和跟踪。优点是简单,但可能丢失太多信息,若追踪错误,整体结果就会错误。
  • 按中心化级别融合 3

    • 中心化融合 :由一个中央单元处理融合(低级别),所有传感器的原始数据都发送到中央单元进行统一处理和融合。其优点是能进行全局优化,充分利用所有传感器信息,但对中央单元的计算能力要求高,且数据传输带宽需求大。
    • 去中心化融合 :每个传感器融合数据并将其转发到下一个,没有中央单元,传感器之间相互协作进行融合。这种方式可降低中央单元的负担,但传感器之间的通信和协调复杂,可能导致融合结果的不一致性。
    • 分布式融合 :每个传感器在本地处理数据并将其发送到下一个单元(后期融合),结合了中心化和去中心化的优点,既能在本地进行一定的数据处理,减轻中央单元负担,又能通过中央单元进行全局协调和优化。
  • 按竞争级别融合 3

    • 竞争融合 :传感器用于相同目的,如同时使用雷达和激光雷达来检测行人,此时的数据融合过程称为冗余。当一个传感器出现故障或检测不准确时,另一个传感器可作为备份,提高检测的可靠性。
    • 互补融合 :使用不同的传感器观察不同场景以获取其他方式无法获得的信息,如使用多个摄像头构建全景图。不同传感器的信息相互补充,能提供更全面的环境感知。
    • 协同融合 :使用两个或更多传感器来产生一个新场景,但针对同一个对象,如使用 2D 传感器进行 3D 扫描或 3D 重建。通过传感器之间的协同工作,可获得单个传感器无法提供的信息。

传感器融合的具体实现与技术挑战

  • 数据层融合 :直接将来自不同传感器的原始数据进行融合处理。例如,将激光雷达的点云数据和摄像头的图像数据在早期阶段就进行合并,然后一起进行特征提取和目标识别等后续处理。这种方式能最大程度地保留原始数据的信息,但对数据处理能力要求极高,且不同传感器数据的格式、分辨率、帧率等差异较大,需要进行复杂的数据预处理和对齐操作。
  • 特征层融合 :先分别从各个传感器数据中提取特征,然后将这些特征进行融合。例如,从激光雷达数据中提取物体的几何特征,从摄像头图像中提取物体的视觉特征,再将这些特征组合起来用于目标检测和识别。这种方法减少了数据处理量,同时能利用不同传感器特征的互补性,但特征提取的准确性和有效性对融合结果影响较大。
  • 决策层融合 :各个传感器独立进行处理和决策,然后将这些决策结果进行融合。例如,摄像头判断前方有一个行人,毫米波雷达也检测到相同位置有一个运动目标,通过融合这两个决策来确定最终的行动方案。决策层融合相对简单,易于实现,且对单个传感器的依赖性较小,但可能会丢失一些细节信息,决策的准确性取决于单个传感器决策的可靠性。

传感器融合技术面临的挑战

  • 数据同步与校准 :不同传感器的采样频率、时间延迟和坐标系都可能不同,需要进行精确的时间同步和空间校准,以确保融合的数据准确反映实际环境。例如,激光雷达和摄像头的坐标系转换需要精确的标定参数,否则会导致目标定位不准确。
  • 数据噪声与不确定性 :传感器数据往往包含噪声和不确定性,如雷达的测量误差、摄像头图像的模糊等。这些噪声和不确定性会影响融合结果的准确性,需要采用有效的滤波和估计方法来处理。
  • 复杂环境适应性 :自动驾驶汽车会遇到各种复杂的环境条件,如强光、阴影、恶劣天气等,不同传感器在这些环境下的性能表现各异。传感器融合技术需要能够适应这些复杂环境,充分发挥各传感器的优势,确保系统的可靠性和稳定性。

综上所述,自动驾驶汽车的传感器融合技术通过综合利用摄像头、雷达、激光雷达等多种传感器的优势,实现了对车辆周围环境更准确、更全面的感知2。然而,要实现高效、可靠的传感器融合,还需要克服诸多技术挑战,不断改进和优化融合算法与系统架构,以推动自动驾驶技术的发展和普及。

全部评论 (0)

还没有任何评论哟~