Advertisement

手把手教你学simulink(59.2)--传感器融合与环境感知场景:基于Simulink的雷达与视觉传感器融合

阅读量:

目录

基于Simulink的雷达与视觉传感器融合

1. 项目背景

2. 系统架构

2.1 系统组成

3. Simulink模型搭建

3.1 创建Simulink模型

3.2 搭建毫米波雷达模块

3.3 搭建摄像头模块

3.4 搭建传感器融合模块

3.5 搭建执行器模块

3.6 搭建用户界面模块

4. 传感器融合算法设计

4.1 时空对齐

4.2 目标关联

4.3 融合结果生成

5. 仿真与测试

5.1 虚拟场景仿真

5.2 硬件在环(HIL)测试

6. 结果分析与优化

6.1 性能评估

6.2 参数优化

7. 总结


基于Simulink的雷达与视觉传感器融合

1. 项目背景

多传感器融合技术作为智能驾驶的核心技术,在数据整合方面发挥了重要作用。通过多维度数据的整合与分析,在目标识别准确性及可靠性方面均能实现明显改善。其中毫米波雷达(Radar)和摄像头(Camera)是最常用的两类设备:前者具备捕捉高速运动物体的能力;后者则擅长处理复杂场景下的视觉信息。它们各自具有独特的优势:

  • 毫米波雷达 :能在恶劣天气环境下正常运行,在雨天、烟雾天以及强光照射下都能稳定工作。它能够准确地采集距离与速度数据,并具备一定的目标跟踪能力。然而,在识别目标的具体形状与类别方面的能力较为有限。
    • 摄像头 :能提供多维度的视觉数据,并被广泛应用于采集物体的形状特征、颜色信息以及纹理细节。不过,在实际应用中其性能可能会受到低光照条件或复杂背景环境的影响而有所下降。

利用毫米波雷达测距数据与摄像头图像数据相结合的方式,在本研究中能够最大限度地发挥各自的优势以提高目标检测精确度和抗干扰能力。在此案例中我们采用 MATLAB 的 Simulink 平台及其相关工具箱来整合雷达与视觉传感器的数据


2. 系统架构
2.1 系统组成

毫米波雷达模块

复制代码
* 提供前车的距离、相对速度和角度信息。

摄像头模块

复制代码
* 提供前方场景的图像数据,用于目标检测和分类。

传感器融合模块

通过多源传感器数据的时空配准处理实现目标的一致性识别,并最终整合为最终的检测输出

目标检测与分类模块

  • 主要依靠深度学习技术(包括YOLO、Faster R-CNN等模型)对来自摄像头的图像数据进行目标识别和分类。
  • 融合雷达测得的目标距离及其运动速度数据的基础上,在目标检测精度上取得显著提升。

执行器模块

复制代码
* 根据融合后的检测结果,调整车辆的速度和方向,确保安全行驶。

用户界面

为驾驶员传递系统的实时状态数据包括当前行驶速度、前方车辆间距以及当前是否处于多传感器融合工作的状态等详细信息


3. Simulink模型搭建
3.1 创建Simulink模型

在 MATLAB 环境中 启动 Simulink,并创建一个新的模型文件(sensor_fusion.slx)。

添加必要的模块库

  • Simulink:提供基础的模拟电路仿真与系统设计功能。
  • Computer Vision Toolbox:对摄像头捕捉到的画面进行分析与识别,并完成目标识别与分类任务。
  • Phased Array System Toolbox:专门针对毫米波雷达信号进行数据采集与分析。
  • Deep Learning Toolbox:支持构建并部署深度学习算法模型。
  • Sensor Fusion and Tracking Toolbox:负责多个传感器数据的融合与同步处理
3.2 搭建毫米波雷达模块
  1. 雷达传感器模型
    • 使用 Phased Array System Toolbox 中的 Radar Sensor 模块来模拟毫米波雷达的工作原理。该模块可以输出前车的距离、相对速度和角度信息。
    • 设置雷达的探测范围、分辨率、更新频率等参数。
  2. 雷达数据预处理
    • 使用 Sensor Fusion and Tracking Toolbox 中的 Radar Data Preprocessing 模块,对雷达数据进行滤波、去噪和坐标转换,确保数据的质量和一致性。
    • 将雷达数据转换为笛卡尔坐标系,便于后续的融合处理。
3.3 搭建摄像头模块

摄像头传感器模型

  • 使用 Computer Vision Toolbox 提供的支持模块中的 Image Acquisition 功能进行实时数据采集。
    • 配置摄像头的各项核心参数如分辨率与帧率设置,并确保所得图像质量达到目标检测所需标准。

图像预处理

采用Image Processing Toolbox中的Image Preprocessing组件来对来自摄像头的图像执行预处理工作, 包括如转换为灰度图.去除噪声.增强边缘等处理步骤, 并以提高图像质量为目标. 将图片转换为适合深度学习模型输入的格式, 并进行归一化和缩放等预处理操作.

目标检测与分类

  • 调用 Deep Learning Toolbox 提供的 YOLO v4 神经网络模块或 Faster R-CNN 模块进行目标检测与分类操作(涵盖车辆、行人及交通标志等常见物体)。
  • 构建或训练一个深度学习模型,并将其部署至 Simulink 平台。
  • 识别系统将生成目标边界框信息以及对应的类别标签和置信度值。
3.4 搭建传感器融合模块

时空对齐

  • 借助Sensor Fusion and Tracking Toolbox中的Time Synchronization模块(Time Synchronization Module),通过该模块将雷达与摄像头的数据实现时间同步(保证在相同时间点收集的数据具有可比性)。
  • 借助Coordinate Transformation模块(Coordinate Transformation Module),通过该模块将雷达与摄像头的数据转换至同一坐标系(便于后续实现空间一致性)。

目标关联

  • 采用联合概率数据关联算法(JPDA)或最近邻算法(NN),将雷达探测到的目标与相机探测到的目标进行匹配。
  • 对于每一个被雷达探测到的目标,在其感知范围内匹配到最近的相机探测结果,并整合这两个感知信息形成统一的目标描述。
  • 当某个雷达探测到的目标未被对应至相机探测结果时,则根据具体情况选择是否保留该目标;同样地,在某些情况下也可能舍弃未被匹配的对象以保证系统性能。

融合结果生成

  • 在每一个成功关联的雷达与摄像头的目标对中,
  • 综合考虑雷达测得的距离和速度信息以及摄像头的类别标签和置信度,
  • 生成融合后的检测结果。
  • 融合后的结果具体包含了目标边界框的位置信息、所属类别标签以及对应的运动参数如速度和距离。
3.5 搭建执行器模块

决策与控制

  • 基于 Control System Toolbox 中的 PID ControllerModel Predictive Control (MPC) 模块,并根据融合后的检测结果进行处理。
    • 当感知到前方存在障碍物或前车距离不足时(即前方有障碍物或前车距离过近),系统将自动减缓速度或完全停止;当前方道路畅通(即前方道路畅通)时,则会恢复设定的巡航速度。

制动与转向控制

  • 位于 Simscape > Multibody 中的 Brake ModelSteering Model 模块用于仿真制动系统和转向系统的响应行为,并根据控制器发出的指令来呈现实际制动力和转向角度的具体数值。
3.6 搭建用户界面模块

驾驶员输入

提供...中的SliderConstant模块来配置巡航速度和最小跟车距离等参数。

显示与反馈

  • 配备ScopeDisplay模块后,系统能够实现运行参数数据的动态呈现, 包括但不限于当前车速、前后车距离以及目标检测数量等关键指标.
  • 通过配备Video Viewer模块,监控画面将得以实时更新并结合目标边界框信息, 为驾驶员提供直观的交通状况反馈.

4. 传感器融合算法设计
4.1 时空对齐

时间对齐

  • 因为雷达与摄像头的采样速率存在差异,在实际应用中有必要对两者的数据实施时间同步处理。
    可以通过插值算法或引入延迟补偿机制来实现这一目标。
    通过采用插值算法或延迟补偿方法,
    即可确保在相同时间点采集的数据能够对应一致。
    此外,
    可利用该工具包中的Time Synchronization模块来实现数据同步功能。

空间对齐

由于雷达与摄像头所处的坐标系不同,在进行数据处理时需要将两者的数据统一至同一个坐标系中。为此可以通过标定相机和雷达的安装位置,并计算出两者之间的变换矩阵来实现这一目标。在实际操作中 采用 Coordinate Transformation 模块 以便更方便地完成上述转换过程 将雷达数据与摄像头数据转换至同一个坐标系中以确保后续处理的有效性

4.2 目标关联

基于距离的目标关联

  • 每个雷达探测到的目标都会被计算其与所有摄像头探测到的目标之间的欧氏距离,并选取最小的距离所对应的关联目标。
  • 当某个雷达探测到的目标未对应任何摄像头探测结果时,则需根据具体情况判断是否需要保留该目标;同样地,若某一个摄像头探测到的目标未对应任何雷达探测结果,则也需采取相应措施进行判断。

基于特征的目标关联

  • 除了依据距离实现的目标关联外,在目标特征信息(包括具体属性如类别标记、尺寸和形状等)的基础上也可以进行关联。
    例如,在检测到的车辆目标中,可以通过分类标签建立对应关系以提高匹配精度。

联合概率数据关联(JPDA)

  • 主要应用 Joint Probabilistic Data Association (JPDA) 算法来分析多体运动估计问题,在复杂的目标感知系统中,
  • 该算法能够有效地确定各传感器之间存在的关联概率,并在此基础上选择最可能的关联结果。

最近邻(NN)算法

采用 Nearest Neighbor (NN) 方法进行处理后,在给定的数据集中生成最邻近的结果集。该算法具有简洁高效的特点,并特别适合于对实时性有较高需求的情况。

4.3 融合结果生成

加权平均

  • 当每处理一组成功匹配的雷达与摄像头的目标对时,综合考虑这些传感器提供的数据,融合得到最终的结果。
  • 可以采用加权平均法,基于各传感器的置信度值,分配相应的权重系数.其中,由于雷达测得的距离与速度数据具有较高的准确性,因此其对应的权重系数也会相应提高;相反地,若使用来自摄像头的信息,其类别标签与置信度较低,则对应的权重系数也会相应降低.

最大似然估计

基于最大似然估计(MLE)的方法,并结合雷达与摄像头的检测数据,在最优可能的目标特性(包括位置、速度及类别等方面)上进行推导。
MLE 模型能够有效抑制噪声影响,并广泛应用于复杂的交通环境。


5. 仿真与测试
5.1 虚拟场景仿真

构建虚拟场景

  • 采用 Unreal Engine 4 和 Carla 等仿真平台搭建逼真的驾驶环境,并涵盖城市道路、高速公路和乡村道路等多种场景。
  • 在仿真环境中布置多辆车体,在不同情况下模仿前车的加速、减速和变道行为,并采集来自毫米波雷达和摄像头等传感器的数据。

导入仿真数据

  • 用于将仿真平台生成的所有传感器数据导入到Simulink模型中,并将其指定为该系统中的关键输入来源。
  • 利用仿真实验对Sensor Fusion System在多种工作状态下的性能表现进行评估,并重点关注其目标检测的准确性和鲁棒性。
5.2 硬件在环(HIL)测试

搭建HIL测试平台

采用Simulink Real-Time工具构建硬件在环(HIL)测试平台,并将其与融合感知系统通过集成真实毫米波雷达、摄像头等传感器模块进行数据对接。通过该平台实现闭环实时数据采集,并对系统的性能指标进行持续监测。

基于HIL仿真平台对感知器与控制系统间的交互机制进行了全面验证,并对系统的实时响应能力及可靠性水平进行了详细评估。

实车测试

  • 将传感器融合系统安装于实际车辆,并在其道路上运行一段时间以实施测试计划。
  • 在实车测试中实施监控措施,并持续监测系统的响应时间、目标检测准确率和跟车距离等关键参数。

6. 结果分析与优化
6.1 性能评估

目标检测精度

  • 分析传感器融合系统的多维度性能指标,在各类典型工作环境中验证其目标识别精确度。
  • 特别关注雨天、能见度极低以及强光环境下系统的性能特征,确保其在复杂气象条件下展现出稳定的抗干扰能力与可靠性。

目标跟踪稳定性

  • 分析传感器融合系统的动态场景下目标追踪稳定性
  • 使其持续关注前方的目标并减少误报与漏检情况
  • 特别关注多目标环境(例如多个车辆同时进入视野)中的系统性能
  • 使其准确识别不同类型的物体
    3.

实时性

考察传感器融合系统的实时性能,在确保其能在毫秒级别内高效完成数据处理与目标检测的同时,则可有效满足智能驾驶系统的实时性需求

6.2 参数优化

传感器权重调整

  • 根据仿真数据与实际测试的结果, 优化雷达与摄像头的参数设置, 使系统的检测精度更精确且更为稳定.
  • 如在晴朗天气条件下, 则建议优先提升摄像头的灵敏度; 而在多雾或暴雨等恶劣天气情况下, 则应侧重于增强雷达的数据采集能力.

目标关联算法优化

  • 基于系统运行效果的数据反馈机制改进目标关联算法,在提高检测精度和抗干扰能力的基础上实现更好的性能。
  • 例如,在引入更多相关属性(如\{size, shape\})进行关联的同时或通过采用更复杂的方法JPDA来处理多维数据场景时。

7. 总结

经过系统设计与实现工作后,我们完成了基于Simulink平台下的雷达与视觉传感器融合系统的构建。该系统实现了毫米波雷达测距数据与摄像头图像数据的有效融合,在提升目标检测精度的同时显著增强了抗干扰能力。这种创新性的解决方案广泛应用于智能交通、自动驾驶等前沿技术领域。通过虚拟场景仿真、硬件在环测试以及实际车辆运行环境下的综合验证,在确保系统性能的同时达到了高度可靠的运行状态,并通过参数优化进一步提升了系统的稳定性和实时性。

未来工作可以包括:

  • 多感官信息融合技术:通过集成多种先进传感器如激光雷达、超声波测距仪等信息采集设备,并结合实时数据处理算法,在此基础上实现了对复杂环境的精准感知与环境交互。
  • 协同管理机制:运用并行控制策略如车道保持辅助系统LKA来优化整体自动驾驶性能,并通过动态资源分配确保各子系统的高效协作。
  • 智能交互通信系统:采用车车通信(V2V)和车路通信(V2I)技术以确保系统协调性和安全性,并通过严格的安全防护措施保障信息传输的安全性与可靠性。

全部评论 (0)

还没有任何评论哟~