全景/鱼眼相机低速自动驾驶の近距离感知
cameras在自动驾驶系统中扮演着关键角色。它们能够提供高密度的信息,并专为与人类视觉感知相适应的道路基础设施设计。全景相机系统通常配置有四个鱼眼摄像头;这些镜头覆盖了车辆周围几乎整个360度的视野范围,并且是实现低速、高精度和近距离传感技术的主要手段。例如自动泊车、缓解交通拥堵辅助以及低速紧急制动等场景。在这项研究中论文对这种视觉系统进行了深入研究,并将其分解为识别、重建、重新定位和重组四个模块组件;被称为4R架构。论文详细探讨了每个模块的功能,并论证了其协同作用的可能性;从而形成了一套完整的低速自动化感知系统
本文的工作部分受到了Malik等人在文献[5]中工作的启发。这项工作的作者指出,在文献[5]中提到的核心问题在于实现对象重建、图像识别以及数据重组的基础上提出了计算机视觉的3R理论框架。论文进一步发展出专属于自动驾驶领域的4R技术框架:实现对象重建、图像识别、数据重组与位置重新定位。
通过分析视频序列来推演场景中的物体结构, 包括车辆在场中的位置关系。其重要性不言而喻, 因为这些任务对其实现具有重要意义。随后研究者拓展了这一概念, 以考虑反射与照明等因素, 将之应用于更为广泛的领域中去。然而, 在自动驾驶领域的计算机视觉应用中并不具备显著价值(至少当前阶段)。鉴于此,《论文》将重建行为定义为纯粹基于三维空间的结构恢复过程
识别作为一个术语被用来为视频图像或场景的各个部分分配语义标签。识别涉及将这些元素组织起来形成一个层次结构体系。例如运动员作为一个具有空间层次结构的例子他能够被划分为自行车和骑手的不同部分而车辆类别则会根据其功能分为汽车卡车和自行车等多种分类子类别这些细分都与自动驾驶技术相关联因此这种层级关系将继续存在下去。此外灯光系统也可以按照不同的属性来进行分类首先是按照类型划分如车灯路灯和刹车灯等其次是根据颜色划分如红色黄色和绿色最后则是基于其在自动驾驶系统中的作用是否需要实时响应以及是否有必要忽略其特性来进行高级推理工作。
重新定位旨在实现车辆相对于周围环境的位置检测与精确定位。该技术能够基于宿主车辆预先记录的行驶轨迹进行应用,例如,在经过训练的停车场环境中使用;同时也能基于从基础设施传输的地图数据源进行操作,例如HD Maps。这种定位技术与SLAM算法中的环路闭合高度计算有关联性,并非仅局限于解决环路闭合问题这一单一挑战,而是涵盖了通过一个或多个预定义地图实现车辆定位更为广泛的场景。
整合是将计算机视觉前三个核心要素的信息汇合成统一表达的方式。在本文中被等价地称为'后期融合'这一概念,在自动驾驶领域具有重要意义。这是因为传感器输出的一致性对于车辆控制至关重要,并且这使得对多个摄像头数据的后期融合成为可能。

近域感知系统介绍
自动停车系统
自动停车系统是短距离传感的重要应用案例之一,在图4中展示了多个典型的场景实例。早期商业半自动泊车技术主要依赖超声波传感器或雷达(Radar)进行操作。然而,在最近的发展中,全景摄像头已成为自动停车的重要传感器之一。超声波和毫米波雷达在自动停车中的主要局限在于它们仅能基于现有的障碍物来判断停车位是否合适(图5)。此外,在存在可辨别的停车标记(如施加涂层的线条)的情况下,环视相机系统则允许在这些条件下实现泊车,并被视为实现代客泊车系统的关键技术。

交通拥堵辅助系统
大多数事故多为低速追尾相撞,在当前驾驶技术中这一现象被认为是一个短期内可能带来好处的关键领域之一。尽管从短期来看它可能带来好处但系统的鲁棒性有待提升。在自动交通拥堵辅助系统中车辆能够在复杂路况下实现精准定位(图6)。该功能通常应用于低速环境其最大速度限制在60公里/小时但建议采用较低的速度上限40公里/小时以确保行车安全。然而,在城市交通中这一技术仍需探索因为其特殊的使用场景对视觉感知能力要求更高。基于此特点全景摄像头成为理想的选择尤其是在狭窄的城市道路环境中行人可以在传统前向摄像头或radar系统视野之外的区域安全穿过而无需依赖传统的视角限制。此外深度估计与SLAM等技术特征对于准确识别障碍物并维持车辆稳定行驶同样不可或缺(图7)。

低速制动
一项研究显示表明,在安装有倒车雷达、驻车辅助系统及自动刹车功能的汽车中发生碰撞的数量下降了78%。此外,在低速刹车场景下使用全景摄像头效果显著得益于深度计算与目标识别技术的有效结合。
鱼眼相机
鱼眼相机在自动驾驶领域展现了显著的优势,在其超广角的特点使得仅配备少量摄像头即可实现对周围环境的全面感知。通常情况下,在360度范围内布置四台摄像头即可实现无死角监控。但这也带来了技术上的挑战和较高的成本。已有研究综述了构建鱼眼几何模型的方法论[34]。
在标准视场相机中,直线投影与透视的原理极为相近,并具有的典型透视特征即现实世界中的直线在图像平面内呈现为直线。平行线组被映射为一组线条,在图像平面内汇聚于一个消失点;这些线条组分别对应于平行线群的实际走向方向。由于存在光学畸变的影响相对容易修正的特点,在许多应用场合下其处理方式较为简单可靠。然而,在实际应用中存在其他复杂因素的影响:例如,在本例中左侧车辆相对于右侧车辆旋转了近90度(相对于右侧车辆而言),这将直接影响目标检测卷积方法所依赖的前提条件——平移不变性这一假设是否成立:在标准相机配置下该假设是合理的;但在鱼眼成像系统中这一前提条件不再适用:如图8所示,在任何计算机视觉算法设计过程中必须充分考虑这一特殊现象的具体处理方式:

自然地解决这些问题的方法是通过某种方式进行图像校正。由于首先存在过多视野带来的损失问题以及插值和透视伪影的影响,在处理单个平面时难以保持鱼眼图像的独特优势。另一种常用的方法是采用多平面校正技术,在这种情况下,每个鱼眼图像的部分被扭曲成不同的平面。例如可以通过定义一个立方体并将其表面与鱼眼图像对应部分相匹配来实现扭曲效果。图9展示了这些变形区域的具体形态变化情况。即便如此,在处理这些复杂变形时仍然需要考虑插值和透视伪影的影响。

另外一种校正策略是,在对圆柱表面进行warping处理时(如图10所示),将圆柱轴线被配置为与地面垂直。通过观察分析可知,在汽车场景中,大部分关注点集中在接近水平面的位置上(即路面上)。基于此需求设计者提出了两种解决方案:第一种方案侧重于保持水平视角并兼顾实际应用需求;第二种方案则适当降低了对垂直视角的关注度以优化整体效果

垂直经由线性透视投影实现,在图像中垂直线被投影为垂直线条。远处或较小的物体呈现出与透视线相机相似的效果。
有人提出建议:利用这种变形原理使这些工具能够直接应用而不必经过额外的训练步骤[39]。
然而,在水平方向上呈现了失真现象:远处较大的物体往往呈现出更为显著的变形,
其变形程度往往超过传统鱼眼成像的效果。
如图所示,在处理透视相机时(当物体与相机之间的Z轴距离保持恒定时),就会发生一次平移变换(即,在与图像平面平行的平面内)。然而,在圆柱面成像系统中(在同一水平面内移动的距离必须保持一致才能实现像素间的等距变换)。相比之下,在传统的鱼眼相机系统中(对于这种情况而言),尚不清楚任何特定类型的运动会导致像素间的等距变化。

WoodScape dataset
该全景数据集在两个不同的地理区域获取了样本:美国与欧洲。值得注意的是,在传统意义上的乘用车中占据了主导地位的数据样本;而在运动型多用途车型中发现的大批样本则展示了复杂的机械布局。研究者将这些驾驶行为被划分为高速公路上的速度测试、城市道路的随机行驶以及停车场的操作示范,并对这些场景进行了详细记录。本研究对所有传感器及其相关的时间戳文件进行了内外标定处理
四倍的彩色鱼眼摄像头具备广角视场。
单片高速激光雷达采用20Hz旋转扫描技术(Velodyne HDL-64E)。
全球导航卫星系统与惯性测量装置结合使用(NovAtel Propak6和SPAN-IGM-A1)。
带有高精度动态定位芯片的GNSS定位方案采用Garmin 18系列芯片。
车辆总线上传输的里程数据为后续分析提供重要依据。

系统架构注意事项
在自动驾驶领域的计算机视觉系统设计中,在pipelines模块的设计过程中,嵌入式系统所面临的约束条件是一个关键考量。其中包含多个摄像头以及多种并行运行的计算机视觉算法。由于计算密集型的任务通常需要大量的计算资源,在自动驾驶汽车中的计算机视觉算法自然也不例外。汽车SoC配备了多组专用硬件加速器来执行图像信号处理、镜头畸变校正、密集光流计算以及立体视差估计等任务。深度学习技术主导了许多典型的识别任务,在几何分析方面也展现出越来越重要的应用潜力,并被广泛应用于深度估计和运动分析等几何任务。

为了尽可能提升硬件的处理性能,在设计时最好能够从各个具体实现环节入手充分应用嵌入式视觉技术,并且在每个具体环节都采取共享资源的优化策略以进一步提升效率。其中如图12所示的流水线架构就是这一优化方案的一个典型实例。
预处理阶段可被视为将图像信号准备好供计算机视觉系统使用的过程。其中涉及一系列图像信号处理(ISP)步骤如白平衡、降噪、色彩平衡与色彩空间转换等具体讨论可参考文献[52].其中许多运算由专用硬件引擎执行例如作为SoC的核心组件之一通常不采用软件实现因为计算复杂度较高研究者们正探索通过自动优化超参数来提升性能旨在提升计算机视觉算法性能的问题目前还在探讨简化这些流程的可能性
像素处理阶段:像素处理属于计算机视觉体系结构中直接作用于图像的关键环节之一。经典的计算机视觉方法涵盖了边缘检测、特征提取、描述符生成以及形态学运算等多种技术手段;而在神经网络领域中,则对应于卷积神经网络(CNN)编码器中的初步几层结构;这一阶段的核心在于使用相对简单的算法进行操作;这些算法需要持续不断地对数百万像素进行快速扫描,并且必须反复运行数千次以满足实时性要求;计算成本因此与其运行效率密切相关;这一阶段的主要硬件实现依赖于专用集成电路(如GPU)以及加速处理器的支持;尽管如此,在某些特定场景下仍有一些计算资源更适合采用数字信号处理器(DSP)进行优化处理。
中间处理阶段:简而言之, 中间处理阶段作为从像素级到目标检测的过渡环节, 所涉及的数据量依然较大, 相比像素级处理阶段而言, 数值上则显著减少. 具体来说, 则会涉及利用视觉里程表估计车辆运动状态, 基于视差图进行立体三角测量以及重建场景的基本特征等多个方面. 在该流程中的这一环节, 则会采用CNN解码器来进行数据解析. 这个过程所使用的硬件设备通常都是数字信号处理器
4) 目标处理环节:在这一环节中进行的对象处理主要是整合更高层次推理的结果。在此环节中可以通过聚类点云数据来创建具体的目标实例,并将这些对象进行分类识别。基于上述推理过程的应用,则可以进一步应用特定算法抑制移动目标在不同尺度下的再缩放行为。这一环节的主要运算由更为复杂的算法系统负责执行,而所涉及的数据量相对较少。从硬件架构的角度来看,在ARM系列通用处理器上运行更为经济实用,在实际应用中也常采用数字信号处理器作为补充方案
5) 后处理过程:最后一个主要的后处理阶段也可视为全局性处理环节,在时间和空间维度上实现数据持久化。由于支持长时间持续性和大规模的空间映射能力,前面各阶段的主要目标是降低到达这一环节的数据量,并确保所有用于车辆控制系统的关键信息得以保留。在此期间将执行一系列任务包括bundle adjustment的地图构建高级目标跟踪与预测以及多种计算机视觉输入的整合工作这些步骤均属于这一核心环节的一部分。考虑到系统中的推理层次处于较高水平并仅涉及最小的数据集从而通常配备有通用型数据处理器。
4R部件介绍
识别
通过模式识别技术对场景语义进行识别属于该任务的核心内容。在汽车领域中首个取得突破性进展的应用便是行人检测系统,在其开发过程中融合了多项手工设计特征(如定向梯度直方图)以及先进的人工智能分类方法(如支持向量机)。近年来,在多个计算机视觉子领域中(如目标识别),卷积神经网络(CNN)展现出了显著的进步。然而这一进步并非没有代价:鉴于汽车应用场景极为多样化,在不同地理环境、气候条件以及光照条件下运行该系统预期将面临巨大挑战。其中一个主要的技术挑战在于构建一个涵盖各种复杂情况的有效数据集;与基于传统处理器的传统机器学习方法相比,卷积神经网络具有更高的计算密集型特点;为了确保系统的整体性能提升,则必须开发出一套行之有效的设计策略;而在此之外还需要特别关注的是鱼眼图像中的平移不变性问题,在这一问题上现有研究已经取得了一定成果但仍然存在诸多技术难题需进一步探索
本文开发了一种基于外观特征的多任务深度学习网络用于图像处理领域中的物体识别问题。该网络包含三个主要的任务:分别是目标检测(行人、车辆和其他类型的人)、语义分割的任务涉及道路区域、路边标线以及与道路相关的标记信息,并且还包括透镜污染分类的任务分为全透镜污染、部分透镜污染以及无透镜污染三种类型。其中的目标检测与语义分割属于常规指标,在FisheyeMultiNet论文中可获得详细的技术实现方案。其中的关键挑战在于在模型训练过程中如何均衡分配各任务的重要性权重以确保整体性能达到最佳状态
鱼眼摄像头被设置于车辆上相对较低的高度(约地面以上0.5至1.2米),容易受到其他车辆行驶时产生的道路喷雾或路面积水的影响而导致镜头受污。因此,在摄像头表面发现污垢变得至关重要,并会通过提醒驾驶员清洁摄像头或启动清洁系统来预防这种情况的发生。SoilingNet深入探讨了污垢检测任务及其在清洁系统和算法性能优化中的应用;与此直接相关的另一个任务是通过修复修复被污染区域的技术来去除污垢(但目前这些去污技术仍局限于视觉优化领域而非感知应用)。这是一个定义模糊的问题因为它无法预测遮挡物背后的情况(尽管借助时间信息可能会有所帮助)。由于低功耗汽车ECU的计算能力有限本文采用了多任务架构其中大部分计算资源在编码器中共享(如图13所示)。

重建
如所述,在视频序列的基础上进行场景几何体的重建。具体而言,在构建深度估计算法的过程中[74]中简要概述了人类如何推断深度,并提供了有用的进一步参考。推断深度主要包含以下四种基本方法:单目视觉线索、运动视差、立体视觉和焦点深度。每种方法在计算机视觉方面都有其独特的优势与应用范围:基于Marr&Poggio等人的早期理论工作[75]提出了立体视觉系统的初步实现框架[76]。尽管如此,在实际应用中由于技术限制与成本考量[78][79]的原因,立体视觉系统并未普遍应用于汽车部署领域。然而,在汽车研究领域中仍具有广泛的应用价值。传统的计算深度估计方法主要依赖于特征三角剖分完成[78]。然而,在随后的研究中发现运动立体方案同样具有可行性与应用潜力【
考虑鱼眼图像会增加三维重建任务的复杂度,在多视图几何与立体视觉领域中,默认情况下人们往往假定场景呈现平面透视特性[82]。传统的立体视觉方法还要求极线必须水平这一特性[83];然而由于镜头畸变的存在这一假定难以实现;为此学者们提出了一系列基于非平面校正的方法以解决这一问题[84];尽管如此非平面校正仍然无法有效消除重投影失真[85];针对这一问题的方法已在文献中有所报道[86];然而现有解决方案均存在明显的缺陷:一方面它们难以有效平衡畸变校正与几何精度之间的关系另一方面重投影误差依然难以得到充分抑制[87];
从视频序列中提取运动对象(即进行运动分割)是三维重建过程中的第二个关键环节。当三角剖分失效时,在动态场景下实现三维重建会导致整体上的定位不够精确。要构建运动物体的几何模型通常需要依次完成图像中的运动分割、相对基本矩阵估计以及最终的三维重建(其中存在比例或投影模糊的问题)。例如,在Multi-X[88]的研究框架下结合前两步技术是可以实现的——这是因为可以通过先进行基本矩阵估计来指导后续的分割过程。然而,在嵌入式自动驾驶系统中这种方法要么面临较高的计算开销无法满足实时性要求 要么稳定性不足难以应对复杂环境的变化需求此外为了完成这一任务必须有效解决尺度缩放问题 不同形变物体(如行人)可以在身体不同部位应用各自的基本矩阵从而使得动态目标检测的核心工作简化为完成图像中的运动分割任务
Klappstein等人的研究在汽车场景中提出了基于几何的方法,并在此基础上扩展了研究至环视摄像头的外壳。然而,在这两种情况下,相应的几何图形无法彻底地区分所有类型的运动特征。即存在一类物体的运动使得其关联特性和静态特性能相互混淆。因此必须采用全局或半局域的方法进行处理。在传统方法中具体而言,传统方法是通过将具有类似于运动光流向量特性的光线方向量进行分组来实现这一目标的。
一般情况下, 运动分割的重要输入是关于摄像机运动的知识, 即需要知道相机的基本矩阵(或未校准情况下的基本矩阵)。参考文献[89]与[90]均基于这一前提, 并提供了两种实现方案: 首先, 可以直接利用车辆网络中的信息, 包括转向角与车轮转速等参数, 来估算车辆自身的运动会进而推断出摄像机的姿态; 或者也可以采用视觉手段从图像序列中推断出物体的运动会. 此外, 另一种途径是建立背景模型来分析. 其中一种建议是采用仿射模型来描述背景 motion这一假设认为背景平面远离观察者且径向变形可忽略. 图14展示了多个重建阶段的具体实例, 包括密集 motion 立体结构、三维点云以及静态障碍物集群等. 此外, 基于密集光流的方法也被广泛应用于 motion segmentation 的研究. 尽管鱼眼成像的应用会对系统性能产生一定影响但从理论层面而言这一问题仍需进一步探索.

重定位
视觉同步定位与映射技术(VSLAM)属于机器人技术和自动驾驶领域的研究热点之一。其主要包含三种不同的方法:第一类基于图像特征的方法;第二类直接应用于整个图像区域的SLAM技术;第三类则基于卷积神经网络的深度学习方案。第一类方法通过提取描述子来进行目标追踪并估算深度信息;而第二类直接针对图像区域进行处理以生成稠密地图的技术则更为常见。其中最具有代表性的算法包括单目SLAM、并行Tracking and Mapping以及ORB-based SLAM等创新方案。第三类基于卷积神经网络的方法虽然在某些特定场景下展现出不错的效果但整体而言仍处于较为初步的研究阶段具体可参考文献[101]中的详细分析
mapping是自动驾驶的重要组成部分之一
在自动驾驶视觉环境中,视觉SLAM(VSLAM)主要涉及绘制车辆周围环境的地图,并在此地图中估算车辆的当前位置。其中一项关键任务是利用之前记录的车辆定位轨迹。图15展示了基于特征的经典重定位流程。通过追踪技术可以确定这些地标的位置。第一步是识别出具有显著特性的区域。图像中的显著特征通常表现为特定的像素区域,在这种情况下其亮度变化遵循特定的空间模式。随后对这些关键点进行计算处理即可确定它们在真实世界中的坐标和姿态位置关系。随后将这些关键点存储起来作为参考数据以便后续定位使用。当车辆返回相同的一般位置时系统会自动调用实时检测功能与存储数据对比从而恢复当前的姿态信息

重组
重组执行三个核心功能:1)实现识别与重建功能模块;2)利用相机将目标信息转换为世界坐标系中的数据;3)完成时空物体跟踪任务。值得注意的是,在视觉层面直接感知的目标信息可以直接输入到环境图中;但我们认为,在视觉层面进行融合整合具有显著优势。为了更好地理解这一优势,请考虑以下示例:如图16所示,在一个包含单目深度估计、运动分割与车辆检测系统的场景中,默认情况下各传感器数据如何处理?经典方法是将各传感器数据统一至同一坐标系进行关联与整合;这种方法具有显著优势:它能够有效提升系统的感知精度与可靠性。值得注意的是,在转换为欧氏空间图时,默认情况下基于相机检测的数据精度可能会受到影响;此外还需指出的是:图像域到世界域的映射存在多种潜在误差来源(包括但不限于校准不准、平面假设偏差、检测变化及像素密度分布不均等)。对于那些不在实际接触地面的关键点位置而言;这种基于平面假设的地图构建方式可能导致较大的定位误差。

然而,在向世界投影之前,在图像域中进行检测时并不会受到此类错误的影响。这些视觉算法间的检测关联更加稳定,并且实际上发现简单的重叠机制往往表现出良好的稳定性。图18展示了基于CNN实现车辆检测与基于光流进行运动分割后基于图像进行融合的技术实现情况——尽管运动分割在精度上仍有提升空间,在融合过程中仍能有效地将目标分类为车辆或动态物体(如图19所示)。传统的融合与跟踪技术大多假设测量噪声服从高斯分布(即零均值假设)。但在计算机视觉领域中对感兴趣点进行测量时(如提取图像特征或确定边界框位置),这种假设通常是合理的——除非考虑了鱼眼畸变及其对测量噪声的影响(如图19所示)。此外,在考虑鱼眼畸变及其对测量噪声的影响时

系统同步协同
本节将深入探讨系统协同效应及其影响因素,在此基础上系统地分析重定位、重建与识别任务之间的相互促进作用,并重点阐述双检测源在保障安全关键应用中的冗余机制作用及其重要性。
识别和重建
如

当行人检测技术达到最先进水平时,在进行语义分割与实例分割之前(即在此过程中),大多数专注于汽车行人检测的研究人员都会考虑边界框高度或行人在图像垂直位置所对应的编码信息。


重定位和识别
重定位过程是指车辆识别系统预先学习确定的位置或路径,在此基础之上进行后续的操作与计算。然而,在实际应用中的自动驾驶视觉系统中会遇到诸多干扰因素。例如,在场景的学习与重新定位阶段之间的时间段内(即场景学习完成之后至请求重定位开始之前),停放在路边的车辆可能发生移动。这种情况下,则可以通过语义分割技术来识别处于运动状态的对象(包括车辆、自行车和行人),并相应地删除与其相关的映射特征信息。参考文献[101]对此进行了详细阐述:借助深度学习技术的支持和优化传统视觉SLAM流程将能够进一步提升系统的性能与效率。

地点识别在Visual SLAM中有多个应用实例。首先,在同一场景中进行多次处理时会生成和维护地图。其次,在循环闭合过程中能够纠正累积漂移现象。尽管这些方法可能不够稳健。经过改进后的方法显示出了更好的稳定性,并且外观不变的方法在实验中表现出了令人鼓舞的初期效果[129]。此外,在特定时间点进行位置识别同样是一项关键任务。实验数据显示,在训练与定位之间相隔六个月的情况下出现的位置识别错误率显著上升。最后,请注意视图不变定位策略的应用情况:当重定位后的camera视点与训练时的角度差异较大时需要特别注意;例如由于车辆旋转而导致的问题传统基于特征描述符的方法难以应对此类情况。研究表明附加语义标签到场景地标(通过bounding box分类)能够显著提升这种定位策略的效果

重定位和重建
重定位与视觉SLAM常被视为场景重建(即构建地图)的过程,并借助Bundle Adjustment对这一地图进行逐步优化(见图15)。从而使得重建与视觉里程表构成了Visual SLAM的传统基础。存在一些直接的方法能够 bypass这一基础,并通过不同的优化策略实现更好的效果。例如LSD-SLAM及其适用于全向相机的扩展版本[100]中,在优化过程中将光度误差与重投影误差进行权衡。然而如果考虑Bundle Adjustment在时间切片上的应用,则可以看出 Visual SLAM 可用于优化场景结构与视觉里程计。此外动态目标的存在会严重影响基于此的技术。因此动态对象检测技术(如文献中的方法)可作为Visual SLAM管道的基础模块来减少由于运动物体引入的异常数据。
讨论下冗余
还有一个关键考量是冗余。在自动驾驶汽车领域中,在系统组件出现故障时必须配备备用组件以确保车辆安全运行至关重要。例如,FuseModNet展示了如何协调利用具有密集信息能力的相机与能够在低光照条件下有效工作的激光雷达技术以提升感知效果。在传感技术方面,这通常采用多种传感器组合来实现,具体包括计算机视觉系统、radar技术和激光雷达设备等,其中激光雷达因其高精度而成为主要应用之一。对于近场感知,超声波传感器阵列作为一种成熟且经济实惠的技术解决方案可在车辆周围提供强大的防护能力。

研究表明,在采用不同计算机视觉算法类型的同时进行并行处理时
