Arxiv论文速览--LAformer: Trajectory Prediction for Autonomous Driving with Lane-Aware Scene Constraints
LAformer: 基于车道感知场景约束的自主驾驶的轨迹预测
原文连接:
该算法基于场景导向的方法用于实现自动驾驶车辆的运动轨迹预测,在满足车道约束条件下展现出良好的性能特征。(https://arxiv.org/abs/2302.13933 "LAformer: Motion Trajectory Prediction for Autonomous Driving with Lane-Aware Scene Constraints"))
目录
LAformer: 基于车道感知场景约束的自主驾驶的轨迹预测
研究问题
研究背景
解决方案
第一阶段:多模态轨迹预测:
第二阶段:运动细化模块:
研究问题
在早期的研究者们发现,在栅格化地图数据的基础上开发的Trajectron++**、Agentformer等方法均存在一个共同的局限性:这些方法虽然能够有效提取运动轨迹与场景信息,但在初始阶段却无法有效地利用其蕴含的空间与时间信息来进行后续分析。
栅格化地图依赖于充足的接收传感器和较高的运算开销以感知环境信息;在复杂交叉路口难以精确捕捉道路结构特征,这将导致解码器输出偏离预期路径。
采用高斯混合密度策略可以建立一个PDF模型来描述模式分布的过程吗?然而,在仅使用单一GT作为监督信号的情况下,该方法可能会导致模型退化现象。因此,在本文中我们采用了拉普拉斯混合密度的赢家取所有策略以解决这一问题。
为生车多模态轨迹,使用集成或非最大抑制的方法会增加耗时;
研究背景
VectorNet通过一种创新的方法实现了对轨迹与HDmap地图数据的统一表示,并使得基于HDmap的地图单元与其对应的移动轨迹及其所在的车道段能够被同一个编码器统一处理并融合到同一个特征空间中。
空间密集****的方法如果初始步骤不准确,可能导致符合预测错误;
time-sensitive systems aim to estimate the vehicle's motion state at each time step with alignment to the lane position. When the motion state and lane segment vary over time, the decoder can improve its predictions accordingly.

基于时空密集度设计的一个车道感知估计模块分阶段地评估与运动动态一致的可能性其核心在于逐步筛选出与当前场景相匹配的道路片段作为后续解码的基础
解决方案
本文提出****时间密集型模型LAformer

采用矢量轨迹和高清地图车道段作为输入。通过hi和cj分别表示代理人的运动状态及场景编码。其融合过程依赖于基于注意力机制的全局交互网络。解码器接收三个关键输入:过去的行为轨迹hi、经过 laneaware 估计模块筛选后的候选车道序列及其更新信息(用 hi,att 表示),以及随机潜变量 z。这些输入经过解码器处理后生成未来行为轨迹 Yˆi。细化模块通过减少预测偏差 ∆Y 的优化作用来提升整体预测精度。
第一阶段:多模态轨迹预测:
GIG通过获取车道信息以及目标代理运动特征(包括速度与方向),来训练二元分类器,并逐步筛选出合适的车道路径。
该模型能够输出符合场景的多模态轨迹预测,并且仅与预设的关键车道保持关联关系,在抑制无关车道的影响方面具有显著优势。
输入:
- 1. 历史行为轨迹Xi*被定义为在过去t个时间步骤中的行为向量表示。
- 2. 将车道中心线划分为预定义片段以便捕获细粒度的车道信息及推断代理人意图。
- 3. 此外通过将所有向量坐标标准化计算以目标代理最后观察位置为中心的方法**保证输入特征不受代理位置的影响。
智能体运动和场景编码**:**
全局交互图编码智能体运动和场景信息;
使用MLP和GRU以顺序方式处理轨迹向量Ai和车道向量****Ci
输出:
轨迹hi,车道段cj;
通过对称的交叉注意机制对hi,ci操作如下:

GIG****通过自注意和跳过连接(skip-connection)学习智能体间交互作用;

时间密集的车道感知估计:
K,V表示智能体运动编码hi****的线性投影;
Q表示车道编码cj****的线性投影;
计算预测分数:

选择前k个车道段和前k个最高得分作为候选车道
随后将目标车辆过去轨迹编码为hi,并将其用作查询;随后将编码C分配给K和V;生成与车道状态相符的新运动数据;并输出hi,att

通过欧式距离评估预测轨迹与GT的差距
多模态条件解码器
输入:历史轨迹hi &候选道路信息hi,att
**输出:**轨迹集合;
- 1. 多层感知机(MLP):用于预测轨迹集合
- 2. Gated Recurrent Unit(GRU):用于恢复时间维度的预测
- 3. 双侧并置多层感知机(TWO-SIDE-BY-SIDE MLP):用于同时预测位置和尺度参数
损失函数:
1.回归损失**—**赢者通吃

2.分类损失**—**交叉熵损失用于优化模式分类

第一阶段损失:

Lambda1 控制Llane的相对重要性
第二阶段:运动细化模块:

以第一阶段预测所得的轨迹作为基准替代非基于预定义锚点的方法(Multipath),随后将测得的路径与预期路径视为输入数据,并持续缩减偏差
运动细化:通过深入挖掘时间一致性来预测更为精确的未来轨迹(转向角, 轨迹)**
为了减少GT与预测轨迹的偏移
输入:完整的轨迹 & 通过时间编码器提取运动编码hi’
输出:
1.优化预测轨迹:

2.学习转向角:

第二阶段损失:

效果
Dataset**:nuScenes,**Argoverse
不但在直行时具有精准预测,在复杂交叉路口场景也具有精准预测

与Argoverse,NuScenes SOTA方法对比均取得较好效果

Argoverse

NuScenes
