Advertisement

Just Go with the Flow: Self-Supervised Scene Flow Estimation[CVPR2020 Oral]

阅读量:
在这里插入图片描述

[论文链接]

\qquad现有的场景流估计方法依赖于标注数据来通过监督学习进行训练。本文作者提出了一种通过两个自监督损失函数进行场景流估计的网络训练方法。这两个损失函数分别基于最近邻和cycle consistency(循环一致性约束)。通过自监督学习方法,在自动驾驶领域即使没有标注信息的数据也能用于有效地进行网络训练。采用本文提出的方法进行自 supervision 学习所得出的模型,在性能上与现有采用最佳 监督 学习技术获得的结果相当。若采用结合自 监督 与少量 标注 数据相结合的学习策略,则可获得超越现有最佳方案的结果。

\qquad假设估计的目标数据集为\hat{\mathcal{D}}=\{\hat{d_i}\}^N,而真实目标数据集为\mathcal{D}^*=\{d_i^*\}^N。我们定义监督损失函数为:
\mathcal{L}_{gt}= \frac{1}{N} \sum_{i=1}^{N}{||d_i^*-\hat{d}_i||^2}
该损失函数在理论上等价于终点误差,并被广泛应用于评估度量指标。在合成数据集上进行标注处理较为便捷,但现实场景中获取高质量标注数据的成本较高。此外,在具备标注的数据集中训练模型的效果通常有限。现有研究表明,在使用合成数据进行模型训练后,在目标应用域的真实数据上进行微调可以获得显著提升

在这里插入图片描述

\qquad接下来介绍一下文章提出的两个无监督的loss,假设\mathcal{X}为在时刻t捕捉到的点云,\mathcal{Y}为在时刻t+1捕捉到的点云,\mathcal{D}=\{d_i\}^N,d_i\in \mathbb{R}^3为两帧点云之间的场景流。
\qquadNearest Neighbor (NN) Loss 在未标注的数据集中,并没有关于d_i^*的信息,因此也不能使用上面提到的损失函数。受到ICP算法的启发,这里用变形后点的最近邻\hat{x}'_i=x_i+\hat{d}_i作为正确对应点的近似。对于每个变形后的点\hat{x}'_i\in \hat{\mathcal{X}'},在t+1帧中找到它的最近邻y_i\in \mathcal{Y}并计算他们之间的距离,如下图(a)e_{NN}所示:
\mathcal{L}_{NN}=\frac{1}{N}\sum_{i}^{N}\underset{y_i\in \mathcal{Y}}{min}||\hat{x}'_i-y_i||^2

在这里插入图片描述

该损失可以使变形后的点云与目标点云更为接近。但也存在一些不足之处,在某些情况下无法有效解决这些问题。如上图(a)所示,在寻找最近邻时并不一定能够找到正确的对应关系;再者,在数据稀疏的情况下匹配效果会受到限制。这些情况可能导致循环一致性损失值为零(即无约束条件)。因此提出了另一种改进型损失函数——Anchored Cycle Consistency Loss(锚定循环一致性损失)。为了实现这一改进思路,在计算循环一致性损失的基础上引入了一个锚定机制:在反向传播过程中使用最近邻作为参考依据。具体而言,在计算反向传播梯度时将最近邻视为固定不变的目标点(如上图(b)所示)。通过这种方式不仅能够提高循环一致性损失的有效性还能更好地维持数据间的对应关系。经过实验验证该改进方法显著提升了模型性能(见图)。

在这里插入图片描述

\qquad具体反向流计算步骤如下:
\qquad(1) 首先随后计算前向流\hat{\mathcal{D}}=g(\mathcal{X},\mathcal{Y});
\qquad(2) 基于前向流计算变形后的点云位置:对于每个样本i,其坐标更新为\hat{x}'_i=x_i+\hat{d}_i;
\qquad(3) 将锚点定义为变形后的点与原始点最近邻的位置:即锚定点集合\bar{\mathcal{X'}}=\{\bar{x}'_i\}^N满足\bar{x}'_i=\lambda \hat{x}'_i+(1-\lambda)y_i(其中\lambda=0.5取自论文);
\qquad(4) 在获得锚定点集后进行反向流计算,并采用上述方法求解cycle loss;
\qquad值得注意的是,在常规cycle consistency loss中可能出现零损失的情况。然而通过引入锚定式cycle consistency loss能够有效避免这种情况的发生。为了平衡两种loss的影响,在最终误差计算中将其相加作为总误差函数:即\mathcal{L}=\mathcal{L}_{NN}+\mathcal{L}_{cycle}
此外作者还采用了翻转训练集的方法增强数据多样性。

全部评论 (0)

还没有任何评论哟~