MVX-Net: Multimodal VoxelNet for 3D Object Detection
发布时间
阅读量:
阅读量
问题以及创新点
同样是在VoxelNet的基础上做了进一步改进
问题
- 直接3D点云的方法,对资源要求比较高
- RGB图像具有更丰富的特征,但在预测深度等存在精度较差的问题
- 当前融合的方法,多是在后期融合,是得场景融合收到限制
创新点
- 融合RGB以及点云进行综合的检测
- 在网络早期进行特征融合
网络架构
整个网络走了两个不同的pipeline,一部分通过Faster-RCNN提取RGB特征信息,另一方面通过VoxelNet提取3D点云特征。并且提出了两种点云融合的方法,PointFusion以及VoxelFusion。
PointFusion

PointFusion 针对voxel中每个点进行特征融合,在原始每个点7维特征(x_i,y_i,z_i,r_i,x_i-v_x,y_i-v_y,z_i-v_z)的基础上添加了16来自RGB的特征信息。这种方法使得原始的点云包含了更丰富的RGB特征,但同样由于每个点特征的增加是得后续VFE特征提取阶段需要更多的计算资源。
VoxelFusion

相比于PointFusion,VoxelFusion的融合阶段不再是针对每个voxel中的点,而是针对VFE层提取的每个voxel的整体特征上。这在一定程度上减少了计算资源。
实验结果

KITTI Val set

实验中可以看到,在3Ddetection部分相比基础baseline VoxelNet提升还是比较显著的,而基于PointNet为每个点赋予了更丰富的RGB信息,结果提升还是比较明显
KITTI Test

全部评论 (0)
还没有任何评论哟~

