Segment-driven 6D Object Pose Estimation——自我总结
发布时间
阅读量:
阅读量
Segment-driven 6D Object Pose Estimation
实时跟踪物体的完整三维运动状态。该方法通过将输入分割为多个区域来实现对物体6自由度位姿的信息提取。考虑到全局匹配在处理大面积遮挡时较为敏感,具体实现方式是将每个可见区域与预先设定好的3D模型2D投影进行对应关系建立,并基于此进行3D-2D匹配计算。该算法不依赖于后端优化过程,并且能够直接输出所需的6自由度位姿信息。所用数据集包括Occluded-LINEMOD和YCB-Video两个场景

最近工作:
一般流程:从RGB图像中提取特征——>进行特征配准——>通过PnP方法进行三维重建
测量距离的手段:基于形状相似度的Hausdorff距离、倒角法用于形状对比分析
具体手段详解(简称:二流网络框架):

encoder(编码器):采用YOLOv3中的Darknet-53网络结构进行目标检测,在该模块中对传统的5个下采样层进行了优化缩减为2个,并保持了步长一致; decoder(解码器):第二阶段特征图的基础上展开处理; first stream(第一分割流):针对虚拟单元体实施分类标记(如图a所示),计算得到各空间位置的中心损失函数值作为二流输出的基础; 同时对模型预测出来的关键点坐标信息进行聚类处理以提升定位精度

第二流(回归流):基于预设3D模型的关键点在2D空间中的投影预测其位置,在图像处理中通常采用标准8顶点作为包围框。该方法通过最小化2D位置偏差进行估计(见图b)。实验阶段选择了10个最优特征进行匹配

损失函数


计算总损失:

总图:

代码链接:
代码
全部评论 (0)
还没有任何评论哟~
