Advertisement

论文笔记:1st Place Solutions for OpenImage2019 - Object Detection and Instance Segmentation

阅读量:

这篇是一篇最新的文章,在简介中就让我产生了兴趣:文中所阐述的核心观点与唐师兄的观点高度契合。文章提及的关键技术与我之前掌握的知识存在诸多相似之处。
从内容来看这篇文章似乎是专门介绍刷榜工作的说明文其详细程度较深因此在阅读过程中需要投入较多精力。
文章中提到的方法在实现过程中涉及多个方面包括借鉴了他人的方法并进行了参数微调对于主要的研究对象网络结构则没有深入展开文中明确表示将在后续文章中详细阐述。
主要探讨的是将分类器与回归器解耦的技术方案本次则着重分析了该方案的核心原理以及其实现细节

在这里插入图片描述

这篇文章已经给出了。。。之前没有看到这篇。

motivation

和IOU-Net一样,问题在于:classification head 和regression head共享一样的parameters(这里可能是想说共享一样的features而不是说可训练的参数共享)。IOU-Net发现"feature which generates a good classification score
always predicts a coarse bounding box",于是采用另一个head预测IOU作为localization score整合进最终的classification score。作者称只是一种妥协,因为misalignment在每个空间点仍然存在,这种做法仅仅提升了紧凑bbox的confidence score而已(是一种后处理)。同时拿了Double-Head R-CNN举例说,经过相同proposal之后的ROI pooling的流入两个分支的feature导致了冲突依然存在。
既然作者强调方法与二者的优越性,在此先列出以作比较。
IOU-Net

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Double-Head R-CNN:(博客)
motivation:基于COCO2018检测挑战冠军获得者的成果表明,在实例分割任务中将bbox回归与分割操作结合在同一卷积层中进行融合的效果优于将其分别置于卷积头和全连接头的两种方法。

在这里插入图片描述

method

根据《revisiting…》,作者称其为task-aware spatial disentanglement (TSD)。

在这里插入图片描述

中间ROIPooling后面接的应该是deformable的结构,下面的字表述可能有些问题。这里可以参考一下知乎这篇文章
除此之外,主要看下新加的两个分支。
首先是DHPooling
对应于上图,C和R是

在这里插入图片描述

分类和回归的两个DHPooling:

在这里插入图片描述

简单来说就是说我们采用了可变形RoIPooling方法来处理分类任务的同时还引入了一个粗放级别的可变形模块来应对回归任务的问题。
在以下两个问题上存在疑惑:

  1. 在此过程中 p_{0} 具体扮演着什么样的角色?
  2. 输入给RoIPooling模块的是已经经过偏移校正后的anchor框为何还需要再进行一次粗略的位置偏移计算?而且这里并没有像阶梯式的方法那样分阶段进行处理就有些难以理解。
    后续更新根据《Revisiting...》一文中指出p_{0}实际上是一个笔误并未存在。
    公式如下:
在这里插入图片描述

随后介绍的是CML(即Controllable Margin Loss)。研究者引用文献指出该方法可被称作Progressive constraint(缩写PC)。

在这里插入图片描述

对于回归,这个公式更加清楚一点:

在这里插入图片描述

整体loss在《revisiting deep learning》一文中补充如下:该研究进一步探讨了如何通过优化特征选择机制来提升分类器与回归器的性能表现,在实验结果中发现通过引入'refined'特征能够显著提高模型的整体预测准确性

在这里插入图片描述

experiments

实验部分给出的表格很少,在这一问题下主要结果:

在这里插入图片描述

来自《revisiting…》后续补充
关于参数量

在这里插入图片描述

PC的有效性:

在这里插入图片描述

deformable 的方式(prop.w以proposal为单位,point.w以点为单位):

在这里插入图片描述

最终结果:

在这里插入图片描述

总结

这篇文章更像是一个未完成的内容。这次重点探讨了一个分离特征的方法,在这里他确实实现了他所提到的不同特征用于分类与回归。在RoI池化模块中采用多层次可变形机制实现了特征分离

全部评论 (0)

还没有任何评论哟~