论文阅读CondInst《Conditional Convolutions for Instance Segmentation》
论文链接:http://xxx.itp.ac.cn/pdf/2003.05664v3
CondInst是ECCV20上的一篇关于实例分割的文章,个人感觉和YOLACT的思路有相似之处(CondInst最后的处理更加直接简洁)。作者将全卷积网络应用在实例分割的task上,通过采用动态生成的conditional convolution,解决了之前全卷积网络在实例分割上不work的问题。
涉及的问题
作者首先分析了经典的Mask RCNN的问题:(1)由于采用bbox先做框定,所以对于一些不规则的instance,bbox中会掺杂大量的背景信息或者其他实例的杂讯;(2)由于要区分前景和背景信息,因此mask head需要足够大的感受野来编码上下文信息,所以就导致了较多卷积层的堆叠,造成了计算的复杂;(3)ROI操作需要将不同尺寸的区域统一到相同区域,因此对于面积较大的instance,会损失很多精度。
随后作者又分析了FCN的问题:FCN在语义分割等领域已经非常出色,虽然语义分割和实例分割很相似,但FCN在实例分割上依旧不太work(远比不上ROI系列的算法)。究其原因,是因为FCN很难区分一张图像中有相同特征的实例,而实例分割要求我们将所有的实例区分开来;而ROI算法就可以将不同的instance裁剪出来,再逐一进行mask的预测。所以实例分割需要两类信息:(1)appearance:每一个目标的外观特征,即属于什么类别;(2)location:如果一张img有多个同类物体,要通过位置信息区分出他们的不同。
CondInst
所以作者提出了CondInst,可以看作是一个instance-aware的FCN。受动态卷积的启发,CondInst的网络参数是根据instance的不同而变化的,而这个网络参数的作用是编码一些instance的特征(例如位置、形状或者外观信息)。因此根据不同实例对应的conditional mask,把他们分配到整个特征图上,就可以避免ROI操作,从而直接得到每一个instance的mask。

如上图所示,一张img上有K个实例,就需要动态地生成K个mask head,每一个head在他们的filter中都含有目标实例的一些特征,因此不同的mask作用到特征图时,只会根据各自编码特征,去响应拥有特征的实例所对应的pixel。进而得到不同instance的mask。
Architecture
下图为CondInst的模型图:

backbone采用ResNet50,采用FPN结构。下面的mask branch是P3经过卷积得到的特征图,FmaskF_{mask},其维度C=8,然后又经过一个类似于coordconv的操作,加上了两个维度的position信息,得到了F~mask\widetilde{F}{mask},维度为8+2=10。上面的部分针对不同尺度的特征图(P3-P7),得到分类向量px,yp{x,y},以及controller里面的参数θx,y\theta_{x,y}。这个controller是本文的核心,θx,y\theta_{x,y}表示位置为(x,y)的参数向量,它的维度由mask FCN head的参数决定(所有的kernal和bias),这里是169(因为有三个11的卷积层,所以总的参数量是(10∗8+8)+(8∗8+8)+(8∗1+1)=169(108+8)+(88+8)+(81+1)=169)。每一个位置(x,y)对应一个instance,而每一个instance对应一个不同的θx,y\theta_{x,y},这个θx,y\theta_{x,y}的参数assign到mask FCN head的三层参数之中,相当于编码了某特定实例的特征。所以特征图F~mask\widetilde{F}_{mask}在经过不同的mask FCN head以后,就会根据filter的不同,响应得到不同的intsance的mask。
当然整体的框架遵从FCOS,包括正负例的选取,centerness筛除掉不好的框等操作,而且作者这里并没有吧bbox head删除,因为他在做NMS的时候效果还是要好一些的,最起码速度要比基于mask的NMS快。
Loss
CondInst的损失函数包含两部分,如下所示:

其中第一部分的loss同FCOS,第二部分为额外的mask部分的loss,其表达形式如下所示:

mask部分采用Dice Loss,作用是用来平衡正负样本的数量。cx,y∗c_{x,y}{*}表示GT类别,等于0表示背景,大于0表示前景;NposN_{pos}表示正例数目;Mx,y∗M_{x,y}{*}表示GT mask。而MaskHead()表示F~mask\widetilde{F}{mask}经过θx,y\theta{x,y}分配的mask FCN head后得到的预测的mask。
Inference
给定一个img作为输入,得到分类向量px,yp_{x,y},bbox预测tx,yt_{x,y},centerness得分,以及参数θx,y\theta_{x,y}。首先根据FCOS的规则,根据类别score,NMS等操作,假设筛选到最后只剩下K个要预测的instance,这是把那K个位置所对应的θx,y\theta_{x,y}分别加载到mask FCN head中,让F~mask\widetilde{F}_{mask}分别通过这K个head,最后分别得到K个不同的instance所对应的mask,再将其整合即可。可以看出,mask head参数量很少,因此Inference的时间也相对较快。
实验结果
与几个经典的方法的比较,CondInst精度是很高的。

关于FmaskF_{mask}维度C的讨论,发现C=8最好,且C=2时精度也只损失了0.3,这是CondInst这个算法速度很快的原因之一。

其他还有一些消融实验,这里就不贴结果了,有兴趣的可以去查阅一下论文。
总结
总而言之,CondInst摒弃了ROI方法,因此也消除了ROI方法的三个弊病。CondInst引入动态生成卷积核的模式,为每一个不同的instance产生不同的mask head,从而在特征图正向传播时,这些不同的mask head会根据自身编码的特征,提取出不同instance的mask,从而实现实例分割的task。
