Advertisement

ResMLP: Feedforward networks for image classification with data-efficient training

阅读量:

本文提出MLP 视觉新方法,构建了一个超级简单的残差架构,其残差块由一个隐藏层的前馈网络和一个线性patch交互层组成!当采用现代的训练方法,则可以在ImageNet上实现意想不到的高性能!代码即将开源!

这一周MLP真热闹啊,看看近期的新工作:

注1:文末附【视觉Transformer】交流群

注2:整理不易,欢迎点赞,支持分享!

想看更多CVPR 2021论文和开源项目可以点击:

CVPR2021-Papers-with-Code

ResMLP: Feedforward networks for image classification with data-efficient training
在这里插入图片描述

我们提出了ResMLP,一种完全基于多层感知机(MLP)进行图像分类的体系结构。 它是一个简单的残差网络,它交替(i)线性层,其中图像 patches在通道之间独立且相同地交互;以及(ii)两层前馈网络,其中通道中的每个 patch独立地相互作用。
在这里插入图片描述
当采用现代的训练策略进行训练时,使用大量的数据增广和可选的蒸馏方法,可以在ImageNet上获得令人惊讶的良好精度/复杂度折衷。
在这里插入图片描述

算法细节:
在这里插入图片描述
在这里插入图片描述
主要贡献:
在这里插入图片描述

我们将基于Timm库和经过预训练的模型共享我们的代码。

实验结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

CVer-视觉Transformer交流群

建了CVer-Transformer交流群!想要进Transformer学习交流群的同学,可以直接加微信号:CVer9999。加的时候备注一下:Transformer+学校+昵称,即可。然后就可以拉你进群了。

强烈推荐大家关注CVer知乎账号和CVer微信公众号,可以快速了解到最新优质的CV论文。
在这里插入图片描述

全部评论 (0)

还没有任何评论哟~