ResMLP: Feedforward networks for image classification with data-efficient training
发布时间
阅读量:
阅读量
本文提出MLP 视觉新方法,构建了一个超级简单的残差架构,其残差块由一个隐藏层的前馈网络和一个线性patch交互层组成!当采用现代的训练方法,则可以在ImageNet上实现意想不到的高性能!代码即将开源!
这一周MLP真热闹啊,看看近期的新工作:
注1:文末附【视觉Transformer】交流群
注2:整理不易,欢迎点赞,支持分享!
想看更多CVPR 2021论文和开源项目可以点击:
CVPR2021-Papers-with-Code
ResMLP: Feedforward networks for image classification with data-efficient training

- 作者单位:Facebook AI(有DETR作者之一), 索邦大学, Inria
- 论文:https://arxiv.org/abs/2105.03404
我们提出了ResMLP,一种完全基于多层感知机(MLP)进行图像分类的体系结构。 它是一个简单的残差网络,它交替(i)线性层,其中图像 patches在通道之间独立且相同地交互;以及(ii)两层前馈网络,其中通道中的每个 patch独立地相互作用。

当采用现代的训练策略进行训练时,使用大量的数据增广和可选的蒸馏方法,可以在ImageNet上获得令人惊讶的良好精度/复杂度折衷。

算法细节:


主要贡献:

我们将基于Timm库和经过预训练的模型共享我们的代码。
实验结果



CVer-视觉Transformer交流群
建了CVer-Transformer交流群!想要进Transformer学习交流群的同学,可以直接加微信号:CVer9999。加的时候备注一下:Transformer+学校+昵称,即可。然后就可以拉你进群了。
强烈推荐大家关注CVer知乎账号和CVer微信公众号,可以快速了解到最新优质的CV论文。

全部评论 (0)
还没有任何评论哟~
