Advertisement

Beyond Self-attention: External Attention using Two Linear Layers for Visual Tasks

阅读量:

00x1

论文标题:Beyond Self-attention: External Attention using Two Linear Layers for Visual Tasks

来源:清华大学Jittor

00x2

文章重点通过引入** external attention** 来代替self-attention,并且external attention能够贯穿所有样本,学习到所有样本共享的特征。为此,我们需要引入一个外部的SxD的记忆单元M。

They(two memories) are independent of individual samples and shared across the entire dataset, which plays a strong regularization role and improves the generalization capability of the attention mechanism.

只需2层线性层,就能超越自注意力机制,清华计图团队又有新突破 Figure 1.图片来自论文

引入两个不同的记忆单元用于增强External-attention的表达能力,
只需2层线性层,就能超越自注意力机制,清华计图团队又有新突破 Figure 2.图片来自论文
只需2层线性层,就能超越自注意力机制,清华计图团队又有新突破 Figure 3.图片来自论文

00x3

这个论文挺有意思。引入了两个记忆单元隐式地共享了样本上的特征。

全部评论 (0)

还没有任何评论哟~