Advertisement

STAMP: Short-Term Attention:Memory Priority Model for Session-based Recommendation简介

阅读量:

STAMP: Short-Term Attention/Memory Priority Model for Session-based Recommendation

介绍

作者提出lstm虽然能很好的捕捉用户的总体的兴趣,但是作者指出lstm也许对于建模长的session是不够有效的,因此作者提出STAMP,不仅捕捉用户整体的兴趣同时也将用户当前的兴趣纳入考虑。

方法

STMP

文章首先介绍了STMP模型,没有加入注意力机制:
在这里插入图片描述

m_s就是session里的embedding向量的平均即代表用户的general intereset,m_t为用户当前的兴趣,使用用户最后点击的item来表示。
在这里插入图片描述

m_sm_t送入MLP层,为了更好的特征表示得到h_s,h_t

后利用三个向量的点积来计算得分:
在这里插入图片描述

利用softmax计算每个items的概率
在这里插入图片描述

损失函数则为典型的交叉熵函数:
在这里插入图片描述

STMAP
在这里插入图片描述

其余都没有变化,只是加了一层注意力网络
在这里插入图片描述
在这里插入图片描述

全部评论 (0)

还没有任何评论哟~