STAMP: Short-Term Attention:Memory Priority Model for Session-based Recommendation简介
发布时间
阅读量:
阅读量
STAMP: Short-Term Attention/Memory Priority Model for Session-based Recommendation
介绍
作者提出lstm虽然能很好的捕捉用户的总体的兴趣,但是作者指出lstm也许对于建模长的session是不够有效的,因此作者提出STAMP,不仅捕捉用户整体的兴趣同时也将用户当前的兴趣纳入考虑。
方法
STMP
文章首先介绍了STMP模型,没有加入注意力机制:

m_s就是session里的embedding向量的平均即代表用户的general intereset,m_t为用户当前的兴趣,使用用户最后点击的item来表示。

m_s与m_t送入MLP层,为了更好的特征表示得到h_s,h_t。
后利用三个向量的点积来计算得分:

利用softmax计算每个items的概率

损失函数则为典型的交叉熵函数:

STMAP

其余都没有变化,只是加了一层注意力网络


全部评论 (0)
还没有任何评论哟~
