Adversarial Personalized Ranking for Recommendation(个人笔记)
上一周回顾了一篇关于CPR_loss的文章,在其中发现指导老师指出,在采集正负样本的标准以及生成对抗学习方面,CPR_loss与现有方法存在相似之处。因此,在这一周里,我专门对该文章进行了深入研究,并做了相应的整理与总结。有趣的是这篇论文也是何向南老师组于2018年发表于SIGIR的经典之作 下文我们简称其为APR
论文链接:https://arxiv.org/abs/1808.03908
[详细说明]/GitHub链接(TensorFlow版本)
[详细说明]/GitHub链接(PyTorch版本)
通过贝叶斯个人化排序(BPR)对广泛使用的矩阵分解(MF)模型进行优化将会导致推荐系统出现不稳定的情况,在这种情况下,该模型在面对由参数对抗扰动带来的挑战时表现不佳。
主要贡献在于提出了一种新型的优化框架方案;该方案通过对抗性训练来提升 BPR 模型的鲁棒性。
1. 准备工作
1.1.Matrix Factorization(矩阵分解)
MF 的基本概念在于通过为用户与物品分别构建嵌入向量空间来捕捉其行为特征,在这种表示下,用户对某项物品的偏好强度可通过两向量之间的点积结果来反映其相似性程度;其数学表达式为:

1.2.Bayesian Personalized Ranking(贝叶斯个性化排名)
BPR模型的目标函数式如下建立:对于(u,i,j)这一组三元组数据而言,其中i标记为正类,j标记为负类,该模型经过优化处理后使得(u,i)之间的评分分值达到最大化的预期目标

大于(u,j)的打分

,即让正样本和负样本之间的得分之差尽可能的大。具体公式如下:

其中,

表示全部三元组的数据集合,

表示模型参数,

表示sigmoid函数,

表示正则化参数。
MF-BPR易遭受对抗性干扰(验证MF-BPR容易受对抗噪声干扰)
不同于图像分类中采用对抗性的方法,BPR 的输入形式更为独特,其输入为离散型的 ID 特征,更换这些 ID 特征会直接导致输入语义的变化。例如,如若我们通过修改用户 ID 将三元组 (u,i,j) 调整为 (u',i,j),则该三元组及其相关标签可能会发生显著变化,这可能导致输出结果的不同。为此,作者建议在推荐模型的基本参数层面上引入干扰项,以评估 BPR 方法在其应用环境中的鲁棒性能。随后,在完成模型训练后再对其嵌入层参数施加随机干扰或对抗性干扰项,并观察输出结果的变化情况作为评价指标进行分析研究

其中,ϵ 控制对抗性扰动的大小,| |·| |表示L2范数,ˆΘ是表示当前模型参数的常数集。
本实验通过以下图表展示了在 Pinterest 和 Gowalla 两个数据集上的实验结果。MF-BPR 模型在面对随机噪声时展现出良好的鲁棒性,在 MF-BPR 模型中尽管这些特定扰动的数量级较小但是在这些情况下 MF-BPR 模型的效果仍然出现了显著下降这表明该模型在泛化能力方面存在一定偏差可能存在过拟合的风险

2. APR模型
2.1APR模型的定义
基于BPR存在的局限性问题上,作者提出了APR方法,并使其能够在遭受对抗性干扰的情况下依然展现出良好的鲁棒性能。该方法的具体数学表达式如下所示:

其中,

表示模型参数的扰动,

将其成为对抗正则化器,

用来控制它的强度。总的来说,就是先对

进行优化使得损失函数最小,在对

通过优化损失函数使其达到最大值的形式为:该方法旨在发现能够对当前模型造成最不利影响的扰动

2.2 APR + SGD
与BPR类似,APR是一个通用的学习框架,只要底层模型

具备可微性的情况下,在APR框架中可以应用反向传播和基于梯度的优化算法来进行学习过程。
1> 构造对抗性扰动
给定一个训练实例(u,i,j),构造对抗性扰动的问题

可以表示为最大化:

文章参考了附录中所述的fast gradient method,并将其应用于将目标函数近似为线性函数的过程

求导,然后往梯度方向移动,即有:

2> 学习模型参数
此时,只需要最小化下式:

参数更新:

3. 实验
3.1 数据集
该实验使用的数据集有Yelp、Pinterest 和 Gowalla。

3.2 性能指标
HR(命中率)和NDCG
3.3 对比方法
ItemPop、MF-BPR、CDAE、NeuMF、IRGAN
3.4 对比结果

我们的AMF通常表现卓越,在多数应用场景下均能达到最佳效果。值得注意的是,在Yelp平台这一特定场景下,IRGAN的性能略高于当前主流模型(如AMFNDCG@50和NDCG@100)。通过统计显著性测试(p值<0.01),我们发现该方法在商品推荐领域已达到行业领先水平。
具体而言,在对比实验中发现,在与NeuMF(一种新兴涌现出来的具有很强表现力的深度学习模型)相比的前提下
此外,在MF领域采用对抗性学习但其方式不同的IRGAN相比下, AMF平均提升了约6%. 一结果进一步验证了我们APR方法的有效性. 注意到的是, 在性能上 APR相较于 IRGAN 而言更加高效且易于训练, 并无需额外调整即可防止模式崩溃. 同时, APR 的初始化策略仅依赖于 BPR, 显然简化了设置过程.
在基准模型层次上(NeuMF)表现出色,并验证了非线性特征在学习用户-项交互函数方面的优势。相比之下,在Gowalla数据集上的表现略逊于MF-BPR(CDAE)。通常情况下(IRGAN)整体上均优于MF-BPR(由于其优化后的训练流程),最后(所有个性化的推荐方法普遍表现出色)相比ItemPop而言有着显著的优势,在个性化推荐任务中非常重要。
