Advertisement

FedHCDR: Federated Cross-Domain Recommendation with Hypergraph Signal Decoupling

阅读量:

FedHCDR: Federated Cross-Domain Recommendation with Hypergraph Signal Decoupling

解决的问题

目前的CDR方法需要跨域共享用户数据,因此违反了《通用数据保护条例》(GDPR),即用户-项目评级无法在不同领域访问。因此,已经提出了许多方法用于联邦跨域推荐(FedCDR)。然而,不同领域的数据异构性不可避免地影响了联邦学习的整体性能,跨域数据异构的问题,即不同域中的用户-项目交互数据包含域专有信息。
现有的联邦学习方法直接将客户端模型或者用户表示的直接聚合来传递知识,这样会将域专有信息混合到全局模型中,从而导致全局模型的较差的局部性能,也就是负迁移,因此,有必要将域共享信息和域独占信息解耦,只聚合域共享信息,以避免负迁移问题。
在这里插入图片描述

为了解决跨领域的数据异构性,我们引入了一种称为超图信号解耦(HSD)的方法,将用户特征解耦为领域专有特征和领域共享特征。该方法采用高通和低通超图滤波器解耦域独占和域共享用户表示,这是由局部-全局双向传输算法训练。此外,超图对比学习(HCL)模块的设计,以提高域共享的用户关系信息的学习,通过扰动用户超图来实现对比部分。

FedHCDR模型

我们引入了一种称为HSD的超图信号解耦方法来解决跨域数据异构性。该方法将每个领域的模型分为高通超图过滤器和低通超图过滤器,分别负责提取领域独占和领域共享的用户表示.此外,我们设计了超图对比学习模块HCL,通过在用户超图中引入扰动来增强对共享域用户关系信息的学习。
假设有K个本地客户端和一个中央服务器。第k个客户端维护自己的用户-项目交互数据Dk。交互数据中使用的用户是所有域的重叠用户集合。
在这里插入图片描述
每个客户端模型被分成一个本地分支(黄色)和一个全局分支(紫色)。在每个epoch中,只有域共享的用户表示和模型参数被聚合。在测试阶段,域独占和域共享表示一起用于本地预测。
在高通、低通超图过滤器初始化部分 :我们给定用户-项目矩阵,就可以得到用户和项目的超图关联矩阵:在这里插入图片描述
接着,我们将用户超图的项目流行度去偏矩阵表示为P,于是获得归一化无偏超图邻接矩阵和超图拉普拉斯矩阵:在这里插入图片描述
这个项目流行度去偏矩阵用于消除长尾效应引起的估计偏差,简单来说,超边上项目的度越高,它权重就越低。
在这里插入图片描述用于保证用户超图邻接矩阵的对角线为0,也就是去除自环。于是我们可以看到用户和项目经过高通超图过滤器之后的构造是:在这里插入图片描述
为了使低通用户超图滤波器捕获更平滑的信号(即,用户关系信息),我们构造用户超图的马尔可夫转移矩阵M,并执行T步超图随机游走以获得初始化的低频用户表示,用户超图的马尔可夫转移矩阵(同样适用于项目超图)公式如下:在这里插入图片描述然后对于用户超图,就可以得到T游走的矩阵:在这里插入图片描述取转移矩阵的对角线,并在连接后执行线性变换,然后获得初始化的用户低频表示:在这里插入图片描述
另外,对于其他的超图过滤器,我们直接使用Embeddingfilter操作来获得随机初始化的表示。例如,对于高通用户超图过滤器,我们有:在这里插入图片描述
自适应高通-低通超图过滤器的过程是:在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
我们采用多类交叉熵损失来训练局部高通超图滤波器和低通超图滤波器。高通超图滤波器定义如下(低通超图滤波器也是如此):在这里插入图片描述
为了降低计算复杂度,我们使用负采样方法进行训练:在这里插入图片描述
对于域k,我们在本地训练期间采用互信息用于本地域独占和全局域共享用户表示之间的知识转移:在这里插入图片描述
扰动超图表示为:在这里插入图片描述
于是有:
在这里插入图片描述
在这里插入图片描述

评价指标与结果

MRR and HR@10 and NDCG@10
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
LocalHF表示没有联邦聚合的HF模型;
FedHCDR-w/o(HSD,HCL)对应于没有HSD和HCL的FedHCDR;
FedHCDRw/o HCL指的是没有HCL的FedHCDR。

代码链接

复制代码
    https://github.com/orion-orion/FedHCDR
    
    

全部评论 (0)

还没有任何评论哟~