Advertisement

Explainable Reasoning over Knowledge Graphs for Recommendation基于知识图谱路径推理的可解释推荐

阅读量:

摘要

近年来以来,在推荐系统领域中引入知识图这一技术受到了越来越多的关注与讨论。深入研究了知识图中元素间的相互关联后发现, 用户与项目之间所存在的联系模式实际上构成了一个路径结构, 这一发现为用户行为与项目互动提供了丰富的信息资源以及两者间的互补性特征。这种联系性不仅反映了实体及其关联信息的意义, 而且在一定程度上能够帮助我们更好地理解用户的兴趣倾向。然而, 当前的研究工作在利用这一联系性推断用户的偏好特征方面还存在一定的局限, 尤其是在构建路径顺序依赖性和整体语义模型方面仍需进一步探索和完善

该研究开发出一种新型的知识感知路径递归网络(KPRN)架构,并基于知识图实现个性化推荐服务。该模型通过整合实体与关联信息生成路径表征,在考虑路径中蕴含的顺序依赖关系时能够有效推导出用户行为模式。为了提升预测效果,在构建网络层时我们引入了一种创新性的加权融合机制以区分不同类别间的关联差异性特征进而优化分类决策过程。实验结果表明在电影推荐数据集上开展实验并在此基础上在音乐领域同样进行了相关测试最终验证了该方法较现有技术具有显著优越性

以下纯属个人理解,如果有错请大家指正:

在推荐系统领域应用Kg,在主要类型上分为EMBEDDING-BASED和PATH-BASED两种方法。此外,Kg能够提升推荐系统的可解释性。

基于嵌入的方法主要致力于对item进行表示学习。其主要缺陷在于:第一,在建模user-item间的隐式关联方面存在局限;第二,在推荐效果的可解释性方面也存在不足

Path-based方法主要基于meta-paths(元路径),这些由不同实体类型构成的序列,并无需进行路径推理。它通过用户-物品关联更新用户-物品间的相似性程度,在这过程中并不依赖于特定领域的专业知识。

  • 该研究者提出了一种名为KPRN的知识导向路径递归网络模型:这种模型不仅能够综合实体与关系信息生成路径表示,并且能够结合用户的偏好进行路径推理。

作者的方法旨在构建一个user-item之间具有有序关联模型,并通过池化操作来识别各条路径对结果的不同影响。这种机制有助于提升模型的可解释性,在推断用户的偏好时提供了更加细致的理解能力。

  • 任务
  • 具体的模型的设置

为了更好地理解'Embedding'这一概念,请具体参考<>一文中的详细说明。

假设,我们中文,一共只有10个字。。。只是假设啊,那么我们用0-9就可以表示完

比如,这十个字就是“我从哪里来,要到何处去”

其分别对应“0-9”,如下:

我 从 哪 里 来 要 到 何 处 去

0 1 2 3 4 5 6 7 8 9

那么,其实我们只用一个列表就能表示所有的对话

如:我 从 哪 里 来 要 到 何 处 去 ——>>>[0 1 2 3 4 5 6 7 8 9]

或:我 从 何 处 来 要 到 哪 里 去 ——>>>[0 1 7 8 4 5 6 2 3 9]

复制代码
 # 我从哪里来,要到何处去

    
 [
    
 [1 0 0 0 0 0 0 0 0 0]
    
 [0 1 0 0 0 0 0 0 0 0]
    
 [0 0 1 0 0 0 0 0 0 0]
    
 [0 0 0 1 0 0 0 0 0 0]
    
 [0 0 0 0 1 0 0 0 0 0]
    
 [0 0 0 0 0 1 0 0 0 0]
    
 [0 0 0 0 0 0 1 0 0 0]
    
 [0 0 0 0 0 0 0 1 0 0]
    
 [0 0 0 0 0 0 0 0 1 0]
    
 [0 0 0 0 0 0 0 0 0 1]
    
 ]
    
  
    
 # 我从何处来,要到哪里去
    
 [
    
 [1 0 0 0 0 0 0 0 0 0]
    
 [0 1 0 0 0 0 0 0 0 0]
    
 [0 0 0 0 0 0 0 1 0 0]
    
 [0 0 0 0 0 0 0 0 1 0]
    
 [0 0 0 0 1 0 0 0 0 0]
    
 [0 0 0 0 0 1 0 0 0 0]
    
 [0 0 0 0 0 0 1 0 0 0]
    
 [0 0 1 0 0 0 0 0 0 0]
    
 [0 0 0 1 0 0 0 0 0 0]
    
 [0 0 0 0 0 0 0 0 0 1]
    
 ]

这样就把每一系列的文本整合成一个稀疏矩阵。

由此可见,one-hot编码体现出显著优势:计算过程高效便捷,并且具备较强的表示能力。然而,在实际应用中存在主要缺点:当数据极度稀疏时(over-sparse),会导致资源消耗过高。

Embedding层横空出世。

假设:我们有一个2 x 6的矩阵,然后乘上一个6 x 3的矩阵后,变成了一个2 x 3的矩阵。

暂且不考虑其意义的情况下,在这一过程中我们将一个包含12个元素的矩阵缩减为仅包含6个元素的新矩阵,并直观上观察其大小是否减少了原来的一半

或许你已经想到了……而不管你的想法是否正确,在本质上来说(embedding layer)就是在进行降维操作的基础上完成特定任务的基础方法——矩阵乘法是其核心原理之一。而在深度学习框架中(尤其是卷积神经网络中),嵌入层的工作机制与特殊的全连接层操作有着高度相似的表现效果(类似于1x1卷积核的操作)。对于中间那个维度大小为10^5 \times 20的矩阵来说(也就是所谓的查询映射表),它不仅能够实现特征提取的功能(即特征映射表)而且还能够辅助信息过渡过程的任务完成(即过渡映射表);这三种不同的视角分析方式都是同一个数学对象的不同解读视角

2.LSTM:(Long Short-Term Memory长短期记忆)

参考https://mp.weixin.qq.com/s/eN1j7VGe5TODHBZcqtgJIA

全部评论 (0)

还没有任何评论哟~