Advertisement

Learning Entity and Relation Embeddings for Knowledge Graph Completion

阅读量:

为了训练嵌入模型...我们将 实体空间 对应地映射至 相关的关系空间 中 然后 在这些已经建立映射的实体之间进行关系翻译 这一过程构成了嵌入学习的核心机制 在实验设置中 我们通过执行该任务来评估模型性能 以完成一系列关键指标 包括关系预测 三元组分类 以及抽取与实际相关的事实 这些指标共同反映了模型对复杂语义模式的学习能力

知识图谱填充的主要目标是推导实体间的关联关系,在基于监督学习的现有知识图谱框架下展开研究。
这种研究方向类似于社交网络分析中的链接预测问题(link prediction),但其核心区别在于不仅需要判断关系的存在性问题(即是否存在某种关联),还需要进一步确定具体的关系类型(即关联的具体属性是什么)。
近年来逐渐兴起的一类方法致力于将知识图谱嵌入到连续向量空间中进行深度学习处理。

相关模型

TransE和TransH

TransE是h+r≈t,表示h+r的最近的邻居是t,打分公式就是

TransE

TransE模型在单一对单的数据场景下表现优异;然而,在多于一个实体参与的复杂关系网络中(即多一对一或多对外部关系)仍存在问题。基于此观察,在2015年提出的改进模型TransH假设关联向量r位于特定的超平面位置上。

TransH

上,h和t映射到超平面

TransH

上,记作

TransH

TransH

,于是打分公式是

TransH

如果我们限定

TransH

那么就有

TransH

TransH

我们的方法

TransR

TransE和TransH通过将实体的信息与关联信息整合到同一空间维度中来完成知识表示

-

然而,实体与关系本质上是两个不同的概念,在同一个语义框架内将其表示为同一形式存在不合理性。因此提出了实体空间与关系空间的概念。在TransE模型中(h,r,t)被视为一个整体。

-

,r在另一个空间

-

,对于每一个关系r,用一个映射用的矩阵

-
-

把实体从 实体空间 映射到 关系空间,即

TransR

对应的打分公式是

TransR

Cluster-based TransR (CTransR)

主要思路在于:第一步是将输入样本划分为若干个子集;针对某个关系r,在所有训练数据中找到相应的实体对(h,t),这些实体对会在同一个子集中表现出相似的特征;随后,在每个子集中分别训练一种特定的关系向量

-

,为每一个关系训练一个

-

矩阵,相对的,我们定义 映射后的实体向量

TransR

,打分公式是

TransR

在这个公式的最后一项,是为了保证每个组的关系向量

-

距离原始的关系向量r不会太远。

训练方法和实现细节

定义如下的基于边界的打分公式作为训练目标

知识图谱
-

是所说的边界,S是正确的三元组,S'是错误的三元组

现有的知识图谱仅包含一组完整的正确三元组。我们采用的方法即为通过破坏原有的正确三元组来构建新的错误三元组。

实验和分析

我们通过两个典型的知识图谱来评估我们的方法,WordNet和Freebase

全部评论 (0)

还没有任何评论哟~