KG-BERT: BERT for Knowledge Graph Completion
发布时间
阅读量:
阅读量
研究内容
第一篇使用预训练语言模型做知识图谱补全的论文
背景动机
- 大部分知识图谱补全方法主要依赖于结构信息 alone,从而受到知识图谱自身稀疏性的影响。
- 已有的基于语言模型的方法单独地表达了实体和关系的概念,而没有考虑到这些概念在三元组中的上下文关联。
- 已有的基于语言模型的方法主要依赖于知识库中的语料,数量过少导致语义信息不足以支撑有效的推理与应用。
模型方法
将三个要素名称与描述整合成完整的一句话,并将其送入BERT系统中进行处理以生成对应的整体表示;随后利用该整体表示完成对三元组分类任务或关系预测运算进而调整BERT模型参数以增强其处理此类问题的能力。


实验结果
一个比较有意思的实验是,在较小的训练集比重下,也能得到很好的结果

全部评论 (0)
还没有任何评论哟~
