Advertisement

KBQA: 趋势浅谈

阅读量:
在这里插入图片描述

KBQA

  • 前言

  • 一、百问

  • 二、十年

        • 基于神经网络
    • 基于语言学
    • 其他
  • 三、浪潮翻涌

        • ACL 2019
    • AAAI 2020
    • 其他
  • 四、总结与展望

    • 正文附录

    • 基于神经注意力机制的语言到逻辑形式转换(Dong与Lapata, 2016)

      • 对话到行动:基于大规模知识库的对话问答系统(Guo等人, 2018)
      • The Natural Language Decathlon: 多任务学习以问答形式呈现(McCann等人, 2018)
    • 参考文献

前言

经过近十年的发展积累与沉淀与发展

一、百问

为深入探究前人的创造运作机制,请先亲身感受他们所面临的具体困境。在QA技术背景下系统性地归纳与划分各类问题,并最终展示出下列成果:

类别 简介 Example Example Logical Expression
Simple Question (Entity) 简单的实体抽取问题 “Who was the dad of Jorgen Ottesen Brahe?” find(set={“Jorgen Ottesen Brahe”}, pre=“father”)
Simple Question (Predicate) 简单的关系抽取问题 “What’s the relationship between Jorgen Ottesen Brahe and Otte Brahe?” find(set={“Jorgen Ottesen Brahe”,“Otte Brahe”})
Complex Question (Logic) 多重实体抽取问题 “Which cities are municipalities in southern China?” filter(set=find(set={“China”},pre=“municipality”),pre=None,cond={“Southern China”})
Complex Question (Count) 实体统计问题 “How many children did Roosevelt have?” count(set=find(set={“Roosevelt”}, pre=“children”))
Complex Question (Contrast) 实体比较问题 “Who is the port with the largest annual throughput in the world?” argmax(set=find(set={“port”}, pre=“instance”),num=get(set={ENTITY}, pre=“annual throughput”))
Complex Question (Count & Contrast) 实体统计并比较的问题 “Which university has the maximum number of Nobel Prize winners?” argmax(set=find(set={“university”}, pre=“instance”),num=count(filter(set=find(set={ENTITY}, pre=“student”),pre=None,cond={“Nobel Prize”})))
Complex Question (Verification) 判断是非类问题 “Is New York the Capital of USA?” equal(setA={“New York”},setB=find(set={“USA”}, pre=“capital”)))

除了以上常规的单问题类型,还有以下非常规的问题类型:

类别 简介 Example
Coreference Question 无法找到实体,常见于多轮对话 “Who is the spouse of him?”
Ellipsis Question 无法找到谓词,常见于多轮对话 “Also tell me about Brett MacLean.”
Combined Question 多个独立问题组合 “Who created Apple and Amazon respectively?”
Unfactual Question 非既成的实时问题 “Which politican has been infected the coronavirus in USA?”
Macro Question 过于宏观的问题 “Tell me about the worldwide economy in 2020.”
Subjective Question 涉及主观判断的问题 “What do you think of Donald Trump?”
Nest Question 嵌套问题 “Who is the father of the sister of the mother of Mark Twain?”
Mis-Presented Question 包含错误的问题 “Who found the Carnegie Mellon University?”
Unquantifiable Question 相关指标无法量化的问题 “Is there any star more dangerous than quasar?”
Technical Question 涉及专业知识的问题 “How is ozone layer naturally generated?”

二、十年

在这里插入图片描述

十载前的那个时间节点,
神经网络重新走出了历史时期的阴影,
而当时的自动化 KBQA 系统尚显稚嫩无力满足工业应用的需求。
项目开发团队大量依赖于语法规则来识别问题并解析其关联性,
为此他们须明确地界定谓词与关系之间的依存关系。
这种做法在小规模知识图谱领域并不罕见,
然而由于泛化能力不足,
在构建 KBQA 系统时必须反复调整优化相关规则体系以适应新的知识领域的需求。
彼时学术界正专注于绘制依存关系图,
试图寻找解决这一困境的有效方案。

首次在2013年将维基百科作为基础构建知识库后命名为知识图谱

但是当然,这并不是谷歌的贡献。故事讲到这里先结束。

如前所述,在上文中我们介绍了一种较为简单的构建 KBQA 方法:通过遵循语法解析路径并解决多层复合问题来建立大量语法规则。这种方法具有部署迅速、对软硬件要求较低的特点,并结合同义词映射表和实体消歧规则能够在小型知识图谱上取得较好的效果因而受到广泛关注常用于任务型 KBQA 系统中。然而该方法存在明显的局限性即泛化能力不足当知识图谱规模扩大关系数量增多时从数据中寻求解决方案以自动构建 KBQA 就变得愈发必要因此我们放弃工业界普遍采用的那种做法转而探讨基于大数据构建有效模型的 KBQA 工作

KBQA的研究基于目标问题是其本质特征,并主要可分为两个主要方向:一是专门处理简单查询(simple query),另一则是专门处理与之相对应的复杂查询(complex query)两种类型的问题。许多研究人员普遍认为解决这类基础性问题是极具挑战性的,并且在试图寻找复杂案例的解决方案时的确存在诸多困难。然而也有一些专家持有不同观点,在试图寻找复杂案例的解决方案时能够同时提供有效的基础性解决方案。正是在这种争议之下,在处理简单查询(simple query)与复杂查询(complex query)方面都取得了显著进展,并占据了KBQA领域的半壁江山地位。此外在这一领域中还涉及了许多其他特殊类型的问题例如TEQUILA系统(Jia et al. 2018)通过将特定条件分解后成功解决了涉及时间相关但又非事实类的问题而TSHCNN模型(Gupta et al. 2018)则基于文本卷积神经网络架构能够有效应对多种语言混合使用的情景下的问答任务

从设计理念上来看,在KBQA领域最主流的方案是基于语义解析技术(Semantic Parsing, SP)的方法。这种技术的核心在于将自然语言 utterance 或 query 转换为机器可执行的形式。具体而言,则是通过一定的语义理解架构将自然语言 utterance 或 query 映射到精确的逻辑表达式(logical form)。这项技术的设计理念既合乎情理又具备合理性。其中一点表现在数据上:现有的研究通常默认的数据集往往包含 problem-to-answer 对应关系;然而,在实际应用中,默认情况下模型更关注于建立 problem-to-logical-form 的对应关系。为此,在构建 SP 模型时需先定义完整的 logic rules 作为基础框架;并通过深度优先搜索或广度优先搜索的方式进行推理路径探索以找到指向答案的路径。尽管如此,在实际研究中这种方法仍面临诸多挑战:人工标注的方法虽然可行但较为少见;而通过引入剪枝策略则有助于减少推理过程中的计算开销。不过由于这些局限性 KBQA 方案仍然占据着领域中的主导地位

根据具体的技术方案,在理论研究中可将SP模型划分为两大类:一类以神经网络为基础进行建模分析;另一类则依据传统语言学理论展开研究。

基于神经网络

KBQA 最初是在语言学领域起步,在深度学习兴起之后

Vlachos and Clark, 2014 开发了一连串基于分类模型的研究方法来检测问题的表现形式,并利用标准模板创建可运行的操作流程。

在这里插入图片描述

Dong and Lapada, 2016 利用 biLSTM 网络结合 注意力 机制开发出了一种新的 Seq2Tree 编解码架构,在推理过程中逐步生成相应的 逻辑树。

在这里插入图片描述

Zhong et al., 2017 采用了 强化学习 (reinforcement learning),让模型自动生成 SQL 条件,并完成完整的 SQL 语句。

在这里插入图片描述

Suhr et al.于2018年在逻辑系统中提出了copiable mechanism这一概念,在模型实际运行过程中能够自动调用此机制,在必要时会复制前几次对话的历史信息(历史记录),从而实现共指消解(coreference resolution)的效果

在这里插入图片描述

Guo et al., 2018 开发了一种能够应对大多数复杂问题的语法结构,并将逻辑表达式表示为线性组合的形式;同时开发了一种机制用于管理实体和关系。

在这里插入图片描述

McCann等三人于2018年收集了来自十个NLP相关领域的公开数据集,并将其标准化为context-query-answer的形式,并采用多任务学习架构构建网络

在这里插入图片描述

Shen et al., 2019 以D2A为基础,并采用当前主流的技术(BERT预训练及微调)开发出一种新的多任务学习框架,在实体和关系检测的基础上进一步引入一个实体类别分类器以提升实体链接的准确度。

在这里插入图片描述

在神经网络的发展过程中,在神经网络的支持下开展的研究热潮会持续升温

基于数据属性的一致性原则下

基于语言学

该神经网络架构在大数据中能够有效提取特征信息,并呈现出较为优异的模型性能。然而由于缺乏对结果的解释能力而导致的应用局限性对此学术界持续关注并致力于将语言学理论应用于自然语言处理领域:

Zettlemoyer等人于2009年基于组合范畴语法(Combinatory Categorical Grammar, CCG)对文本进行了分层解析,并将其表示为\lambda-calculus形式;随后利用上文识别的实体信息填充空白区域,并通过此方法实现了复杂疑问句的分析功能

在这里插入图片描述

Liang et al., 2013 基于 \lambda-calculus 提出了 \lambda dependence-based compositional semantic (\lambda-DCS);该方法通过消除表达式中的变量来减少逻辑表达的复杂性

在这里插入图片描述

Yao et al., 2014基于依存解析树进行研究发现,在解决自然语言处理任务时表现出色。他们通过依赖解析树分析法识别了问题的关键特性,并随后构建了包含这些关键特性的 问题特征图 (question feature graph)。接着他们根据实体从知识库中检索相关信息,并进而生成了反映主题关系的 主题图 (topic graph)。最后将两个图表进行了精确的配准处理从而最终得出了答案信息

在这里插入图片描述

研究团队基于 Herzig 等人于 2018 年提出并发展的零样本学习方法

在这里插入图片描述

Jie et al., 2018基于依存混合树 (dependency-based hybrid tree) 对节点以及语法结构进行编码处理,并寻找最优化的转移路径。

在这里插入图片描述

Gupta et al., 2018 开发一套 语法算子 (semantic operator),借鉴组合语法将句子分解为层次结构,在推理过程中采用动态规划算法以优化句法重组方案。

在这里插入图片描述

几乎所有的语言学SP模型都以语法分析作为核心机制。其中一类主要代表是基于Combinatory Categorical Grammar (CCG)和Head-driven Phrase Structure Grammar (HPSG)的结构化语法(又称为短语结构语法或PS-grammar),另一种则是以依赖语法(D-grammar)为基础的方法。在结构化语法中我们更加注重短语之间的近距离组合关系能够有效地分解复杂问题然而其解析过程相对繁琐且难以处理生僻词汇相反依赖语法则侧重于处理远距离依存关系其语法分析简洁高效但可能形成跨层级依存关系在面对涉及多个主语的复杂句子时表现不足

通常情况下,在两种语法体系间存在相当程度的效果均衡。然而,在分析架构上具有优势的是后者——其句法解析架构更易转化为逻辑树结构;因此,在实际应用中可观察到大量基于依存关系的SP模型。无论采用哪种策略——获得充足的领域标注数据至关重要;通过运用如概率上下文无关文法(Probabilistic Context-Free Grammar)的语言学统计方法来训练句法解析架构——只有这样才能实现有效的推理与应用能力。

在过去的十年中,在最初阶段主要关注点在于制定规范的逻辑表达语法,并不断提升语法规则的质量;随后随着研究的发展,则逐步转向了自动学习逻辑规则,并结合了神经网络技术。

其他

除了以生成逻辑表达式为基础的语义解析模型之外,在此之外还有一些相对冷门的方法论。例如基于知识表示学习直接从知识库中抽取答案。这些方法通常要求较高的计算资源,并且难以应用于大规模的知识图谱构建。因此我们暂不探讨这类问题

从发表论文的数量及其被引用次数来看, SP 模型的研究在2017年达到了一个峰值,然而随着研究方法逐渐趋于成熟,近年来呈现出明显的下降趋势.在这段时间里,研究人员在多个方面进行了探索性尝试.令人遗憾的是,在这些探索性尝试背后,缺乏统一的标准与规范体系.涵盖自定义逻辑系统的探索则显得略显单一,现有研究主要集中在类SQL语句 (如SPARQL、GraphQL等)、λ−演算以及自定义逻辑组合等几个方向上.尽管大多数研究者都采用自己认可的逻辑规则框架进行研究,并结合当前流行的模型架构进行验证实验,但在有限规模的数据集支持下难以取得令人满意的性能表现.这也导致KBQA领域的现有模型难以达到理想效果

此外,在大规模实体导致大量生僻词出现的情况下,在KBQA任务上应用预训练模型往往难以取得显著提升效果。相比之下,在知识图谱推理系统中占据核心地位的因素是逻辑规则这一关键要素。其质量不仅直接影响了最终生成的逻辑表达式质量,并由此间接造成了系统性能的整体下降。对于开发者而言,则面临着如何根据自身业务特点定制适合的推理策略这一难题所在

当前我们仅探讨了 KBQA 模型在语义信息处理方面的应用。实际上 KBQA 的研究范围不易明确界定。例如,在搜索引擎领域 KBQA 涉及到实体/关系检测 语义解析以及实体/关系链接;而在图谱检索领域 则主要聚焦于实体/关系检测与实体/关系链接;至于任务或聊天机器人的应用 则还需包含对话管理和自然语言生成等内容。目前 KBQA 系统中所采用的对话管理方案主要包括:

  • Copy Mechanism 通过复制上一轮生成的逻辑表达式串来实现;
    • Joint Learning 通过整合过往的历史问题及对应回答来进行当前对话训练;
    • Slot Filling 系统能够识别出的相关实体及其关联信息按照属性被填入相应的槽位中以便后续使用;
    • State Tracking 当系统遇到缺失的情况时会调用MRC模型从前几轮对话内容中寻找解答;
    • Context Graph 系统会通过构建一个动态扩展的知识图谱来记录整个会话过程中的所有相关实体及其关联信息随着会话的发展知识库也会随之扩大

除以上讨论的应用场景外,在研究领域中还有学者将 KBQA 的相关问题与 QA 领域的知识相结合,并非单纯局限于某一领域。Miller 等人(2016 年)基于 2015 年 MRC 领域的经典模型 Memory Network 提出构建 Key-Value Memory Network架构。该架构通过将 KB 中的事实三元组及文本中检测到的关键三元组以键值对的形式存储于记忆中,并应对需要多轮推理的 MRC 问题。与其说是 MRC 模型提升了 KBQA 的能力而非是说 KB 知识库协助解决了 MRC 问题?这一现象源于数据集的设计特性。因此我们不将其归类于 KBQA 领域。

三、浪潮翻涌

ACL 2019

https://www.aclweb.org/anthology/volumes/P19-1/

在这里插入图片描述

ACL (abbr. Association for Computational Linguistics)以其综合性著称,在自然语言处理领域被视为顶级会议之一。 ACL 2019共收到来自全球的研究者的投稿2,900余篇, 比上届增长约75%, 其中660篇被录用, 录用率约为22.7%。一个由[ RUC AI Box ](http://aibox.ruc.edu.cn/)创建的知识词图使用了上述660篇论文的标题生成词云(此处略)。在提交的2,900余篇论文中, 子领域排名前十的主要研究方向包括信息提取与文本挖掘(占9%)、机器翻译(8%)、机器学习(7%)、对话与交互系统(7%)以及自然语言生成(6%)。值得注意的是, 自然语言生成、语言理论、认知建模及语言心理学相关领域的论文投稿数量较往年增加了3至4倍。此外, 约有30篇论文涉及知识图谱相关的内容。值得注意的是, 尽管知识库在对话系统中扮演着重要角色, 但其投稿数量主要集中在与指令型机器人(如工厂作业机器人)及聊天型机器人相关的对话研究上,并未涉及基于知识库内容的知识抽取过程。相较于往年, 知识图谱在NLP社区内的关注度逐年下降

Saha et al. 开发了 Complex Imperative Program Induction from Terminal Rewards (CIPITR) ,基于强化学习开发出一种机制使得模型能够自动生成可执行程序;通过训练过程识别解决当前问题所需遵循的逻辑推理路径。

在这里插入图片描述

CIPITR 对 KBQA 社区的最大贡献在于,它先于其他方法跳过了弱监督数据处理阶段,并直接将问题-答案对作为训练数据,用于训练能够生成可执行程序的模型.这种做法既有优势也有不足.其优势在于,通过减少人工干预,进一步提升了模型自动化能力,从而降低了在弱监督数据处理过程中需要进行繁复 剪枝操作 的必要性;然而其不足之处在于,由于缺乏人工干预的支持,可能会导致模型倾向于产生合乎预期的答案,但却可能忽视了包含逻辑错误路径的可能性.这些路径学术界将其称为 spurious creation .有研究者专门致力于探索如何解决这类问题 (Shen et al., 2019).这篇论文是 ACL 2019 录用中唯一一篇正面挑战 SP 模型的研究,遗憾的是,在同一套 CSQA 数据集上,CIPITR 最终未能超越Shen等人在2019年上半年所创造的状态-of-the-art(SOTA)水平.

ACL 2019收录的多篇相关论文中继 Yang 等人和 Xiong 等人之后,在 KB+Text QA 主题下继而展开了研究工作,并在若干阅读理解(包括机器阅读理解)任务中取得了良好的成绩。Yang 等人提出了KT-Net系统:该系统利用注意力机制有效地从知识库中提取相关实体的嵌入表示,并将其与BERT编码相结合后输送到下游处理环节;经过实验验证,在ReCoRD和SQuAD 1.1两个基准数据集上表现优异。

在这里插入图片描述

Xiong et al. 开发了一种基于 图注意网络 的阅读器用于从知识库中提取相关实体的邻接信息;他们利用点积注意力机制将文本知识与 KB 知识融合;最后通过 biLSTM 单元对文本进行解析以获取答案

在这里插入图片描述

MRC 的模型相较于 KBQA 模型而言,在数学方法上更为注重,在可解释性方面则显得不够透明。即便是一些在我们看来似乎不合常理的搭配方式,在实际应用中也能取得不错的成效。鉴于此,在过去两年间涌现出了众多旨在提升模型解释性的策略研究,并尝试通过引入负面样本或其他检测手段来评估模型的实际能力水平。ACL 2019 上相关的研究成果也备受关注。Sydorova 等人借鉴了 Das 等人于 2017 年提出的 TextKBQA 模型架构,在深入探讨了 Attention、Local Interpretable Model-Agnostic Explanation (LIME) 和 Input Perturbation (IP) 三种模型解释性策略各自的优劣后发现, IP 方法因其在相关性评测分数上的优异表现脱颖而出, 成为了最值得推崇的选择。这一讨论话题已逐渐偏离 KBQA 的核心主题。自 Miler 等人于 2016 年首次尝试将知识库与文本结合以提升 MRC 性能以来, 相关研究仍在持续深入开展, 直至如今仍有不少研究者投身于这一领域之中。随着 BERT 系列预训练语言模型相继涌现, 大规模预训练语言模型不断涌现的现象也带动了 MRC 领域的发展态势不断向前推进, 而 SQuAD 2.0 榜单则成为了当前 NLP 领域内广受关注的重要排行榜单之一;相比之下, KBQA 领域的相关研究则相对少有 echo声存在

其他一些未被我们讨论的知识图谱论文,则主要集中在知识表示学习、图谱补全以及实体与关系间的关联研究等五个相关领域。而这些领域的分布恰好也是2019年兴起的图神经网络所占据的优势领域。其中应用最为广泛的当属图注意力网络和图卷积网络技术,在这一技术的支持下,知识表示学习(或称为知识图谱嵌入)等领域得到了显著的应用与发展。随着当前研究对图神经网络的关注度持续攀升,在自然语言处理方面的影响也将愈发显著。

AAAI 2020

https://aaai.org/Conferences/AAAI-20/wp-content/uploads/2020/01/AAAI-20-Accepted-Paper-List.pdf

AAAI (缩略形式 Association for the Advancement of Artificial Intelligence) 鉴于近年来人工智能领域的快速发展(即"人工智能领域的快速发展"),每年收到的论文投稿数量呈现翻番趋势(即"成倍增长"),因而成为近年来备受关注的顶级会议之一(即"顶会之一")。相较于其他顶级会议(即"与其他顶级会议相比"),AAAI 具有广泛的包容性(即"包罗万象"),能够接纳更多新兴事物(即"更容易接纳新鲜事物")。在2020年的年会上(即"A.AI 2020会议中),该机构共收到投稿8,800篇论文(即"投稿数量大幅攀升至8,800篇论文"),最终筛选出1,591篇高质量论文(即"收录1,591篇高质量论文"),其接受率维持在约20.6%的水平(即"接收率维持在约20.6%")。这些被接收的论文涵盖了多个研究领域(即 "涵盖多个研究领域"):其中共有38篇与知识图谱相关的内容被选中 (包括14篇关于图谱补全、13篇关于实体/关系链接、3篇关于图谱对齐、3篇关于知识表示学习、2篇涉及KBQA以及其余3篇属于其他相关领域)。

在两篇关于KBQA(知识密集型问答)的优秀作品中,Sun et al.遵循了2017年Reddy et al.的研究基础,开发了一种全新的语法架构Sketelon-based Semantic Parsing for Question Answering (SPARQA),以针对处理复杂问题时可能出现的结构性错误这一挑战进行了深入研究与解决方案的设计。

在这里插入图片描述

这篇论文继承了 KBQA 研究中经典语言学传统的研究工作。该研究通过分析问题结构划分为三个主要阶段:首先,在语法依存树的基础上识别关键信息;其次,在知识库的支持下对提取出的信息进行转换。

这篇论文 Lv et al., 2019 则属于 KB+Text QA 类的文章,并专注于解决 question-choice 对的自然语言推理(NLI)问题。研究者在识别实体后从知识库中提取三跳范围内的子图结构,并通过ElasticSearch检索维基库中的前10条匹配文本。随后将提取出的证据分为两条路径:其中一条路径与question-choice整合输入XLNet模型获取上下文表示;另一条路径则利用图卷积网络提取节点嵌入。最后两条路径融合后应用图注意力机制推断出答案。

在这里插入图片描述

该作品在知识整合方面展现出了极高的专业性,在过去两年间将各种学术研究成果进行了系统性的整合与创新应用。通过综合运用了丰富的知识体系,在大型常识类数据集上实现了SOTA级别的性能突破。就其数据特征而言,该研究并非典型的KBQA范畴所关注的对象;然而其独特的创新之处在于能够有效结合并运用结构化与非结构化文本的信息资源,在提升模型泛化能力的同时实现了显著的性能提升。

其他

可访问的NeurIPS 2019会议日程链接为:https://nips.cc/Conferences/2019/Schedule?type= Poster
可访问的ICLR 2019会议日程链接为:https://iclr.cc/Conferences/2019/Schedule?type= Poster

自1987年便始创的顶尖会议NeurIPS见证了许多人工智能领域的重大突破

由于时间关系,笔者无法继续深入研究其他顶会的KBQA相关文献;如需进一步了解,请自行查阅阅读。

四、尾声

从 vertex meeting 会议记录来看,在过去一年中(2019至2020年),KBQA 工作主要服务于其他 NLP 子任务的支持工作,并对上下游辅助环节进行优化、完善。语义解析类任务目前处于低谷阶段,期待新的研究突破。

微软小冰无疑是在这一领域的领军者。
正是凭借其亲切活泼的形象,
微软小冰则转向专注于ToB产品的开发。
目前尚未见到常识性回答能力的AI聊天机器人。
未来随着技术的进步与应用范围的扩大,
Akiba知识问答辅助系统(KBQA)在未来有望展现出更大的价值,
它将在我们的日常生活中发挥越来越重要的作用。

附录

Language to Logical Form with Neural Attention (Dong and Lapata, 2016)

研究指出

在这里插入图片描述

为了获得清晰的逻辑结构,在推理环节将一维序列架构转换成树形架构。每当解码器输出指示符<n>时,则需将后续推理流程进行分步处理,请参见下图以获取详细信息。

在这里插入图片描述

基于此,在推理时使用束优化(即束搜索算法)获取全局概率最大化的序列输出。本文因采用严谨且科学的方法论而备受关注,并成为该领域内备受瞩目的模型之一。不仅能够处理简单的知识密集型问答问题(KBQA),也能够处理复杂的长尾问题。但作者并未明确阐述其背后的逻辑机制,则使得研究者对这一方法的工作原理仍存在诸多疑问。

对话到行动:基于大规模知识库的对话式问答系统(Guo et al., 2018)

该论文主要依靠自由灵活的语法结构作为基础,并配合先进的模型技术辅助运算。通过遵循一套规范的语法体系进行论证与分析,该研究充分展现了应对大多数复杂问题的能力。

在这里插入图片描述

论文基于的数据集 CSQA 是近年来规模最大的、涉及最多复杂类型的问题数据集。其中涵盖了简单题型、逻辑推理题型、计量分析题型以及各类判断题目等。该数据集的模型均能够有效应对这些问题类型

在这里插入图片描述

逻辑表达式的完整形态也以树的形式呈现。然而本篇论文采用线性结构输出逻辑表达式的主干部分,并通过自动生成的方式从主干部分补充枝干所需内容。在结构设计上该模型依旧基于encoder-decoder架构运行其中编码器模块由双层GRU层构成解码器则采用了单向GRU设计

The Natural Language Decathlon is equivalent to a question answering framework (McCann et al., 2018)

这篇论文给人留下了深刻的印象,并整合了NLP领域近年来多个优质的研究成果。在方法论层面,则构建了一个多任务学习框架,并结合了迁移学习技术、零样本学习方法以及元学习策略。在数据维度上,则整合了十个不同细分领域的数据集,在此基础上又筛选出了一些具有代表性的基准性数据集作为支撑材料。

在这里插入图片描述

模型上综合运用了 biLSTMSeq2SeqCoattentionself-Attentionmulti-head Attention 和 **pointer网络结构技术。通过多组实验和验证实验的支撑工作,在实际应用中展现出极强的启发性。

在这里插入图片描述

回到论文本身,在试图达成这一多任务学习框架的过程中

在这里插入图片描述

参考文献

Abdulbaset Abadalghani, Mohamed Yehia Mirek Riedewald, and Gerhard Weikum. "Automatic Construction of Query Patterns in Knowledge Graphs: A Machine Learning Approach." In Proceedings of WWW '17, 2017.

Chen, Bo, Le Sun, and Xianpei Han. “从动作到语义:一种端到端的语义图生成方法”,发布于2018年的预印本研究论文(arXiv:1809.00773)

Chen et al. developed a system to parse natural language navigation instructions from observations in their study published in the Proceedings of the 15th AAAI Conference, covering pages 859–865 in 2011.

Cheng, Jianpeng, Siva Reddy, Vijay Saraswat, and Mirella Lapata. "Developing sophisticated structured natural language representations to enhance semantic parsing capabilities", arXiv preprint arXiv:1704.08387. 2017.

Christmann et al. present "Look ahead when you converse: Conversarial QA enhanced through Strategic Contextual Enlargement" at the 2019 ACM CIKM conference.

Dong, Li and Mirella Lapata. "Language to logical form with neural attention". 出版于《第54届年会论文集(长论文集)》中, 第33至43页, 2016年

Dong, Li and Mirella Lapata.‘层次化解码用于神经语义解析’. In Proceedings of the Annual Meeting of the Association for Computational Linguistics, pp. 731–742. 2018.

Dubeys et al., in their earlier work, demonstrated that their proposed framework achieves effective integration of multiple techniques to enhance question answering over knowledge graphs. They showedcases a novel approach that delivers superior performance compared to existing methods. This study appeared in the proceedings of the International Semantic Web Conference, with page numbers 108–126. It was published in the year 2018.

Hao Jianfeng, Michel Galley, 和 Li Hongsong. 《神经方法在对话人工智能中的应用》, 在《信息检索前沿》期刊第13卷第2-3期(2019年)中发表的文章为《Neural approaches to conversational ai》, 其中详细讨论了基于神经网络的对话系统开发技术及其在实际应用中的表现。

本研究的主要作者包括郭道雅(Guo Daya)、丁玉土(Duyu Tang)、南 Nian(Nan Duan)、明周明(Ming Zhou)以及尹健毅(Jian Yin)。他们的论文题为《对话至行动:基于大规模知识库的对话问答系统》("Dialog-to-Action: Conversational Question Answering Over a Large-Scale Knowledge Base"),发表于《神经信息处理进展》(Advances in Neural Information Processing Systems)这一知名会议期刊上,在第2946至2955页中进行了详细阐述。

Gupta et al.

Gupta et al. (2018) presented "TSHCNN: A Transliteration Approach for Code-Mixed Query Processing over a Knowledge Base," which was featured in the Proceedings of the Third Workshop on Computational Approaches to Linguistic Code-Switching, published by Association for Computational Linguistics, covering pages 39-50.

Herzig, Jonathan, and Jonathan Berant. "被分离出来的结构和词典对于零样本语义解析具有重要意义" ,发表于(In EMNLP 2018),第1619–1629页。年份为2018

Jia et al., "TEQUILA: A System for Temporal Question Answering Over Knowledge Bases", appeared in the proceedings of the 27th ACM International Conference on Information and Knowledge, pp. 1807-1810, 2018.

Among the authors are Jie, Zhanming, and Wei Lu. Their work titled 'Dependency-based Hybrid Trees for Semantic Parsing' was presented at the EMNLP conference in 2018, covering pages from 2431 to 2441.

Labutov等研究人员提出了一种系统性学习方法用于构建语义解析器,在《EMNLP 2018》会议论文集中详细描述了该方法的应用场景和效果。

Liang, Percy, Michael I. Jordan, and Dan Klein. “Learning dependency-based compositional semantics”. In Computational Linguistics , vol. 39(2), pp. 389–446. 2013.

Lv et al., "Graph-based reasoning over diverse external knowledge resources for common sense question answering systems", arXiv preprint arXiv:1909.05311. 2019.

The key-value memory networks are designed to directly read documents.

McCann, Bryan, Nitish Shirish Keskar, Caiming Xiong, and Richard Socher. “The Natural Language Decathlon: Multitask Learning as Question Answering”, arXiv preprint arXiv :1806.08730. 2018.

Reddy et al. explore how dependency networks can be transformed into structured representations for semantic parsing within the Transactions of the Association for Computational Linguistics.

These authors present 'Complex Program Induction for Querying Knowledge Bases in the Absence of Gold Programs' as their study, published in Transactions of the Association for Computational Linguistics, Volume 7, spanning pages 185–200, in the year 2019.

Shen et al. (2019) present a study titled "Multi-Task Learning for Conversation-based Question Answering within a Large-Scale Knowledge Repository", published in the arXiv preprint repository as arXiv:1910.05069.

Yikang Shen, Shawn Tan, Alessandro Sordoni, and Aaron Courville. Ordered Neurons: A Study on Integrating Tree Structures into Recurrent Neural Networks. Preprint on arXiv:1810.09536, 2018.

Suhr, Alane, Srinivasan Iyer, and Yoav Artzi developed a method to align sentences with contextual dependencies to executable formal query structures in their 2018 arXiv preprint titled "Learning to map context-dependent sentences to executable formal queries".

Sukhbaatar et al. introduced the concept of end-to-end memory networks within the journal Advances in neural information processing systems, publishing their work on pages 2440–2448 in the year 2015.

Sun, Yawei, Lingling Zhang, Gong Cheng, and Yuzhong Qu. “SPARQA: A Skeleton-Based Approach for Semantic Parsing of Complex Questions in Knowledge Bases”, arXiv preprint arXiv, 2023.

Sыdорова, Алона, Нина Поенер, и Бенджамин Рот. "Meaningful Query Processing on Data Bases and Information Sources." arXiv preprint arXIV:1906.10924. 2019.

Vlachos et al., Andreas and Stephen Clark propose a novel approach in their work titled "A corpus developed in this study and a learning-based framework for context-dependent semantic parsing", published within Transactions of the Association for Computational Linguistics, Vol. 2, pages 547–559 in the year 2014

Xiao, Chunyang, Marc Dymetman, and Claire Gardent have contributed to "Sequential-based structured prediction techniques" within their work on semantic parsing. This research is cited in the proceedings of the Association for Computational Linguistics' 54th Annual Meeting as part of a volume dedicated to long papers covering pages 1341 through 1350.

Enhancing Question Answering in the Context of Incomplete Knowledge Bases Using a Knowledge-Aware Reader

Yang, An, Quan Wang, Jing Liu, Kai Liu, Yajuan Lyu, Hua Wu, Qiaoqiao She, and Sujian Li. “提升预训练语言表示的能力基于丰富的知识以促进机器阅读理解.” 出自《计算语言学协会第57届年会论文集》,其中讨论了...》

Zelle and Mooney presented "Acquisition of Query Parsing Skills via Inductive Logic Programming" at the Association for the Advancement of Artificial Intelligence (AAAI) conference, publishing their work in 1996 on pages 1050–1055.

Zettlemoyer, Luke S., et al. “Learning context-sensitive mappings from sentence to logical structure”, In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP , pp. 976-984. 2009.

Zhong, Victor, Caiming Xiong, and Richard Socher. “Seq2SQL: Creating Structured Queries from Natural Language Employing Reinforcement Learning”, arXiv preprint arXiv, 2017.

全部评论 (0)

还没有任何评论哟~