【论文阅读】 Asking Complex Questions with Multi-hop Answer-focused Reasoning
Asking Complex Questions with Multi-hop Answer-focused Reasoning
论文:Asking Complex Questions with Multi-hop Answer-Centric Reasoning
代码:https://github.com/Shawn617/Multi-hop-NQG
任务
multihop question generation
大部分现有的先进方法主要关注于涉及单步关系的简单问题。
本论文提出了一个多步推理模型,并命名为Multi-hop Problem Generation。
该模型通过识别文档集合中的多个实体及其语义关联性,并结合对应答案的信息来生成一系列复杂且相关的查询项。
示例:

方法(模型)
multi-hop answer-focused reasoning model
本文着重探讨了围绕以答案为中心的实体图展开多跳推理研究,在这一过程中涵盖了不同粒度级别的语义信息涉及实体的词级特征以及文档级别的语义关联情况。
基于提取文档中各实体间的丰富语义关联类型构建answer-centric entity graph的实体图结构,并促进多轮推理过程的实现
Methods
(i) answer-focused document encoding.
(ii) multi-hop answer-centric reasoning.
(iii) aggregation layer, ultimately offering an answer-centric and enhanced contextualized framework.
模型结构:

Answer-focused Document Encoding
以答案为中心的文档编码
Document Encoding
级联处理文本与标题
X =\{X_0^{text}, X_0^{title}, ..., X_I^{text}, X_I^{title}\}
单层双向LSTM网络被用作编码器以生成文档表示。
H = [h_1, h_2, ..., h_m]\in R^{M∗D}
h_i= LSTM_{enc}(x_i, h_{i−1})
Gated Self-attention Layer
文档表示对上下文表示存在一定的限制性,在这种情况下,我们通过gated self-attention层和Bi-GRU模型来提取h_i的上下文表示。
a^i_k= exp(d^i_k)/\sum^n_{j=1}exp(d^i_j)
o_i= \sum ^n _{k=1}a^i_kh_k
W_d, W_v,W^{'}_v是可训练的权重。
Answer Gating Mechanism
基于目标导向的文档表示方法进行授权模型学习。
经sigmoid函数过滤后,仅传递与目标相关的语义信息至下游多步推理模块。
其中, H^a= \{\hat h^a_i\}_{i=1}^{M} 表示第i个与目标相关的语义向量集合;h^a_i= σ(a(W_a\hat h_i)) * \hat h_i 表示第i个与目标相关的语义特征向量。
a:第一个答案词的隐藏状态。
W_a:是可训练权重。
Multi-step answer-guided reasoning for grounding an answer-centric entity graph
以答案为中心的实体图表示为:G = {V, E}
V:表示不同级别的实体节点。
E:表示带有不同语义关系的节点之间的边。
将完全匹配的不停词,命名实体,答案和标题视为节点。
上下文表示的不同粒度级别:
- 通过精确匹配的实体节点,在特定文档的上下文中对单词层次和本地向量表达进行编码。
- 标题节点能够体现文档级语义特征。
- 答案节点不仅能够生成图推理过程中的答案感知表示,还能在跨文档场景中构建全局级别的表征模型。
节点之间边的定义:
- 建立精确匹配的专有名词间的关联关系。
- 创建跨文档及内部停用词(如"歌手"、"词曲作者")之间的关联网络。
- 实现互相关联的共指代项之间的直接联系。
- 将主题节点与同一篇文档中的各个关键术语联系起来。
- 通过密集链接主题节点之间的关系。
- 将答案元素作为中心点与图中其余元素建立联系。
示例:


Multi-hop Reasoning with RGCN
使用GNN-based model进行多跳推理。——RGCN
经过L层推理后,最多可以捕获到L跳关系。
Aggregation Layer
在通过可学习的layer-wise权重进行有选择性地集成每个RGCN层输出以及生成答案感知文档表示的基础上进行计算得到最终的答案感知上下文表示。
在每层中, 答案节点表示形式与 LSTM 模型的最后一个隐藏状态结合在一起, 并通过这种结合方式从而生成更加精确的文档级以及整体级别的表示形式.
Decoder
当初始隐藏状态设定为s_0 = z时,在解码阶段采用单向LSTM架构用于生成问题序列。具体而言,在基于上一步生成的词以及前一时刻的隐藏状态基础上更新当前时刻的状态值。针对词汇表规模过小的问题
在编码器的每一个步骤中进行操作时,在每一阶段都会进行概率计算以确定随后依据注意力矩阵进行输入文档中的词句复制行为或是由具有softmax功能的输出层生成来自词汇表中的特定词项。
数据集
HOTPOTQA
放弃所有标记为'comparison'类别的问题,并仅从文档集中选取标注为'supporting facts'的文本。
因为无法访问原始"testing dataset"的数据,
我们将训练集与开发集合并后进行随机划分,
分为训练集、开发集和测试集
性能水平
实验结果:

本文所提出的基于多轮问答机制的推理系统在评估指标上优于传统方法。该系统通过在以回答为核心的实体图中引入细粒度的回答视角以及精确定义实体间语义关联度,在编码阶段实现了更精确的信息提取与表达。这种优化使得解码器能够更好地理解和生成高质量的回答内容。

DecompRC模型基于本文提出的方法生成相关问题,并在处理问题方面超越了人工提出的方案。
DecompRC在不同生成问题上的性能明显地体现了生成问题的质量以及模型的多跳推理能力,并且其表现直接显示出了系统处理复杂推理任务的能力。
结论
以答案为核心构建的多跳推理模型的设计是基于它们之间的丰富语义关联来实现对与答案相关的实体进行识别并提取的过程。
本文通过识别文档中的多个实体及其语义关系,并构建这些实体之间的联系模型,在给定文档集合和相应答案之间展开查询。 为了解决上述问题,在回答中心的知识图谱中提取关键语义信息并基于不同粒度层次的多跳推理方法进行分析研究。 实验结果表明,在机器评估与人工评估两个维度上均取得了令人满意的成果。
