Advertisement

2024年RAG关键技术大盘点(1月—4月)

阅读量:

2024年,检索增强生成(Retrieval-Augmented Generation, RAG) 已成为生成式AI领域最热门的技术之一。它不仅弥补了大模型“遗忘性强、幻觉严重”的短板,更在企业级应用、代码生成、金融风控、法律检索等场景中展现出巨大潜力。

在这一年,RAG的技术栈迎来了哪些关键突破?本文会以时间为顺序盘点2024年1月到4月内RAG领域的关键技术突破。

1月

GraphReader:增强大模型长文本处理能力

论文:2406.14550

简介: 提出了一种名为GraphReader的图结构代理系统,旨在增强大型语言模型(LLMs)处理长文本的能力。该系统首先将长文本分割成离散的部分,提取关键信息,构建包含关键元素和原子事实的图结构。代理通过预定义的函数自主探索该图,逐步从粗略信息深入到详细内容。在探索过程中,代理持续记录新的见解,并根据当前情况进行反思,以优化信息收集过程,直到获取足够的信息来生成答案。

MM-RAG:多模态检索增强生成

简介: MM-RAG(Multimodal Retrieval-Augmented Generation,多模态检索增强生成)是一种结合检索和生成的多模态任务处理方法。它主要通过检索不同模态的数据(如文本、图像、音频等)来增强生成模型的能力,提升模型对多样化输入的理解和生成质量。

MM-RAG的基本原理包括两部分:检索模块生成模块 。首先,模型通过检索模块从外部数据库中获取与输入任务相关的多模态信息(如图像描述、文本上下文等)。这些检索到的内容为生成模块提供额外的上下文支持。然后,生成模块根据输入和检索到的信息,通过生成算法产生合理的输出。

这种方法的优势在于,它能够充分利用大规模外部知识库的丰富信息,避免了模型过度依赖内部知识或训练数据的限制,从而提高了生成内容的准确性和多样性。MM-RAG在多模态问答、跨模态搜索、图像生成等任务中表现出色,尤其是在需要多种模态协同作用的复杂场景中,如生成带有详细描述的图像或通过文本指导图像生成等。

CRAG:引入校正机制的新型增强生成框架

论文:2401.15884

简介:提出了一种新型的增强生成框架,旨在提高生成模型在复杂任务中的表现。核心思想是结合检索和生成的优势,通过对检索内容进行校正和优化,提升生成质量。这是一种校正机制,它通过引入额外的纠错步骤,自动修正检索到的内容。具体而言,模型在检索过程中获取相关信息后,会通过一个“校正模块”对信息进行修改和筛选,确保这些信息更准确和相关。校正后的信息再传递给生成模块,从而生成更为精确的输出。

RAPTOR:改善树结构检索任务中的信息处理效果的新方法

论文:2401.18059

简介: 论文提出了一种新的方法,旨在改善树结构检索任务中的信息处理效果,名为RAPTOR (Recursive Abstractive Processing for Tree-Organized Retrieval)。该方法结合递归抽象处理和树结构检索,以提高从复杂数据结构中检索信息的质量和效率。


2月

T-RAG:树状检索增强生成

论文:2402.07483

简介: 提出了一种基于Transformer架构的检索增强生成模型——T-RAG,旨在解决生成式模型在处理复杂任务时缺乏外部知识的问题。T-RAG结合了检索和生成,通过从外部文档库中检索相关信息来增强生成过程,从而生成更准确和上下文相关的内容。论文总结了在大规模语言模型应用中的关键经验教训,指出检索的质量直接影响生成结果,生成和检索的平衡至关重要,且多轮交互的检索和反馈机制能够有效提升生成质量。实验结果表明,T-RAG在问答系统和对话生成等任务中优于传统生成模型,特别是在需要外部知识支持的任务中表现出色。T-RAG的创新在于将检索增强生成与Transformer架构结合,通过多轮检索和生成反馈机制提高了模型的适应性和生成效果,提供了检索增强生成方法的新思路。

3月

RAT:检索增强思维引发长时程生成中的上下文感知推理

论文:2403.05313

简介: 提出了RAT(Retrieval Augmented Thoughts)模型,旨在解决长篇生成任务中对上下文信息的有效利用和推理问题。该模型通过结合检索与生成,增强了模型在处理长时间跨度或复杂任务时的推理能力。RAT在生成过程中引入了“检索增强思维”机制,通过动态检索与当前任务相关的信息,并将其作为思考过程的一部分,以提供更具上下文感知的推理。这样,模型不仅依赖于初始输入,还能持续调整并利用外部信息,改善生成过程中的逻辑连贯性和准确性。实验结果表明,RAT在长时程生成任务中表现优于传统生成模型,尤其在推理复杂性较高的任务中,能够显著提升生成质量和推理深度。RAT的核心创新在于通过检索增强生成中的思维过程,使得模型能够更加智能地进行上下文感知推理,从而提升了长时程生成任务的表现。

RAFT:将语言模型适配到特定领域的检索增强生成

论文:2403.10131

简介: 提出了一种名为RAFT(Domain-Specific Retrieval-Augmented Generation Adaptation for Language Models)的方法,旨在将语言模型(LM)有效适应特定领域的检索增强生成(RAG)任务。该论文指出,通用语言模型在面对特定领域的任务时,往往无法充分利用领域相关知识,导致生成内容不准确或不相关。为了解决这个问题,RAFT通过在训练过程中引入领域特定的检索信息,调整模型的生成机制,使得生成的内容不仅能够从检索中获取外部知识,还能根据特定领域的需求进行优化。这种领域适配方法使得语言模型能够更好地处理特定领域的任务,如法律文书、医疗文献等,提升了生成的准确性和相关性。实验结果表明,RAFT在多个领域特定任务上比传统的RAG模型表现更加优秀。

RAE:用于多跳问答的检索增强型语言模型知识编辑

论文:Retrieval-enhanced Knowledge Editing in Language Models for Multi-Hop Question Answering

简介: 研究了如何在语言模型中进行知识编辑,以提升其在多跳问答(Multi-Hop QA)任务中的表现。多跳问答要求模型跨越多个相关信息点进行推理,而传统语言模型在知识更新和推理过程中常面临信息过时或推理链断裂的问题。该论文提出了一种检索增强的知识编辑方法,使得模型可以动态检索和编辑外部知识库中的信息,从而提升其对复杂、多步推理问题的解答能力。实验表明,该方法在准确性、一致性和适应新知识的能力上均优于传统方法,尤其在需要多层推理的问答任务中表现更佳。这项研究为增强语言模型的知识可塑性和推理能力提供了新的方向。


HippoRAG:受神经生物学启发的大语言模型长期记忆机制

论文:2405.14831

项目:https://github.com/OSU-NLP-Group/HippoRAG

简介: 提出了一种受神经生物学启发的长期记忆机制,旨在增强大语言模型(LLM)的知识存储和持续学习能力。传统的检索增强生成(RAG)方法依赖外部数据库进行实时检索,但缺乏类似人脑的长期记忆能力,导致在长期交互和知识积累方面存在局限。HippoRAG 借鉴海马体(hippocampus)的记忆存储机制,构建了一种层次化的长期记忆系统,使模型能够有效存储、检索和更新长期知识,而无需频繁依赖外部检索。实验表明,该方法显著提升了模型在长期知识保留、推理一致性和上下文理解方面的能力,为构建更智能、更持久的 AI 记忆系统提供了新思路。

Adaptive-RAG:通过问题复杂度自适应调整检索增强大语言模型

论文:2403.14403

项目:https://github.com/starsuzi/Adaptive-RAG

简介:提出了一种名为 Adaptive-RAG 的方法,旨在根据问题的复杂度动态调整检索增强生成(RAG)模型的检索和生成策略。传统 RAG 方法在面对不同复杂度的问题时通常采用固定的检索流程,可能导致简单问题过度检索、复杂问题信息不足的问题。Adaptive-RAG 通过一个自适应学习机制,让模型根据问题的复杂度决定检索的深度、范围以及生成策略,从而在保证生成质量的同时提高效率。实验表明,该方法在问答和推理任务中表现优于传统 RAG,尤其在处理高复杂度问题时更能有效平衡检索和生成的资源分配,为 RAG 模型的智能适配提供了新的方向。

4月

GraphRAG:从局部到全局的查询式摘要方法

论文:2404.16130

项目:https://github.com/microsoft/graphrag

简介: 提出了一种名为GraphRAG的检索增强生成(RAG)方法,用于查询式摘要任务。传统的RAG方法主要基于局部检索和生成,可能会忽略不同检索片段之间的全局关系,导致生成的摘要缺乏整体连贯性和深度。GraphRAG 通过构建基于图(Graph-based)的信息结构,将检索到的文档片段组织成一个全局知识图,以捕捉它们之间的语义关系和逻辑关联,从而更好地支持跨文档推理和信息整合。实验表明,GraphRAG 在查询相关性、信息覆盖率和生成质量方面优于传统方法,特别适用于需要整合多个信息源的复杂查询式摘要任务。这项研究为提升检索增强生成模型的全局信息整合能力提供了新的思路。

RAGCache:用于检索增强生成的高效知识缓存

论文:RAGCache: Efficient Knowledge Caching for Retrieval-Augmented Generation

简介: 提出了一种名为 RAGCache 的方法,旨在提高检索增强生成(RAG)模型的效率和响应速度。传统 RAG 依赖于实时检索外部知识库,但频繁的检索会带来计算开销和延迟问题。RAGCache 通过引入高效的知识缓存机制,存储常见查询及其检索结果,减少重复检索的开销,从而加速生成过程。该方法利用查询相似性匹配和动态缓存更新策略,确保缓存内容始终保持高效和相关性。实验表明,RAGCache 在多个 RAG 任务中显著降低了检索成本,同时保持了生成质量,为在实际应用中部署高效的检索增强生成模型提供了新方案。

总结

2024年1月到4月,检索增强生成(RAG)技术在多个核心方向上取得了重要进展,主要体现在效率优化、长期记忆、自适应能力和多模态扩展等方面。效率优化方面 ,如 RAGCache 提出了高效的知识缓存机制,减少重复检索的开销,提高响应速度。长期记忆方面HippoRAG 借鉴神经生物学原理,引入类海马体的长期记忆存储,使大语言模型具备更强的知识积累和持久学习能力。自适应检索方面Adaptive-RAG 通过问题复杂度自适应调整检索策略,提升不同任务场景下的检索与生成效率。此外,GraphRAGRAFT 等研究进一步优化了查询式摘要和领域适配能力,使 RAG 能更精准地整合跨文档或领域知识。同时,多模态 RAG(如 MM-RAG)拓展了文本以外的检索能力,提升了模型在图像、音频等多模态任务中的适应性。总体来看,RAG 正朝着更加高效、智能、自适应和多模态融合的方向发展,为更复杂和长期依赖知识的 AI 任务奠定了基础。

后面会继续盘点2024年5月开始的关键技术突破。

关于我

我是程序员“塞大花”,深耕技术,也热衷于观察和吐槽职场生态。我会分享行业技术、编程技巧、AI 领域的前沿动态,以及程序员职场的生存之道。

欢迎关注,一起探索技术与职场的边界!我的和知乎账号都是“塞大花”,微信公众号“程序员非正规指南”。

全部评论 (0)

还没有任何评论哟~