RAG性能暴增20%!清华等推出以笔记为中心的深度检索增强生成框架

在当前大语言模型(LLMs)广泛应用于问答、对话等任务的背景下,如何更有效地结合外部知识、提升模型对复杂问题的理解与解答能力,成为 RAG(Retrieval-Augmented Generation)方向的核心挑战。

来自清华大学、中国科学院大学、华南理工大学、东北大学、九星(AI9Stars)的联合研究团队提出了一项全新的适应式RAG方法——DeepNote

它首次引入“笔记(Note)”作为知识载体,实现更深入、更稳定的知识探索与整合,在所有任务上均优于主流RAG方法,相较于基础RAG性能提升高达+20.1%。即使在使用中小参数量模型时,依然展现出强大的能力与泛化性。

RAG性能暴增20%!清华等推出以笔记为中心的深度检索增强生成框架

研究动机:RAG 为何仍力不从心?

RAG技术通过引入外部知识(如 Wikipedia)来缓解大模型的幻觉与事实错误问题。然而,Vanilla RAG方法只支持一次性检索。

想象一个问题需要跨越多个实体或事实推理,显然“一问一检索一答”的 Vanilla RAG 已远远不够。这种知识不足现象特别是在具有复杂的知识需求的multi-hop QA、long-form QA 等任务中尤为严重。

为了应对这些复杂问答场景,一些研究提出多轮检索RAG。然而,多轮检索RAG往往不假思索地执行多次检索,易引入大量无关或噪声段落,导致检索结果冗杂,从而降低最终回答的质量。

为了进一步构建有效且灵活的RAG系统,一些近期的工作提出自适应RAG,它引入动态决策机制,允许模型根据反馈判断是否继续检索。但自适应RAG方法仍存在以下两个核心问题:

  • 检索-生成耦合过紧:
  • 每次检索后立即生成答案,导致模型只能依据“当前轮”的知识作答,无法真正整合前后信息;
  • 检索策略决策不足:
  • 大模型自行判断“是否继续检索”容易偏离真正的知识需求,漏掉关键信息。

这些问题最终都导致一个核心困境:缺乏“信息生长”的能力——模型既无法感知自己是否“学到了新东西”,也无法真正“记住”与“利用”之前获取的信息。

解决方案:DeepNote

为解决上述难题,团队提出了DeepNote,一种以“笔记”为中心、以“知识生长”为目标的深度检索增强生成框架。其关键特性是:用“记下的知识”引导检索,用“最优笔记”生成答案

RAG性能暴增20%!清华等推出以笔记为中心的深度检索增强生成框架

DeepNote主要包含三个阶段:

笔记初始化(Note Initialization)

系统基于初始问题和初次检索内容构建出一份笔记,用于启动整个知识积累过程。该笔记是 LLM 自主整理的结构化知识表示,作为后续所有检索与判断的依据。

基于笔记的适应式检索(Note-Centric Adaptive Retrieval)

系统使用当前“最佳笔记”生成下一轮检索查询,并评估新获取内容是否带来了真正的知识增益。只有当模型判断新知识“有价值”时,才会更新笔记并继续下一轮;否则终止检索。这一机制确保每一轮检索都有明确目标、每一份信息都在“生长”。

基于最佳笔记的答案生成(Note-Informed Answer Generation)

最终,系统使用已积累的“最佳笔记”生成回答,确保答案来源清晰、内容完整、逻辑连贯。
这一设计模拟了人类解决复杂问题时的策略:边查边记、反复比对、直至知识充分。

DeepNote与主流方法对比

为了更直观地展现DeepNote的特点,团队整理了与现有代表性方法的能力对比表:

RAG性能暴增20%!清华等推出以笔记为中心的深度检索增强生成框架

  • 多次检索:是否支持多次检索。
  • 自适应检索:是否能根据当前信息动态地决定是否需要执行进一步的检索动作以及检索什么。
  • 模型训练:是否对不同阶段进行了针对性训练或偏好优化。
  • 一次性知识总结:是否在检索后执行一次性检索知识总结。
  • 迭代知识总结:是否支持在多轮检索中多次更新、积累、总结知识。

可以看到,DeepNote是目前唯一在自适应检索控制、自适应知识积累与更新、模型优化三大核心维度上同时实现系统性突破的方法。这一框架不仅填补了自适应检索与知识积累之间的空白,更在具有复杂知识需求的任务中展现出前所未有的探索深度和广度,标志着自适应RAG技术迈入了一个新的阶段

实验结果:显着超越现有方法

在五个具有代表性的QA数据集上进行实证评估,涵盖:

  • 多跳问答(复杂):HotpotQA, 2WikiMQA, MusiQue
  • 长形式问答 (复杂):ASQA
  • 短形式问答 (简单):StrategyQA

结果显示,DeepNote在所有任务上均优于主流RAG方法,相较于基础 RAG,性能提升高达+20.1%。即使在使用中小参数量模型时,依然展现出强大的能力与泛化性。

RAG性能暴增20%!清华等推出以笔记为中心的深度检索增强生成框架

同时团队还构建了一个高质量训练数据集DNAlign,并结合DPO(Direct Preference Optimization)对模型进行精细优化,进一步提升了DeepNote在多任务流程下的指令遵循能力与表现。

核心结论与意义

DeepNote核心优势分析如下

真正实现“信息生长”:

每轮检索不是独立的“抽样”,而是建立在已有知识基础上的持续拓展;

信息密度显着提升:

相比传统RAG,DeepNote的参考内容更紧凑、相关性更高;

RAG性能暴增20%!清华等推出以笔记为中心的深度检索增强生成框架

Reference”指最终用于生成回答的检索内容或笔记;其中,与回答问题直接相关的片段被标注为“Evidence”;而“Knowledge Density”则衡量Evidence在Reference中所占比例,用以评估知识的精炼程度。

在知识密度与性能分析中,团队系统考察了不同RAG方法对知识密度和质量的影响。实验结果表明,Vanilla RAG检索文档篇幅冗长但其知识密度较低,存在大量噪声信息;而初始笔记虽然能够通过单次总结有效提升知识密度,但其性能提升主要来自于检索内容总体长度的缩减,且由于知识总量下降,可能会出现性能下降现象。相比之下,DeepNote在保持高知识密度的同时,显着提升了整体性能,表明基于笔记的自适应检索机制能够在降低噪声干扰的同时,持续积累更加丰富、精炼且高相关度的知识,为最终生成提供了更坚实的信息支撑。

支持自适应停止与深度控制:

用户可设定失败阈值和最大步数,自由权衡探索深度与成本;

RAG性能暴增20%!清华等推出以笔记为中心的深度检索增强生成框架

高通用性:

可搭配多种开源或闭源模型及检索器,适用于多种实际任务场景。

该方法不仅适用于学术研究中对复杂信息的深入问答,还可用于法律、医学、教育等对准确性与知识整合要求极高的真实场景,具备广泛的落地潜力。

本项目由清华大学自然语言处理实验室(THUNLP)、中国科学院大学信息工程研究所、华南理工大学、东北大学等单位共同完成,欢迎感兴趣的研究者和开发者前来交流!

论文地址:https://arxiv.org/abs/2410.08821
开源项目: https://github.com/thunlp/DeepNote

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/9561.html

(0)
人脑网的头像人脑网
上一篇 2025年4月29日 下午3:28
下一篇 2025年4月29日 下午3:28

相关推荐

  • 轻松健康集团高玉石:AI产品和用户走得够近才能挖到新需求中

    当AI垂直落地健康领域,企业如何做出特色产品? 在轻松健康集团技术副总裁高玉石的最新分享中,我们抓到了一个核心关键词:用户。 在他看来,虽然当前用户对AI的接受度越来越高了,但用户也变得越来越理性了。 这意味着,以前只要产品有趣好用,用户或许都愿意尝试一下。而现在,产品是否能在场景中有效满足用户需求、是否形成了有效的壁垒和技术优势、是否解决了用户的核心痛点,…

    2025年4月23日
    800
  • 整整157页,比尔盖茨亲自公开微软起家的源代码:Altair Basic

    一段时隔整整50年的源代码,更是让微软这家科技巨头起家的源代码,正式被公开了—— Altair Basic,整整157页,由比尔盖茨亲自撰文发布。 在文章的开头,比尔盖茨对于这段代码做了这样的高度总结: 毕竟涉及Basic这门古早编程语言,以及个人计算机的发展源头,网友们在看到比尔盖茨的分享之后,也是感慨不已。 有人这样点评到: 也有与现在AI大模型结合的感…

    2025年4月6日
    1900
  • 拜拜邀请码!首个现货超级智能体实测

    和邀请码、内测说拜拜,百度95后年轻小团队以内部创业形式,30天肝出了个“手机端Manus”现货。 主打「一站式」解决各种复杂问题,彻底改变AI手机助手“一问一答,用户需逐步引导AI给出期望答案”的模式。 话不多说,来看栗子。 让它为上班久坐的宝子们制定一份减脂计划,只需输入极短的prompt,就能轻松get整套精美定制化方案: 饮食模块、运动模块、行为干预…

    2025年4月26日
    200
  • 质量无损,算力砍半!达摩院视觉生成新架构出道即SOTA|ICLR2025

    算力砍半,视觉生成任务依然SOTA! 达摩院在ICLR 2025上抛出的DyDiT架构:通过时间步长与空间区域的智能资源分配,将DiT模型的推理算力削减51%,生成速度提升1.73倍,而FID指标几乎无损! 更惊人的是,这一突破仅需3%的微调成本。 该方法通过引入动态化调整机制,可精准削减视觉生成任务中50%的推理算力,有效缓解传统扩散模型的计算冗余问题,相…

    2025年4月25日
    500
  • 不用等R2了!第三方给新版DeepSeek V3添加深度思考

    DeepSeek即将发布R2??坊间传闻越来越多了,且难辨真假。 1.2T万亿参数,5.2PB训练数据,高效利用华为芯片……只能说如果有一半是真的都很牛了。 HuggingFace创始人此时推荐“以不变应万变”,打开官方认证账号的更新提醒,就能第一时间获取通知。 抛开具体泄露数据是否准确,大家似乎有一个共识:如果真的有R2,它的基础模型会是新版DeepSee…

    2025年4月29日
    300

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信