REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

随着大语言模型在检索增强生成(RAG)系统中的广泛应用,一个日益突出的性能问题浮出水面:上下文窗口的持续扩展导致首个token生成延迟呈二次方增长,严重制约了系统的实时响应能力。传统RAG流程虽然简单直接——将查询编码为向量,从向量数据库中检索相似文本块,然后完整输入给LLM处理——但这种方法存在显著效率缺陷。大多数检索到的文本块包含大量无关内容,迫使LLM处理远超实际需求的token数量,这不仅浪费计算资源,还增加了延迟和上下文成本。

最近,Meta研究团队发布的REFRAG框架揭示了RAG系统的一个关键特征:跨段落注意力计算中高达99%的部分都是无效的。这一发现为性能优化提供了新的理论依据。REFRAG通过创新的压缩策略,成功实现了30.85倍的首token生成加速,同时保持了模型的准确性,为解决RAG性能瓶颈提供了切实可行的方案。

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

REFRAG的核心技术方案与传统RAG有着本质区别。传统方法直接将检索到的原始token输入生成模型,而REFRAG采用了一种分层处理策略:首先将上下文划分为固定大小的块,然后使用轻量级编码器(如RoBERTa)生成压缩的块嵌入,接着将这些嵌入与查询token一起输入解码器,最后通过强化学习策略选择性地展开重要的块。这种设计巧妙地将注意力计算的复杂度从token数量级降低到块数量级,在16倍压缩率下实现了16.53倍的加速,同时性能比现有方法提升了9.3%。

那么这和传统的重排器有何本质区别呢?

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

普通的带重排功能的RAG管道中,重排器仅仅在文本层面对块进行重新排序或修剪,并不改变输入LLM的表示形式。LLM仍然需要接收顶部几个块的完整文本,一个token都不能少。而REFRAG是在嵌入层面进行压缩、过滤和替换操作。它不让LLM消耗每个块的所有token嵌入,而是用一个压缩嵌入代表一个块,让强化学习策略动态决定哪些块值得扩展成完整形式。更重要的是,REFRAG将相关性过滤移到了LLM的表示空间,而不仅仅是检索空间。LLM本身被训练去理解压缩后的嵌入,并基于这些压缩表示进行推理,这从根本上改变了信息处理的方式。

研究团队在深入分析RAG系统注意力机制时,发现了一个重要特征:检索段落之间的注意力呈现明显的块对角结构。段落内部的token相互关注度很高,但跨段落的注意力几乎为零。这种稀疏性为压缩优化提供了坚实的理论基础。通过利用这种注意力模式,REFRAG能够在不损失关键信息的前提下大幅减少计算量。

在训练方法上,团队采用了课程学习策略。模型首先学习重建单个块,然后逐步增加到多个块。这种渐进式训练对于模型掌握压缩能力至关重要,使模型能够逐步适应从简单到复杂的压缩任务。此外,强化学习策略能够动态决定哪些内容块需要完整展开,实现了压缩率的自适应调整,使系统能够根据具体任务需求灵活调整处理策略。

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

在多个基准测试中,REFRAG展现了稳定的性能提升。在RAG任务中,在相同延迟条件下,性能比LLaMA提升1.22%(使用强检索器)到1.93%(使用弱检索器)。在多轮对话场景中,由于能够通过压缩保留更多历史上下文,在对话轮数增加时优势更加明显。在文档摘要任务中,REFRAG能够在同等计算预算下处理更多内容,显著提升了长文档处理的效率。

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

从工程落地角度来看,REFRAG还需要一些配套工作。为了增加跨查询复用,压缩后的块嵌入可以预先计算并存储在向量数据库中,支持跨查询复用。这种“随处压缩”的能力使其特别适合多轮对话和智能体应用场景。为了增加可解释性,需要解释哪些压缩上下文影响了最终答案。压缩管道需要有与检索系统类似的溯源机制,存储块哈希和版本信息,确保输出的可追溯性。同时,虽然强化学习策略提供了更好的性能,但固定压缩率的版本在实际部署中可能更加稳定可靠,特别是在对确定性要求较高的生产环境中。

REFRAG的成功表明,针对特定应用场景的优化十分有必要。就RAG系统而言,理解并利用其特有的注意力稀疏性,比笼统扩大上下文窗口更加有效。这种方法不仅解决了当前RAG系统的性能瓶颈,还为未来大模型在长上下文处理方面的优化提供了新的思路。随着大语言模型应用场景的不断扩展,类似REFRAG这样针对特定问题设计的优化方案将变得越来越重要,它们能够在保持模型性能的同时,显著提升系统的效率和实用性。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/8931

(0)
上一篇 2025年10月16日 下午2:53
下一篇 2025年10月17日 下午12:01

相关推荐

  • 本周GitHub热门开源项目盘点:从AI视频编程到多智能体协作,开发者必看!

    01 编程的方式做视频 Remotion 是一个允许你使用 React 以编程方式创建视频的开源项目。它将视频制作过程转化为编写代码的过程,与传统的视频剪辑软件截然不同。 该项目利用 HTML、CSS、SVG、Canvas 和 WebGL 等标准 Web 技术来生成视频画面,并通过编程逻辑(如循环、变量和 API 数据获取)来控制动画和内容的生成,其核心亮点…

    2026年1月25日
    50100
  • 解码AI时代红利:从技术突破到产业协同的多元路径分析

    在人工智能技术快速演进的当下,科技创新红利已成为驱动经济增长和社会变革的核心动力。近期一场汇聚学界与产业界精英的高端对话,从多维视角深入剖析了AI时代红利的释放机制与实现路径。本文将从技术基础、产业转化、协同创新及全球化布局四个维度,系统解析科技创新红利的深层逻辑与实践策略。 技术突破是红利释放的原始驱动力。当前,以大模型为代表的AI技术正掀起新一轮科技革命…

    2025年11月11日
    35700
  • 突破GPU瓶颈:d-PLENA NPU架构实现扩散大模型采样2.53倍加速

    关键词:dLLMs、NPU、采样优化、d-PLENA、GEMM 扩散型大语言模型(dLLM)是一种融合了扩散模型迭代去噪特性的大语言模型,可实现并行 Token 生成。但其采样阶段展现出与以通用矩阵乘法(GEMM)为核心的 Transformer 层截然不同的计算特征。 Beyond GEMM-Centric NPUs: Enabling Efficient…

    2026年2月10日
    36600
  • Claude Code团队实战揭秘:10个AI编程效率倍增技巧

    Claude Code创始人Boris Cherny近期公开了团队内部使用这款AI编程工具的完整经验。这些建议源于真实的开发场景,其中一些做法甚至与Boris本人的习惯有所不同。 1. 并行处理:同时启动多个工作区 同时启动3-5个独立的git工作树,每个运行一个独立的Claude会话。团队认为这是最大的生产力提升点。虽然Boris本人更倾向于使用多个git…

    2026年2月3日
    67900
  • 商汤医疗:以“医疗世界模型”重构智慧医院,半年融资10亿的AI医疗新范式

    在AI技术加速渗透医疗领域的当下,商汤医疗作为商汤集团“1+X”战略生态的核心延伸,在短短半年内累计融资规模已达10亿元,迅速跻身准独角兽行列。这一成绩不仅彰显了资本市场对AI医疗赛道的信心,更揭示了以“医疗世界模型”为核心的技术架构正在重塑智慧医院的未来图景。 商汤医疗的AI体系采用“通专融合”的技术路线,其核心是自研的医疗大语言模型“大医®”。这一模型在…

    2025年12月2日
    45900

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注