REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

随着大语言模型在检索增强生成(RAG)系统中的广泛应用,一个日益突出的性能问题浮出水面:上下文窗口的持续扩展导致首个token生成延迟呈二次方增长,严重制约了系统的实时响应能力。传统RAG流程虽然简单直接——将查询编码为向量,从向量数据库中检索相似文本块,然后完整输入给LLM处理——但这种方法存在显著效率缺陷。大多数检索到的文本块包含大量无关内容,迫使LLM处理远超实际需求的token数量,这不仅浪费计算资源,还增加了延迟和上下文成本。

最近,Meta研究团队发布的REFRAG框架揭示了RAG系统的一个关键特征:跨段落注意力计算中高达99%的部分都是无效的。这一发现为性能优化提供了新的理论依据。REFRAG通过创新的压缩策略,成功实现了30.85倍的首token生成加速,同时保持了模型的准确性,为解决RAG性能瓶颈提供了切实可行的方案。

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

REFRAG的核心技术方案与传统RAG有着本质区别。传统方法直接将检索到的原始token输入生成模型,而REFRAG采用了一种分层处理策略:首先将上下文划分为固定大小的块,然后使用轻量级编码器(如RoBERTa)生成压缩的块嵌入,接着将这些嵌入与查询token一起输入解码器,最后通过强化学习策略选择性地展开重要的块。这种设计巧妙地将注意力计算的复杂度从token数量级降低到块数量级,在16倍压缩率下实现了16.53倍的加速,同时性能比现有方法提升了9.3%。

那么这和传统的重排器有何本质区别呢?

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

普通的带重排功能的RAG管道中,重排器仅仅在文本层面对块进行重新排序或修剪,并不改变输入LLM的表示形式。LLM仍然需要接收顶部几个块的完整文本,一个token都不能少。而REFRAG是在嵌入层面进行压缩、过滤和替换操作。它不让LLM消耗每个块的所有token嵌入,而是用一个压缩嵌入代表一个块,让强化学习策略动态决定哪些块值得扩展成完整形式。更重要的是,REFRAG将相关性过滤移到了LLM的表示空间,而不仅仅是检索空间。LLM本身被训练去理解压缩后的嵌入,并基于这些压缩表示进行推理,这从根本上改变了信息处理的方式。

研究团队在深入分析RAG系统注意力机制时,发现了一个重要特征:检索段落之间的注意力呈现明显的块对角结构。段落内部的token相互关注度很高,但跨段落的注意力几乎为零。这种稀疏性为压缩优化提供了坚实的理论基础。通过利用这种注意力模式,REFRAG能够在不损失关键信息的前提下大幅减少计算量。

在训练方法上,团队采用了课程学习策略。模型首先学习重建单个块,然后逐步增加到多个块。这种渐进式训练对于模型掌握压缩能力至关重要,使模型能够逐步适应从简单到复杂的压缩任务。此外,强化学习策略能够动态决定哪些内容块需要完整展开,实现了压缩率的自适应调整,使系统能够根据具体任务需求灵活调整处理策略。

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

在多个基准测试中,REFRAG展现了稳定的性能提升。在RAG任务中,在相同延迟条件下,性能比LLaMA提升1.22%(使用强检索器)到1.93%(使用弱检索器)。在多轮对话场景中,由于能够通过压缩保留更多历史上下文,在对话轮数增加时优势更加明显。在文档摘要任务中,REFRAG能够在同等计算预算下处理更多内容,显著提升了长文档处理的效率。

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

从工程落地角度来看,REFRAG还需要一些配套工作。为了增加跨查询复用,压缩后的块嵌入可以预先计算并存储在向量数据库中,支持跨查询复用。这种“随处压缩”的能力使其特别适合多轮对话和智能体应用场景。为了增加可解释性,需要解释哪些压缩上下文影响了最终答案。压缩管道需要有与检索系统类似的溯源机制,存储块哈希和版本信息,确保输出的可追溯性。同时,虽然强化学习策略提供了更好的性能,但固定压缩率的版本在实际部署中可能更加稳定可靠,特别是在对确定性要求较高的生产环境中。

REFRAG的成功表明,针对特定应用场景的优化十分有必要。就RAG系统而言,理解并利用其特有的注意力稀疏性,比笼统扩大上下文窗口更加有效。这种方法不仅解决了当前RAG系统的性能瓶颈,还为未来大模型在长上下文处理方面的优化提供了新的思路。随着大语言模型应用场景的不断扩展,类似REFRAG这样针对特定问题设计的优化方案将变得越来越重要,它们能够在保持模型性能的同时,显著提升系统的效率和实用性。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/8931

(0)
上一篇 2025年10月16日 下午2:53
下一篇 2025年10月17日 下午12:01

相关推荐

  • 熵平衡革命:AEPO算法如何破解智能体强化学习的探索-稳定困境

    在智能体强化学习(Agentic RL)的快速发展浪潮中,如何在探索潜力与训练稳定之间取得精妙平衡,已成为制约多轮智能体性能提升的核心瓶颈。传统的熵驱动式智能体强化学习方法虽然通过在高不确定性节点触发分支探索来提升推理路径的多样性,但这种依赖单一熵信号的机制在实践中暴露出显著缺陷:过度追求探索往往导致训练过程剧烈震荡,甚至引发策略熵坍塌,使智能体陷入局部最优…

    2025年11月1日
    7500
  • 2025年智能体框架格局:从协同作战到产业落地的全景透视

    2025年智能体框架已从技术概念演进为驱动各行业的基础生产力工具,其核心在于通过多元架构与协同生态实现复杂任务的自主化与智能化。

    2025年10月15日
    24501
  • 算力融合:破解具身智能落地瓶颈,英特尔酷睿Ultra如何实现大小脑一体化

    近期,俄罗斯人形机器人“艾多尔”在演示中踉跄倒地,特斯拉Optimus因反应迟缓遭质疑,1X机器人演示被曝依赖远程操控——这些事件暴露出具身智能从实验室走向实际应用的艰难处境。业内人士普遍认为,许多演示高度依赖人工干预,大量机器人连稳定站立和基础操作都难以实现,在工业场景中执行简单任务(如插拔接口或贴膜)仍面临巨大挑战。英特尔在与数十家具身智能团队深入交流后…

    2025年11月24日
    8200
  • 无界动力获5亿天使融资:具身智能赛道迎来技术-产业双栖领军者

    近日,具身智能领域迎来重磅融资消息——新创公司无界动力宣布完成累计超5亿元的天使轮融资,由红杉中国、线性资本领投,高瓴创投、地平线、华业天成等多家顶级机构跟投。这一融资事件不仅刷新了该赛道早期融资纪录,更因其创始人张玉峰独特的产业背景与团队配置,引发了业界对具身智能商业化路径的深度思考。 从技术演进视角看,具身智能正从实验室概念迈向产业化临界点。无界动力提出…

    2025年11月10日
    8300
  • Cursor 2.0 正式发布:自研模型 Composer 与多智能体协作界面同步上线

    Cursor 2.0 正式发布,推出自研编码模型 Composer 及多智能体并行协作界面。Composer 在编码智能上达到前沿水平,生成速度达每秒 250 个 token,为同类模型的四倍,支持低延迟交互式编程。新版本界面以智能体为中心,支持多任务并行处理,并优化了代码评审与测试流程。此次更新标志着 Cursor 从依赖第三方模型的“AI 外壳”转型为“AI 原生平台”。

    2025年10月30日
    60900

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注