REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

随着大语言模型在检索增强生成(RAG)系统中的广泛应用,一个日益突出的性能问题浮出水面:上下文窗口的持续扩展导致首个token生成延迟呈二次方增长,严重制约了系统的实时响应能力。传统RAG流程虽然简单直接——将查询编码为向量,从向量数据库中检索相似文本块,然后完整输入给LLM处理——但这种方法存在显著效率缺陷。大多数检索到的文本块包含大量无关内容,迫使LLM处理远超实际需求的token数量,这不仅浪费计算资源,还增加了延迟和上下文成本。

最近,Meta研究团队发布的REFRAG框架揭示了RAG系统的一个关键特征:跨段落注意力计算中高达99%的部分都是无效的。这一发现为性能优化提供了新的理论依据。REFRAG通过创新的压缩策略,成功实现了30.85倍的首token生成加速,同时保持了模型的准确性,为解决RAG性能瓶颈提供了切实可行的方案。

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

REFRAG的核心技术方案与传统RAG有着本质区别。传统方法直接将检索到的原始token输入生成模型,而REFRAG采用了一种分层处理策略:首先将上下文划分为固定大小的块,然后使用轻量级编码器(如RoBERTa)生成压缩的块嵌入,接着将这些嵌入与查询token一起输入解码器,最后通过强化学习策略选择性地展开重要的块。这种设计巧妙地将注意力计算的复杂度从token数量级降低到块数量级,在16倍压缩率下实现了16.53倍的加速,同时性能比现有方法提升了9.3%。

那么这和传统的重排器有何本质区别呢?

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

普通的带重排功能的RAG管道中,重排器仅仅在文本层面对块进行重新排序或修剪,并不改变输入LLM的表示形式。LLM仍然需要接收顶部几个块的完整文本,一个token都不能少。而REFRAG是在嵌入层面进行压缩、过滤和替换操作。它不让LLM消耗每个块的所有token嵌入,而是用一个压缩嵌入代表一个块,让强化学习策略动态决定哪些块值得扩展成完整形式。更重要的是,REFRAG将相关性过滤移到了LLM的表示空间,而不仅仅是检索空间。LLM本身被训练去理解压缩后的嵌入,并基于这些压缩表示进行推理,这从根本上改变了信息处理的方式。

研究团队在深入分析RAG系统注意力机制时,发现了一个重要特征:检索段落之间的注意力呈现明显的块对角结构。段落内部的token相互关注度很高,但跨段落的注意力几乎为零。这种稀疏性为压缩优化提供了坚实的理论基础。通过利用这种注意力模式,REFRAG能够在不损失关键信息的前提下大幅减少计算量。

在训练方法上,团队采用了课程学习策略。模型首先学习重建单个块,然后逐步增加到多个块。这种渐进式训练对于模型掌握压缩能力至关重要,使模型能够逐步适应从简单到复杂的压缩任务。此外,强化学习策略能够动态决定哪些内容块需要完整展开,实现了压缩率的自适应调整,使系统能够根据具体任务需求灵活调整处理策略。

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

在多个基准测试中,REFRAG展现了稳定的性能提升。在RAG任务中,在相同延迟条件下,性能比LLaMA提升1.22%(使用强检索器)到1.93%(使用弱检索器)。在多轮对话场景中,由于能够通过压缩保留更多历史上下文,在对话轮数增加时优势更加明显。在文档摘要任务中,REFRAG能够在同等计算预算下处理更多内容,显著提升了长文档处理的效率。

REFRAG:突破RAG性能瓶颈,利用注意力稀疏性实现30倍加速

从工程落地角度来看,REFRAG还需要一些配套工作。为了增加跨查询复用,压缩后的块嵌入可以预先计算并存储在向量数据库中,支持跨查询复用。这种“随处压缩”的能力使其特别适合多轮对话和智能体应用场景。为了增加可解释性,需要解释哪些压缩上下文影响了最终答案。压缩管道需要有与检索系统类似的溯源机制,存储块哈希和版本信息,确保输出的可追溯性。同时,虽然强化学习策略提供了更好的性能,但固定压缩率的版本在实际部署中可能更加稳定可靠,特别是在对确定性要求较高的生产环境中。

REFRAG的成功表明,针对特定应用场景的优化十分有必要。就RAG系统而言,理解并利用其特有的注意力稀疏性,比笼统扩大上下文窗口更加有效。这种方法不仅解决了当前RAG系统的性能瓶颈,还为未来大模型在长上下文处理方面的优化提供了新的思路。随着大语言模型应用场景的不断扩展,类似REFRAG这样针对特定问题设计的优化方案将变得越来越重要,它们能够在保持模型性能的同时,显著提升系统的效率和实用性。


关注“鲸栖”小程序,掌握最新AI资讯

本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/8931

(0)
上一篇 2025年10月16日 下午2:53
下一篇 2025年10月17日 下午12:01

相关推荐

  • 2025人工智能年度盘点:开源竞速、Agent崛起与产业融合的共生纪元

    2025年,人工智能领域迎来了前所未有的技术爆发与产业融合。这一年,开源与闭源模型的双线竞速、AI Agent的规模化应用、世界模型的商业化落地以及具身智能的全面渗透,共同勾勒出一幅“共生无界”的智能未来图景。 **开源与闭源的边界消融** 2025年初,DeepSeek-R1的横空出世为全年技术叙事定下基调。这款模型不仅在参数规模上实现突破,更在推理效率、…

    2025年12月10日
    300
  • 从破折号到数据源:ChatGPT标点偏好背后的AI训练数据溯源

    近期,OpenAI首席执行官山姆·奥特曼亲自宣布ChatGPT修复了过度使用破折号的问题,这一看似细微的更新引发了广泛关注。为何一个标点符号的调整能成为AI领域的热点事件?这背后折射出的是大语言模型训练数据、人类反馈强化学习(RLHF)机制以及AI文本生成“数字指纹”等深层次议题。 破折号在ChatGPT输出中的泛滥,已成为用户识别AI生成文本的显著标志。在…

    2025年11月16日
    300
  • DeepSeek研究员陈德里乌镇首秀:从AI乐观到社会隐忧的深度思辨

    在浙江乌镇举行的世界互联网大会上,备受瞩目的「杭州六小龙」首次同台亮相。阿里云创始人王坚院士亲自主持,宇树创始人及CEO王兴兴、强脑科技创始人及CEO韩璧丞、群核科技创始人及董事长黄晓煌、游戏科学创始人及CEO、《黑神话:悟空》制作人冯骥、云深处科技创始人及CEO朱秋国等悉数落座。 然而,在「杭州六小龙」中最为引人注目的DeepSeek,其创始人及CEO梁文…

    2025年11月15日
    200
  • 科大讯飞星火X1.5:从“更聪明”到“更懂你”的国产AI新范式

    在人工智能技术快速迭代的今天,大模型的能力边界正被不断拓展,参数规模和基准测试成绩一度成为行业竞争的焦点。然而,当技术门槛逐渐被拉平,单纯追求“更聪明”的AI已难以形成持久的竞争优势。科大讯飞在第八届世界声博会暨2025全球1024开发者节上,给出了一个清晰的答案:AI的进化方向应从“能力至上”转向“体验优先”,核心在于构建“更懂你”的智能体。 这一理念并非…

    2025年11月6日
    200
  • 【重磅爆料】AI 圈又要热闹了!多款大模型即将扎堆上线

    Claude 4.5与Gemini 3即将发布,但焦点在DeepSeek。其V3.2版本疑似官方预热,而十月将至的V4版本则被曝将实现1M上下文长度、GRPO Turbo多步思考及更高推理效率等重大升级。

    2025年10月1日
    16101

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注