清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统

首个基于 MCPRAG 框架 UltraRAG:零代码构建多模态检索增强生成系统

UltraRAG 是一个基于 MCP 的开源检索增强生成框架,旨在让用户无需编写代码即可构建复杂的 RAG 系统。

RAG 系统通过让 AI 模型先检索相关信息再生成答案,从而显著提高回答的准确性。

清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统

UltraRAG 是由清华大学 THUNLP、东北大学 NEUIR、OpenBMB 等机构联合推出的开源项目,其核心设计极大地简化了复杂 RAG 系统的构建与测试流程。

开源项目简介

清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统
该项目的核心思路是将 RAG 的核心组件封装为标准化的独立 MCP Server,提供函数级的 Tool 接口以支持灵活调用。通过 MCP 客户端建立简洁的链路,用户只需编写 YAML 配置文件即可声明复杂逻辑,大幅降低了技术门槛。
清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统

最新的 2.1 版本围绕以下三大核心方向进行了全面升级:

① 原生多模态
统一框架支持文本与图像的检索与生成,新增的 VisRAG Pipeline 实现了从 PDF 到多模态问答的闭环。内置的多模态 Benchmark 覆盖视觉问答等任务,并提供统一的评估体系,方便研究者快速对比实验效果。

② 知识接入与语料构建自动化
支持 Word、电子书、网页存档等多种格式文档的自动解析与分块,无需编写复杂脚本即可构建统一格式的知识库。在 PDF 解析方面,集成了 MinerU 工具,能够高保真还原复杂版面与多栏结构,并支持将 PDF 按页转换为图像,保留视觉布局信息。
清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统

③ 统一工作流
通过 YAML 配置驱动检索、生成、评估全流程,支持多种引擎与可视化分析,有效提升了实验复现效率。

项目资源:
* 代码仓库:https://github.com/OpenBMB/UltraRAG
* 教程文档:https://ultrarag.openbmb.cn/
* 数据集:https://modelscope.cn/datasets/UltraRAG/UltraRAG_Benchmark

实际效果

以下是基于 UltraRAG 搭建的 RAG 系统的实际应用示例。

案例一:基于论文《Attention is All You Need》提问
问题:论文中的表 4 具体说了什么,请帮忙解释一下。

AI 能够直接解析表格内容并给出清晰的回答。
清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统
这得益于 2.0 版本后框架能统一处理文本和图像数据。上传的 PDF 文档不仅能读取文字,还能分析其中的图表和公式,实现真正的多模态检索与生成,避免了以往需要切换不同工具的麻烦。

案例二:基于麦肯锡报告《生成式人工智能的经济潜力》提问
问题:请基于报告内容,输出生成式 AI 最有潜力的企业职能有哪些?并请结合图表和正文说明它们在组织生产力中的影响。

清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统

如何使用

UltraRAG 支持两种部署方式。

第一种是使用 Conda 创建虚拟环境:
清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统

第二种是通过 Docker 部署:
清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统

部署完成后,即可基于 UltraRAG 运行一个完整的 RAG Pipeline,主要流程包括以下三个阶段:
1. 编写 Pipeline 配置文件
2. 编译 Pipeline 并调整参数
3. 运行 Pipeline

具体操作可参考详细的官方快速入门文档:https://ultrarag.openbmb.cn/pages/cn/getting_started/quick_start

整个过程无需编写代码,仅需配置一个 YAML 文件。项目还内置了 Case Study Viewer 界面,可对运行结果进行交互式浏览与分析。
清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统
清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/15935

(0)
上一篇 2025年11月19日 下午2:03
下一篇 2025年11月19日 下午6:20

相关推荐

  • Ruby 4.0重磅发布:ZJIT编译器革新与原生隔离环境,开启性能与安全新纪元

    Ruby 4.0重磅发布:ZJIT编译器革新与原生隔离环境,开启性能与安全新纪元 在Ruby语言迎来30周年之际,全新的4.0版本为开发者带来了重磅更新。本次更新引入了隔离命名空间、全新的JIT编译器,并对Ractor API进行了重新设计,标志着这款开源语言在性能与安全方面迈入了新纪元。 Ruby是一种开源的面向对象脚本语言,由日本人松本行弘于20世纪90…

    2025年12月28日
    17800
  • OpenClaw引爆机器人革命:宇树机器人首次拥有时空感知能力,开源世界迎来“天网时刻”?

    全球开源机器人社区,被一条最新动态引爆。 视频中,一台搭载了OpenClaw系统的宇树人形机器人在房间内移动。它通过LiDAR激光雷达、双目摄像头和RGB相机感知环境,并将所有传感器数据输入一个系统。 随后,前所未有的情况发生了:这台机器人开始理解空间和时间。它不仅知道房间、人和物体的位置,还知道事件在何时发生。 研发团队将这种能力称为“空间智能体记忆”(S…

    2026年3月6日
    64100
  • AI舆情分析神器BettaFish:多智能体协作打破信息茧房,24小时生成深度报告

    看今天的 GitHub 开源热榜,一个名为 BettaFish 的开源项目登顶了。这个又名“微舆”的项目,定位为一个人人可用的多智能体舆情分析助手,旨在帮助用户打破信息茧房、还原舆情原貌、预测未来走向并辅助决策。 简单来说,它将多个 AI 智能体组织在一起,各司其职,通过模拟专业团队协作的方式来处理复杂的舆情分析任务。使用它,你可以洞察各大媒体平台上对特定品…

    2025年11月6日
    18400
  • 中国团队突破空间智能核心技术:InSpatio-WorldFM开源实时3D世界模型,开启AI物理交互新纪元

    AI领域最前沿的方向“世界模型”,正在经历一场深刻变革。 互联网上,虚拟智能体在数字世界中灵活穿梭;现实中,具身机器人却仍受困于试验场,难以应对复杂的物理空间。这道横跨虚拟与现实的鸿沟,其核心在于智能体对空间智能感知的缺失。 2024年,空间智能这一关键赛道被正式点燃,成为全球科技竞争的焦点。其中,构建一个拥有永久一致性的3D场景,让智能体不仅能“看见”空间…

    2026年3月6日
    36500
  • 开源3天斩获7000星!复刻Manus工作流的GitHub项目引爆Agent开发圈

    这个名为 planning-with-files 的开源项目近期在 Agent 开发社区引发了高度关注,其核心在于通过文件系统来管理 AI 的长期记忆与复杂任务规划。项目开源仅数日,便在 GitHub 上获得了数千星标。 它演示了如何利用 Claude Code Skill 实现与 Manus 产品理念相似的上下文工程工作流。 Manus 的上下文工程原则 …

    2026年1月12日
    19700