华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率

华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率

在大模型的多种应用形态中,执行专业功能的行业Agent,无疑是提升生产效率、实现价值创造的利器。

然而,千行百业包含着大量的私域知识、专家经验和工具使用逻辑,使得智能体的行业应用构建存在各类门槛。

为了提升开发效率,业界提出了诸如Skills、OpenClaw等优秀的工程框架,使得专业Agent的开发门槛日益降低,也让针对Agent应用的多维度算法优化需求愈发凸显。

在此背景下,华为诺亚方舟实验室近期在官网更新了面向行业应用的算法包MindScale。这一项目融合了实验室的算法创新基因与华为行业智能化业务实践经验,系统性梳理了Agent时代将“大模型”转化为“生产力”的算法技术挑战,并给出了对应的技术论文昇腾代码实现,为行业用户与开发者提供了直接的“上手指南”。

华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率

制约行业Agent发展的四大核心挑战

在MindScale项目中,研究人员识别了在行业普及Agent应用的四大挑战:

  • 工作流手工维护:依赖专家将业务规则“翻译”为Agent工作流;
  • 历史知识复用难:历史推理路径与反馈无法有效使Agent系统自演进;
  • 训推效率瓶颈:大量模型部署与迭代需求叠加思考路径变长,成本压力陡升;
  • 复杂推理测评:多步、多工具交织推理,单精度指标无法准确反映模型效果。

实现工作流自进化与提示词自动化闭环

为了应对这些挑战,诺亚的研究人员与多所合作单位一道,给出了自己的解决方案。

例如,面向行业Agent开发中最常见的工作流 (Workflow) 开发场景,算法包中包含了自进化的Agent算法EvoFabric。与手动提取工作流高度依赖专家经验不同,使用SOP2Workflow可以快速从自然语言文档与历史工具库,直接生成可执行的Workflow。

华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率 由用户书写的网页功能测试SOP→自动生成的整个Workflow

为了实现这样灵活的Workflow生成,研究人员采用了基于状态图引擎内核的Agent实现,原生支持混编Agent、工具等多种图节点,支持状态的改写和分组融合处理,实现多智能体、多工具、多记忆形态的深度混编。图引擎还支持DSL文件的导入与导出,实现复杂智能流程的快速复制、迁移与部署。

同时,该算法框架还可以实现基于记忆的演进——在多轮执行时,记忆模块利用轨迹记忆以及当时的评估结果形成经验优化上下文,实现Agent越用越好。

另一个有趣的功能,是让模型开始自己进行“prompt优化”

首先,基于前期已经先行发布的prompt在线优化算法SCOPE,开发者可以实现在每步推理之间进行prompt在线优化,通过注入萃取历史路径中的有效信息实现提示词的快速优化,在HLE和GAIA等agentic reasoning的场景里可以取得20%以上的精度提升。

此外,研究人员还提出了“大模型prompt优化器”C-MOP,通过创新的样本选取与梯度更新策略,解决了“文本梯度”的冲突问题,实现了基于正负例反馈的prompt自动优化,真正做到了“反馈 -> 演进”的prompt优化闭环。

华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率 C-MOP:融合正误双向样本感知与时序动量梯度的提示词优化

榨干算力潜能并适配国产硬件生态

除了精度提升,MindScale也注重面向行业场景模型的训推效率优化。

例如,其中的TrimR用一个已预训练、指令微调的轻量验证器在线检测并截断无用中间思路,全程无需微调大模型或验证器,并配套工业级异步在线系统,适配大并发生产场景。在MATH、AIME、GPQA等基准与多款LRM上,TrimR在几乎不影响准确率的前提下,将推理时延显著降低,大并发场景最高可达约70%提速,实现实际应用场景中的Test Time Scaling。

华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率 TrimR:工业级思维链动态压缩算法框架

此外,为了适配行业场景高并发的推理压力,MindScale还提供了新的基于KV Cache的推理方案。与通用方案中KV Cache只是用来加速解码的“幕后工具”不同,研究人员提出KV-Embeddings,把KV Cache视作一种“免费附赠”的轻量表示,无需额外计算或存储完整隐状态,可以在链式表示推理 (Chain-of-Embedding) 和快慢思考切换等关键场景中,基于多款主流模型上实现性能持平或反超专用embedding模型,同时将生成token数最高减少5.7倍

这些结果表明——KV Cache不只是加速器,更是一块尚未被充分利用的“思考缓存”,为大模型推理阶段的表示复用打开了新的想象空间。

此外,诺亚方舟实验室与相关合作团队还在任务记忆、Agentic RAG、通用算法发现框架等多个方向上,沉淀了大量经过实战检验的、围绕行业智能优化的创新算法技术架构。同时,MindScale还包含了适配昇腾硬件的代码实现,可以让开发者基于国产算力构建高精度、高效的行业Agent。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/21234

(0)
上一篇 6小时前
下一篇 3小时前

相关推荐

  • AI Ping:清华系AI Infra重塑大模型API服务秩序,评测路由双机制破解黑盒焦虑

    中国版 OpenRouter + Artificial Analysis,让每一枚 Token 都能流向它最该去的地方。 大模型 API 服务的「黑盒」焦虑 Clawdbot 的病毒式裂变,仿佛是一年前 Manus 的魅影重现。同样一夜之间站上风口,同样点燃了无数开发者对「泼天富贵」的想象,也顺手把 Token 烧成了新的「硬通货」。 一组数据更具体地揭示了…

    2026年2月2日
    11600
  • DualCamCtrl:双分支扩散模型革新视频生成,几何感知让相机运动误差降低40%

    本研究的共同第一作者是来自香港科技大学(广州)EnVision Research 的张鸿飞(研究助理)和陈康豪(博士研究生),两位研究者均师从陈颖聪教授。 你的生成模型真的「懂几何」吗? 当前众多视频生成模型虽宣称具备「相机运动控制」能力,但其控制信号通常仅依赖于相机位姿。近期工作虽通过逐像素射线方向(Ray Condition)编码了运动信息,但由于模型仍…

    2025年12月21日
    11300
  • 如何使用 Knowledge Graph 和 LLM 构建构建问答系统

    基于模拟 FAQ 文档构建的知识图谱 本文将介绍一个基于知识图谱(使用上一篇文章介绍的方法构建)和大型语言模型(LLM,此处使用 Gemma3-4b-it-qat)的简易问答系统。选择 Gemma3-4b 是因为其模型尺寸适中,可在普通笔记本电脑上运行,且具备出色的指令遵循能力。 我们将以一个虚构智能手机产品的 FAQ 文本为例,复用上一篇文章的代码为其构建…

    2025年11月13日
    10100
  • OpenAI核心工程师翁家翌深度揭秘:ChatGPT是意外引爆,Infra修Bug速度决定模型公司生死线

    “ChatGPT 并不是 OpenAI 精心策划出来的。” “Agent 和 RL 后训练本质上是一回事。” 在发布前,OpenAI 内部甚至做好了“几天后就关掉”的心理准备;最初的目标,只是收集一点真实用户数据。那时没有人预料到,它会在几天内引爆整个世界,更没人能提前画出那条指数级增长的曲线。 而这场“意外爆炸”的背后,其实只是来自一个12人的 “RL T…

    2026年1月23日
    14900
  • LangChain创始人深度解析:AI智能体沙盒架构的两种核心模式与安全实践

    AI智能体需要执行代码、安装软件包、访问文件,这些操作必须在与主机系统隔离的工作空间中进行,以防止访问敏感凭证、文件或网络资源。沙盒提供了这种必要的隔离。 LangChain创始人Harrison Chase近期分析了AI智能体与沙盒集成的架构问题,指出目前存在两种核心架构模式:智能体在沙盒内运行,或者智能体在外部运行、将沙盒作为工具调用。 模式一:智能体在…

    1天前
    700