华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率

华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率

在大模型的多种应用形态中,执行专业功能的行业Agent,无疑是提升生产效率、实现价值创造的利器。

然而,千行百业包含着大量的私域知识、专家经验和工具使用逻辑,使得智能体的行业应用构建存在各类门槛。

为了提升开发效率,业界提出了诸如Skills、OpenClaw等优秀的工程框架,使得专业Agent的开发门槛日益降低,也让针对Agent应用的多维度算法优化需求愈发凸显。

在此背景下,华为诺亚方舟实验室近期在官网更新了面向行业应用的算法包MindScale。这一项目融合了实验室的算法创新基因与华为行业智能化业务实践经验,系统性梳理了Agent时代将“大模型”转化为“生产力”的算法技术挑战,并给出了对应的技术论文昇腾代码实现,为行业用户与开发者提供了直接的“上手指南”。

华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率

制约行业Agent发展的四大核心挑战

在MindScale项目中,研究人员识别了在行业普及Agent应用的四大挑战:

  • 工作流手工维护:依赖专家将业务规则“翻译”为Agent工作流;
  • 历史知识复用难:历史推理路径与反馈无法有效使Agent系统自演进;
  • 训推效率瓶颈:大量模型部署与迭代需求叠加思考路径变长,成本压力陡升;
  • 复杂推理测评:多步、多工具交织推理,单精度指标无法准确反映模型效果。

实现工作流自进化与提示词自动化闭环

为了应对这些挑战,诺亚的研究人员与多所合作单位一道,给出了自己的解决方案。

例如,面向行业Agent开发中最常见的工作流 (Workflow) 开发场景,算法包中包含了自进化的Agent算法EvoFabric。与手动提取工作流高度依赖专家经验不同,使用SOP2Workflow可以快速从自然语言文档与历史工具库,直接生成可执行的Workflow。

华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率 由用户书写的网页功能测试SOP→自动生成的整个Workflow

为了实现这样灵活的Workflow生成,研究人员采用了基于状态图引擎内核的Agent实现,原生支持混编Agent、工具等多种图节点,支持状态的改写和分组融合处理,实现多智能体、多工具、多记忆形态的深度混编。图引擎还支持DSL文件的导入与导出,实现复杂智能流程的快速复制、迁移与部署。

同时,该算法框架还可以实现基于记忆的演进——在多轮执行时,记忆模块利用轨迹记忆以及当时的评估结果形成经验优化上下文,实现Agent越用越好。

另一个有趣的功能,是让模型开始自己进行“prompt优化”

首先,基于前期已经先行发布的prompt在线优化算法SCOPE,开发者可以实现在每步推理之间进行prompt在线优化,通过注入萃取历史路径中的有效信息实现提示词的快速优化,在HLE和GAIA等agentic reasoning的场景里可以取得20%以上的精度提升。

此外,研究人员还提出了“大模型prompt优化器”C-MOP,通过创新的样本选取与梯度更新策略,解决了“文本梯度”的冲突问题,实现了基于正负例反馈的prompt自动优化,真正做到了“反馈 -> 演进”的prompt优化闭环。

华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率 C-MOP:融合正误双向样本感知与时序动量梯度的提示词优化

榨干算力潜能并适配国产硬件生态

除了精度提升,MindScale也注重面向行业场景模型的训推效率优化。

例如,其中的TrimR用一个已预训练、指令微调的轻量验证器在线检测并截断无用中间思路,全程无需微调大模型或验证器,并配套工业级异步在线系统,适配大并发生产场景。在MATH、AIME、GPQA等基准与多款LRM上,TrimR在几乎不影响准确率的前提下,将推理时延显著降低,大并发场景最高可达约70%提速,实现实际应用场景中的Test Time Scaling。

华为MindScale算法架构升级:行业Agent实现工作流自进化与提示词自动化,KV Cache优化提升5.7倍效率 TrimR:工业级思维链动态压缩算法框架

此外,为了适配行业场景高并发的推理压力,MindScale还提供了新的基于KV Cache的推理方案。与通用方案中KV Cache只是用来加速解码的“幕后工具”不同,研究人员提出KV-Embeddings,把KV Cache视作一种“免费附赠”的轻量表示,无需额外计算或存储完整隐状态,可以在链式表示推理 (Chain-of-Embedding) 和快慢思考切换等关键场景中,基于多款主流模型上实现性能持平或反超专用embedding模型,同时将生成token数最高减少5.7倍

这些结果表明——KV Cache不只是加速器,更是一块尚未被充分利用的“思考缓存”,为大模型推理阶段的表示复用打开了新的想象空间。

此外,诺亚方舟实验室与相关合作团队还在任务记忆、Agentic RAG、通用算法发现框架等多个方向上,沉淀了大量经过实战检验的、围绕行业智能优化的创新算法技术架构。同时,MindScale还包含了适配昇腾硬件的代码实现,可以让开发者基于国产算力构建高精度、高效的行业Agent。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/21234

(0)
上一篇 2026年2月12日 下午3:39
下一篇 2026年2月12日 下午6:50

相关推荐

  • 搜索革命:从信息检索到AI协同伙伴——深度解析百度猎户座如何重塑人机交互范式

    在数字信息爆炸式增长的今天,传统搜索引擎的局限性日益凸显。用户不再满足于简单的关键词匹配和网页链接列表,而是渴望更智能、更人性化的信息获取体验。这一需求推动着搜索技术从“检索工具”向“智能伙伴”的深刻转型。百度最新推出的猎户座系统,正是这一转型浪潮中的标志性产物,它基于多智能体框架,整合了百度25年的搜索技术积累、行业专业能力和MCP服务生态,旨在构建一个能…

    2025年11月14日
    21900
  • 数学圣殿IPAM获五年续命资金:陶哲轩奔走呼吁背后的美国科研危机

    近日,菲尔兹奖得主陶哲轩在社交媒体上宣布,加州大学洛杉矶分校(UCLA)的纯数学与应用数学研究所(IPAM)已获得美国国家科学基金会(NSF)2025年至2030年的五年资助。这一消息标志着这座被誉为“数学圣殿”的研究机构暂时避免了关门危机,但陶哲轩同时指出,这笔资金相较于上一轮周期大幅缩水,距离正常运转仍有缺口。 IPAM成立于2000年,作为NSF资助的…

    2025年12月3日
    22100
  • 工信部2025新政:新型互联网交换中心如何重塑算力网络与数据流通格局?

    工业和信息化部办公厅正式印发《关于加快推进国家新型互联网交换中心创新发展的指导意见》(工信厅信管〔2025〕67号,以下简称《指导意见》),明确提出要加快构建国家新型互联网交换中心(以下简称“交换中心”)网络体系、深化应用创新、健全监管制度,推动交换中心成为支撑新质生产力发展、建设网络强国和数字中国的核心基础设施。 这一政策的落地,标志着我国新型互联网交换中…

    AI产业动态 2026年2月20日
    22300
  • SimKO算法突破RLVR探索困境:实现大模型推理中探索与利用的平衡

    在DeepSeek-R1、Kimi1.5等模型相继展示强化学习对大型语言模型复杂推理能力的显著提升后,可验证强化学习(RLVR)在数学、逻辑与编程等领域的应用已成为研究热点。然而,现有RLVR方法在提升模型pass@1性能的同时,却导致pass@K(K>1)性能下降,这一矛盾现象揭示了当前强化学习范式的根本缺陷。 **RLVR的探索困境:概率分布的过度…

    2025年11月8日
    20600
  • OpenAI挖角英特尔首席AI官:算力军备竞赛下的巨头人才争夺战

    今天,人工智能领域的格局再次因一次关键人事变动而震动——英特尔首席技术官兼首席AI官Sachin Katti宣布离职,并正式加入OpenAI,负责构建面向通用人工智能(AGI)的算力基础设施。这一事件不仅揭示了OpenAI在算力布局上的战略野心,也暴露了传统芯片巨头英特尔在AI转型中的深层困境。 从技术背景来看,Sachin Katti的加入对OpenAI具…

    2025年11月11日
    21200