近期,俄罗斯人形机器人“艾多尔”在演示中踉跄倒地,特斯拉Optimus因反应迟缓遭质疑,1X机器人演示被曝依赖远程操控——这些事件暴露出具身智能从实验室走向实际应用的艰难处境。业内人士普遍认为,许多演示高度依赖人工干预,大量机器人连稳定站立和基础操作都难以实现,在工业场景中执行简单任务(如插拔接口或贴膜)仍面临巨大挑战。英特尔在与数十家具身智能团队深入交流后发现,机器人的“能跑会跳”与“能在产线可靠工作”之间存在显著鸿沟。

阻碍机器人踏入生产一线的核心原因之一,在于算力平台的局限性。在2025年英特尔技术创新与产业生态大会上,训练数据、应用场景及架构问题被广泛讨论,但算力平台被反复强调为具身智能落地的关键瓶颈。当前主流的人形机器人采用“大脑+小脑”架构:大脑负责深思熟虑,运行LLM、VLM、CNN等多模态模型进行环境感知与决策;小脑则专注于实时控制,如3D定位、机械臂操控和步态调整,控制频率需达500Hz~1000Hz。随着动作生成模型、多模态感知与大模型推理的叠加,算力需求呈指数级增长。一位与会嘉宾指出:“即使采用其他行业芯片,达到100~200 TOPS稀疏算力,仍不足以应对复杂工业场景。”
算力激增迫使企业采用“拼凑”方案,例如用Intel酷睿处理器运行小脑,NVIDIA Jetson Orin运行大脑,导致跨芯片通信与系统协同问题。这种“两套班子”架构引发延迟、精度不足和效率低下,部分解释了机器人频繁失控的现象。视觉指令传输的微小延迟就可能导致机器人失衡摔倒,凸显了端侧控制器性能的瓶颈。更重要的是,算力平台不仅是技术挑战,更是经济问题。制造业对投资回报率(ROI)的考核极为严苛:机器人需稳定、安全、成本可控且节能,同时具备灵活扩展性以适应产线变化。硬件堆叠方案难以满足开发成本、散热、功耗、价格和可扩展性等综合要求。现场嘉宾强调,高效整合CPU、GPU、NPU等异构算力至小体积、低功耗芯片,并确保协同与易用性,是行业面临的核心难题。随着具身智能演进,算力融合与利用效率正成为限制落地的关键。
英特尔的解决方案在于以“单系统”实现大小脑融合,通过酷睿Ultra处理器将智能认知与实时控制统一于单一架构。该SoC在封装内集成CPU、锐炫GPU和NPU,协同提供AI推理、高性能计算与工业级实时控制能力。

这类似于重庆火锅的九宫格,各IP(CPU/GPU/NPU/I/O)可根据需求自由组合,满足机器人厂商的定制化要求。结果,大模型推理得以在端侧运行,提升响应速度与隐私性,同时降低成本。英特尔副总裁Dan Rodriguez在主题演讲中表示,酷睿Ultra在类似功耗下实现约100 TOPS AI算力,用户仅需升级CPU即可为现有产品注入AI能力。
内置GPU提供77 TOPS AI算力,专攻视觉与大模型任务,足以支持7B~13B级别VLM运行,处理物体识别、路径规划等需求。对于更复杂的模型(如LVM、VLA),可通过Intel Arc独显扩展算力。当任务需求达千TOPS量级(如全身动作控制或多模态长链推理),英特尔建议结合云脑或边缘大脑协同推理。这种按需扩展的异构体系为具身智能处理复杂任务奠定基础。NPU则负责轻负载常驻任务(如语音唤醒或动态检测),确保低功耗与零延迟体验。CPU的价值进一步凸显:凭借多年机器人运控积累与架构优化,CPU在传统视觉算法和运动规划中表现更稳更快,实时抖动低于20微秒,使平衡控制、力控和手眼协调等延迟敏感任务得以运行。CPU还集成专用AI加速指令,可分担部分GPU推理与规划任务,优化算力调度与能效。Dan Rodriguez透露,2026年1月发布的Panther Lake(18A工艺)将提升图形性能50%,同等性能下功耗降低40%,AI算力达180 TOPS,并支持工业级温度范围与实时性,有望拓展具身智能应用边界。
软件栈方面,英特尔提供从感知、学习到控制的完整工具链,涵盖系统调度、驱动与实时控制,加速落地进程。综合来看,算力融合不仅是技术突破,更是推动具身智能从演示走向规模化应用的经济与工程关键。通过异构整合与软硬件协同,行业有望跨越“能跑会跳”与“可靠工作”之间的鸿沟,开启智能制造新篇章。
— 图片补充 —





关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/6307
