具身智能
-
全国首部具身智能数据闭环标准启动,破解AI自主进化核心瓶颈
“十五五”规划建议明确将具身智能列为六大未来产业之一,工信部亦将培育壮大具身智能等未来产业纳入2026年核心重点工作;北京、上海、杭州等多地同步跟进,专项政策密集出台、创新中心与产业联盟接连落地。国家战略与地方行动协同发力,共同推动具身智能从实验室示范迈向规模化产业落地新阶段。 数据闭环是具身智能区别于传统AI,实现自主学习和持续进化的核心命脉。 它推动企业…
-
阿里达摩院RynnBrain:让机器人长出物理直觉,破解柔性物体操作难题
2026年,众多机器人登上春晚舞台,它们能为大家表演包饺子吗?这或许是许多人好奇的问题。 但根据近期的彩排报道,这种可能性并不大。机器人更可能被设计为托着托盘呈上饺子。 业内人士深知,如果不依赖预设编程或遥控操作,让机器人自主包饺子远比移动、导航复杂得多。这涉及到“饺子皮”这类堪称机器人“图灵测试”的柔性物体操作,没有一个足够聪明的“大脑”是难以完成的。这也…
-
英伟达DreamZero:140亿参数世界动作模型开启机器人零样本泛化新时代
驱动具身智能迈向通用领域的核心挑战是什么? 我们认为,关键在于实现“跨具身迁移”。 一个完善的世界模型是具身智能执行通用复杂任务的基础。然而,许多现有的世界模型并不具备我们所期望的强大泛化与迁移能力。 具体而言,当前应用于机器人或智能汽车的世界模型,大多针对特定硬件平台进行设计和训练,其泛化能力有限,跨平台迁移往往依赖运气。 本质上,许多机器人学习到的并非“…
-
清华团队开源Motus:首个统一五大范式的具身世界模型,性能超越Pi-0.5达40%
清华团队开源Motus:首个统一五大范式的具身世界模型,性能超越Pi-0.5达40% 由生数科技联合清华大学开源的大一统世界模型——Motus,在架构上首次将视觉-语言-动作(VLA)、世界模型、视频生成、逆动力学、视频-动作联合预测这五种具身智能范式统一起来,实现了“看-想-动”的完美闭环。 项目的主要负责人是来自清华大学计算机系朱军教授TSAIL实验室的…
-
蚂蚁灵波开源四款具身智能模型:从物理交互出发,探索世界模型新路径
大模型的革命行将结束,即将开启的会是物理 AI 时代? 上周,图灵奖得主、深度学习先驱 Yann LeCun 对通用人工智能(AGI)发表了自己的最新观点。他认为语言并不等同于智能,预测文本并不意味着理解现实。真实世界纷繁复杂、充满物理性和因果关系,而如今的大语言模型(LLM)几乎无法触及这些。 LeCun 认为,真正的智能必须能像人类一样,在脑海中进行推演…
-
智源Emu3登Nature:统一多模态的“世界模型”路线如何颠覆AI未来?
一场押注AI未来的技术豪赌。 北京时间1月29日,北京智源人工智能研究院推出的多模态大模型“悟界·Emu”登上Nature正刊。这是继DeepSeek之后第二个达成此成就的中国大模型团队研究成果,也是中国首篇围绕多模态大模型路线的Nature论文。 Nature编辑在点评中指出:“Emu3仅基于‘预测下一个token’实现了大规模文本、图像和视频的统一学习,…
-
具身智能革命:人形机器人如何跨越死亡谷,开启百万亿市场新纪元
引言:具身智能,AI从“认知”到“行动”的革命 当ChatGPT开启了通用人工智能的“认知时代”,AI实现了从“听懂、看懂”到“理解、思考”的跨越;而具身智能的崛起,则正在推开AI“行动时代”的大门,让人工智能真正走出屏幕、走进物理世界,实现“能做、会做、做好”的终极突破。 人形机器人作为具身智能的终极载体,凭借类人的形态、灵活的运动能力和自主决策能力,不仅…
-
蚂蚁开源LingBot-World世界模型:挑战谷歌Genie 3,一张图生成10分钟稳定交互视频
蚂蚁开源世界模型,为机器人造“元宇宙训练场”。 智东西1月29日报道,蚂蚁灵波科技发布并开源了世界模型LingBot-World。该模型是一个专为交互式世界模型设计的开源框架。其核心LingBot-World-Base能够提供高保真、可控制且逻辑一致的模拟环境。 ▲LingBot-World开源页面(来源:Hugging Face) LingBot-Worl…
-
蚂蚁灵波开源世界模型LingBot-World:支持10分钟实时交互,媲美Genie 3
蚂蚁灵波开源通用世界模型LingBot-World:支持10分钟实时交互,媲美Genie 3 在连续开源机器人的眼睛(LingBot-Depth)与大脑(LingBot-VLA)之后,蚂蚁灵波(Ant LingBot)团队再次发布了一项重要成果: 通用的世界模型——LingBot-World。 该模型能够支持长达10分钟的持续生成与实时交互。其视觉效果已可与…
-
蚂蚁灵波开源最强具身智能大脑LingBot-VLA:20000小时真实数据验证Scaling Law,实现“一个大脑,多个身体”
从3000小时到20000小时:真实数据验证Scaling Law 从3000小时到整整20000小时。 真实世界数据中的Scaling Law,直接催生了一个强大的VLA(视觉-语言-动作)基座模型! 这就是蚂蚁灵波最新开源的具身智能基座模型——LingBot-VLA。 为何称其为当前最强?首先看数据。 仅从“20000小时”这个规模来看,LingBot-…
