蚂蚁开源LingBot-World世界模型:挑战谷歌Genie 3,一张图生成10分钟稳定交互视频

蚂蚁开源LingBot-World世界模型:挑战谷歌Genie 3,一张图生成10分钟稳定交互视频

蚂蚁开源世界模型,为机器人造“元宇宙训练场”。

智东西1月29日报道,蚂蚁灵波科技发布并开源了世界模型LingBot-World。该模型是一个专为交互式世界模型设计的开源框架。其核心LingBot-World-Base能够提供高保真、可控制且逻辑一致的模拟环境。

蚂蚁开源LingBot-World世界模型:挑战谷歌Genie 3,一张图生成10分钟稳定交互视频
▲LingBot-World开源页面(来源:Hugging Face)

LingBot-World由一个可扩展数据引擎驱动,通过从大规模游戏环境中学习物理规律与因果关系,可以实现与生成世界的实时交互。该模型在视频质量、动态程度、长时一致性、交互能力等关键指标上均逼近谷歌Genie 3

蚂蚁开源LingBot-World世界模型:挑战谷歌Genie 3,一张图生成10分钟稳定交互视频
▲LingBot-World能力表

主页:https://technology.robbyant.com/lingbot-world
开源地址
Hugging Face:https://huggingface.co/collections/robbyant/lingbot-world
魔搭社区:https://www.modelscope.cn/collections/Robbyant/LingBot-world
Github:https://github.com/Robbyant/lingbot-world
技术报告:https://github.com/robbyant/lingbot-world/blob/main/LingBot_World_paper.pdf

01. 近10分钟稳定生成,镜头移开60s还能保持一致

针对视频生成中最常见的“长时漂移”问题(即生成时间一长就可能出现物体变形、细节塌陷、主体消失或场景结构崩坏等现象),LingBot-World通过多阶段训练以及并行化加速,实现了近10分钟的连续稳定无损生成,为长序列、多步骤的复杂任务训练提供支撑。

▲一致性压力测试,镜头最长移开60秒后返回,目标物体仍存在且结构一致

蚂蚁开源LingBot-World世界模型:挑战谷歌Genie 3,一张图生成10分钟稳定交互视频
▲高动态环境下,镜头长时间移开后返回,车辆形态外观仍保持一致

蚂蚁开源LingBot-World世界模型:挑战谷歌Genie 3,一张图生成10分钟稳定交互视频
▲镜头长时间移开后返回,房屋仍存在且结构一致

交互性能上,LingBot-World可实现约16 FPS的生成吞吐,并将端到端交互延迟控制在1秒以内。用户可通过键盘或鼠标实时控制角色与相机视角,画面随指令即时反馈。用户可以通过文本指令触发环境变化与世界事件,例如调整天气、切换画面风格或生成特定事件等,且所有变化均可在保持场景几何关系相对稳定的前提下完成。

02. 支持长程任务训练与场景多样化生成

为解决世界模型训练中高质量交互数据匮乏的问题,LingBot-World采用了混合采集策略:一方面通过清洗大规模的网络视频以覆盖多样化的场景,另一方面结合游戏采集与虚幻引擎(UE)合成管线,从渲染层直接提取无UI干扰的纯净画面,并同步记录操作指令与相机位姿,为模型学习“动作如何改变环境”提供对齐的训练信号。

得益于此,LingBot-World具备了良好的Zero-shot泛化能力。仅需输入一张真实的城市街景照片或游戏截图,模型即可生成对应的可交互视频流,无需针对单一场景进行额外训练,降低了在不同场景中的部署与使用成本。

▲机器人穿梭在城市之间

具身智能的规模化落地还面临一个核心挑战,那就是复杂长程任务的真机训练数据极度稀缺。LingBot-World凭借长时序一致性、实时交互响应,以及对“动作-环境变化”因果关系的理解,能够在数字世界中“想象”物理世界,为智能体的场景理解和长程任务执行提供了一个低成本、高保真的试错空间。同时,LingBot-World还支持场景多样化生成,可以改变光照、摆放位置变化等,此功能也有助于提升具身智能算法在真实场景中的泛化能力

03. 结语:蚂蚁补全物理感知拼图

蚂蚁连续发布三款“灵波”系列具身领域大模型,其通用人工智能(AGI)战略由此完成从数字世界向物理感知层面的关键延伸,也让其“基础模型-通用应用-实体交互”的全栈技术路径进一步清晰。

从行业视角看,世界模型正成为连接生成式AI与具身智能的关键桥梁。LingBot-World在长序列生成与零样本泛化方面的能力,若能在实际应用中验证,或可推动相关领域从有限场景训练向开放场景适应的演进。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/19763

(0)
上一篇 2026年1月29日 下午6:17
下一篇 2026年1月30日 上午6:59

相关推荐

  • 跨模态知识解耦与对齐:北京大学团队突破终身行人重识别技术瓶颈

    终身行人重识别技术旨在通过持续学习不断涌现的新增行人数据,在保持对已知数据识别能力的同时,吸收新增的鉴别性信息。这一技术在公共安防监控、智慧社区管理、运动行为分析等实际场景中具有重要的研究价值和应用前景。随着监控系统全天候运行,白天采集的可见光图像和夜晚采集的红外图像数据不断积累,终身行人重识别方法需要持续学习特定模态中的新知识(例如仅适用于红外模态的热辐射…

    2025年12月6日
    15600
  • 45亿红包引爆AI入口争夺战:百度如何以搜索+AI重塑用户路径

    这个春节,国内外AI圈有两件大事最引人注目:一件是OpenClaw的持续火爆,另一件是互联网大厂的春节营销大战。 在国外,从1月底开始,OpenClaw在GitHub上获得的Star数便如火箭般飙升,目前已突破18.9万。 在国内,无论是元宝的“瓜分10亿现金红包”、千问的“30亿请喝奶茶”,还是豆包成为春晚独家AI云合作伙伴,大厂间的竞争异常激烈,堪称“火…

    2026年2月15日
    11800
  • AI深度研究赋能春节规划:美团LongCat大模型如何用本地生活数据解决实际难题

    春节将至,科技圈也弥漫着“年味”。AI领域动态频出:Kimi 2.5与Step 3.5 Flash刚刚发布,DeepSeek V4、GPT-5.3、Claude Sonnet 5、Qwen 3.5、GLM-5等模型也蓄势待发,技术迭代的速度令人目不暇接。 各大厂商在春节期间更是动作频频,红包活动、机器人亮相春晚,无不展现出志在必得的竞争态势。然而,密集的更新…

    2026年2月11日
    7100
  • Vinsoo Beta 3.0:云端Agent驱动的AI编程范式革命与国产大模型突破

    在AI编程领域,传统工具往往局限于代码补全或简单生成,难以应对复杂项目的全流程开发需求。近期,全球首个实现项目级开发的AI IDE——Vinsoo推出Beta 3.0版本,凭借其云端Agent架构和国产大模型支持,正在重新定义AI编程的范式。这一进展不仅展示了技术突破,更揭示了AI从辅助工具向自主开发主体演进的关键路径。 Vinsoo的核心创新在于其“云端A…

    2025年11月10日
    19800
  • ROVER:颠覆传统强化学习范式,随机策略价值评估开启LLM数学推理新纪元

    在人工智能领域,大语言模型(LLM)的数学推理能力一直是衡量其智能水平的重要标尺。近年来,基于可验证奖励的强化学习(RLVR)方法,如PPO、GRPO等,已成为提升模型推理能力的主流技术路径。然而,这些方法本质上仍沿袭传统强化学习的策略迭代框架——通过策略评估与策略改进的循环过程优化模型性能。这种范式在LLM推理任务中暴露出三大核心缺陷:训练稳定性差、计算复…

    2025年10月31日
    18300