VLA模型
-
RISE突破VLA瓶颈:组合式世界模型让机器人在想象空间完成强化学习,任务成功率提升超45%
在具身智能的发展中,视觉-语言-动作模型已成为通用操作任务的核心框架。然而,面对长程规划、柔性物体操作、精细双臂协同及动态交互等复杂场景时,VLA模型仍面临两大根本性挑战: 模仿学习在推理过程中产生的长序列误差累积问题; 真机强化学习成本高昂,难以规模化部署。 针对这些挑战,香港大学李弘扬老师带领的OpenDriveLab团队近期提出了RISE方法。其核心思…
-
AutoBio:VLA模型在生物实验室的“图灵测试”——ICLR 2026新基准揭示科研自动化挑战
现有视觉-语言-动作模型的研究和基准测试多集中于家庭场景,缺乏对专业科学场景的适配。生物实验室具有实验流程结构化、操作精度要求高、多模态交互复杂等特点,是评估VLA模型精准操作、视觉推理和指令遵循能力的理想场景。 近期,来自香港大学MMLAB与上海交通大学的研究团队提出了AutoBio,一个面向数字化生物实验室的机器人仿真系统与基准测试平台。该工作已被ICL…
-
DynamicVLA:南洋理工突破机器人动态操控瓶颈,实现边想边做的实时响应
当物体在滚动、滑动、被撞飞,机器人还在执行几百毫秒前的动作预测。 对动态世界而言,这种延迟,往往意味着失败。 在过去几年中,视觉-语言-动作(Vision-Language-Action,VLA)模型已成为机器人领域的焦点。这类模型能够“看懂”画面、“理解”语言指令,并直接输出连续动作,在静态抓取、摆放等桌面操作任务中取得了显著进展。 然而,一个长期被忽视的…
-
蚂蚁灵波开源最强具身智能大脑LingBot-VLA:20000小时真实数据验证Scaling Law,实现“一个大脑,多个身体”
从3000小时到20000小时:真实数据验证Scaling Law 从3000小时到整整20000小时。 真实世界数据中的Scaling Law,直接催生了一个强大的VLA(视觉-语言-动作)基座模型! 这就是蚂蚁灵波最新开源的具身智能基座模型——LingBot-VLA。 为何称其为当前最强?首先看数据。 仅从“20000小时”这个规模来看,LingBot-…
-
突破数据孤岛:Being-H0.5全栈开源具身模型以3.5万小时训练实现跨机器人零样本技能迁移
BeingBeyond团队 投稿 量子位 | 公众号 QbitAI 近年来爆火的具身智能领域长期面对着数据孤立导致的训练困境,一线厂商凭借高投入建立独属于自研型号机器的“数据护城河”,而小厂的资产规模直接反映在数据体量上,限制了其产品专用模型的训练。 BeingBeyond团队 近日发布的Being-H0.5有望改变这一局面。 Being-H0.5是目前训练…
-
VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破
在具身智能领域,视觉-语言-动作(VLA)模型正成为连接大语言模型与物理世界的关键桥梁。近期,Physical Intelligence发布的π*0.6论文与清华大学星动纪元团队的iRe-VLA研究,共同揭示了VLA模型通过在线强化学习实现自我改进的技术路径,标志着该领域从单纯模仿学习向自主探索的范式转变。 VLA模型的核心挑战在于如何将预训练的视觉-语言大…
-
共享自主框架突破灵巧操作数据瓶颈:字节跳动Seed团队VLA策略研究深度解析
实现通用机器人的类人灵巧操作能力,始终是机器人学领域最具挑战性的前沿课题。传统机器人系统在结构化环境中表现稳定,但面对复杂、非结构化的日常场景时,其操作灵活性、适应性和泛化能力严重不足。近年来,视觉-语言-动作(Vision-Language-Action,VLA)模型通过融合多模态感知与自然语言理解,为机器人技能学习开辟了新路径,展现出从单一任务执行向通用…
-
GigaWorld-0:世界模型驱动VLA性能跃升300%,具身智能迈入数据高效新纪元
在具身智能迈向开放世界落地的进程中,长期制约其发展的核心瓶颈并非算法本身,而是高质量、大规模真实机器人交互数据的极度稀缺。真机数据采集成本高昂、周期漫长,且难以覆盖多样化的开放场景,严重限制了视觉语言动作(VLA)大模型的规模化训练与泛化能力。传统仿真方法虽能快速生成数据,却受限于显著的Sim-to-Real差距,难以支撑真实世界的鲁棒部署。世界模型(Wor…
