动态操控
-
DynamicVLA:南洋理工突破机器人动态操控瓶颈,实现边想边做的实时响应
当物体在滚动、滑动、被撞飞,机器人还在执行几百毫秒前的动作预测。 对动态世界而言,这种延迟,往往意味着失败。 在过去几年中,视觉-语言-动作(Vision-Language-Action,VLA)模型已成为机器人领域的焦点。这类模型能够“看懂”画面、“理解”语言指令,并直接输出连续动作,在静态抓取、摆放等桌面操作任务中取得了显著进展。 然而,一个长期被忽视的…
当物体在滚动、滑动、被撞飞,机器人还在执行几百毫秒前的动作预测。 对动态世界而言,这种延迟,往往意味着失败。 在过去几年中,视觉-语言-动作(Vision-Language-Action,VLA)模型已成为机器人领域的焦点。这类模型能够“看懂”画面、“理解”语言指令,并直接输出连续动作,在静态抓取、摆放等桌面操作任务中取得了显著进展。 然而,一个长期被忽视的…