在第五届ATEC科技精英赛——全球首个全自主、全真实户外场景的机器人竞技场上,一个残酷的现实被反复验证:当人形机器人离开实验室的温室环境,面对真实的户外世界时,其通用能力遭遇了前所未有的挑战。香港中文大学山间小道上,一只人形机器人试图完成500米定向越野,却在跨越三十度小桥、走过石路、迈过台阶后,于九十度弯道处重心失衡仰面倒下。

同样的困境出现在岭南体育场的垃圾分拣任务中:草地表面的不平整让机器人步履维艰,尚未触及目标便扑通倒地。

这些场景并非偶然失败,而是揭示了当前具身智能发展中的核心矛盾——在受控环境中表现惊艳的机器人,为何在真实户外场景中频频“翻车”?
深入分析ATEC2025的竞赛表现,可以发现感知系统的局限性是首要障碍。在岭南体育场,光照条件的变化成为机器人频繁失误的罪魁祸首。早晨七点阴影笼罩,一小时后光照增强,正午时分阳光直射——这种自然光线的动态变化对机器人的视觉系统构成了严峻考验。深度相机(如RealSense)依赖的主动光结构在强光下几乎失效:透明的矿泉水瓶在机器人“眼中”近乎隐形,导致机械臂抓取时直接撞落目标。

浇花任务中,黄色水壶被晒得发白,白色桌面强烈反光,造成点云数据严重散射,抓取动作屡屡失败。

更复杂的是,3D识别中形状不规则的白色假花本身就是高难度目标,许多原本规划自主完成的队伍最终无奈选择遥操。

吊桥穿越任务中,视觉定位被阳光干扰,机器人逐步偏离路径,最终踩空跌落。

这些案例表明,当前机器人的感知系统尚未具备应对真实世界复杂视觉条件的能力,特别是对透明物体、反光表面、动态光照等场景的处理存在明显缺陷。
英国皇家工程院院士Darwin Caldwell指出,机器人的移动、视觉和导航能力已令人惊叹,但操作能力依然相对原始。这背后的根本原因在于操作任务涉及的变量极其复杂。移动任务的底层难题可简化为“站稳+迈步”,涉及的物理变量相对固定,能在仿真环境中完整构建,因此大规模强化学习收敛迅速。

而操作任务则面临透明与反光材质差异、颜色变化、光照波动等多重挑战——即便是抓取香蕉和抓取矿泉水瓶,对机器人而言都是完全不同的任务。更关键的是,当前机器人缺乏真实的物理信息反馈,触觉感知几乎为零。在人类操作行为中,触觉与视觉同等重要,这正是ATEC在垃圾分拣任务中选择玩具香蕉的原因:软质可变形,但不会被机器人捏坏。

值得注意的是,仍有队伍在困境中找到了突破路径。浙江大学wongtsai赛队的两支四足机器人全自主“通关”了垃圾分拣与吊桥穿越任务。

在分拣任务中,他们没有依赖大模型,而是回归“传统视觉+几何”的老牌路线,并通过极致优化实现了稳定表现。

吊桥穿越前,他们在模拟器中高度还原真实场景:不仅复刻吊桥结构,还模拟了RealSense在户外可能遇到的各类噪声(视差误差、散斑点云、纹理缺失等),实现了顺畅的sim2real迁移。

这种技术路径的选择提示我们,在特定场景下,传统方法的精细化打磨可能比盲目追求前沿模型更有效。
然而,感知局限只是问题的一方面,智能决策能力的不足同样制约着机器人的自主性。ATEC2025赛事组专家谢志强在直播中举了一个生动例子:扫地机器人能自主移动,但一旦被卡住,只会等待人类救援——这形象地揭示了当前多数机器人“20岁身体,3岁智商”的现状。

自主浇花任务之所以难倒众多机器人,正是因为其任务链过长:找到水壶→拿起→开水龙头→接水→关龙头→找花盆→浇花→放回原处。相比单步抓取或视觉分类,这种长程任务考验的是机器人真正的规划、决策和记忆能力。结果,没有一支队伍能实现全自主完成。

大模型在实验室环境中表现出的泛化能力,在真实场景中同样遭遇挑战。浙江大学wongtsai赛队发现,实验室里还能泛化的VLA(视觉-语言-动作)模型,一旦进入真实户外场景就失效了——大模型能理解图像和指令,但无法真正把握物理世界的细节,抓水壶、浇花等操作的精度完全不足。他们最终选择了遥操。

有的队伍尝试混合模式:先用遥控器将机器人移至最佳位置,再让机械臂自主完成抓壶、接水、浇花。即便如此,一旦流程中出现异常(如水龙头卡住),机器人的“大脑”就无法应对,陷入停滞状态。

定向越野任务中,成绩领先的机器人在最后一段反复掉入同一排水沟,无法自主调整路径,最终只能切回遥操。垃圾分拣中的道具香蕉暴晒后发生不可逆形变,有的机器人明明已夹住目标,却仍坚持判定失败。这些案例暴露出现有决策系统的脆弱性:缺乏对异常情况的处理能力,无法适应动态变化的环境条件。吊桥穿越任务的设计尤其意味深长:机器人需先跨越5cm、10cm的缝隙,最后面对50cm的间隙。刘云辉院士指出,这需要机器人“自己做思考、做决策,比如拿起板来填充,从而改变环境,适应自己的运动”——这已不再是简单行走,而是包含环境评估、工具使用、任务规划的高级智能行为。结果,四足机器人直接跳过间隙,双足机器人则多半碰掉拉绳后原地等待救援。
ATEC2025的竞赛结果清晰地表明:当前具身智能的发展仍处于早期阶段。感知系统的户外适应性、决策系统的长程规划能力、以及物理交互的精细控制,是制约机器人真正自主的三大瓶颈。刘云辉院士的判断值得深思:“五年之内实现(家庭场景落地)都相当困难。”然而,“丢掉遥控器”并非未来加分项,而是具身智能能否真正落地的必选项——正如参赛选手所言,机器人应该去做“人做不了或不该做的事”,在这些场景中,没人能用遥控器替机器人做判断。从技术路径看,感知与决策是关键突破方向:机器人能否正确“看到”世界?能否自主决定下一步行动?这些问题答案,将决定具身智能从实验室演示走向真实应用的步伐。
— 图片补充 —





关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/5251
