看过的人已目瞪口呆——这或许是目前为止今年最震撼的机器人演示。
就在最近,Genesis AI 正式发布了其首个机器人基础模型GENE-26.5,使得机器人能够自主完成打蛋、拧试管盖、弹钢琴、解魔方、切番茄等任务。
全程自主运行,1倍速,同一个模型。
亮相后,前1x副总裁Eric Jang、宋舒然教授等业内大咖纷纷转发并给予高度评价。


如果你对这个突然闯入视野的团队感到陌生,下面这个动图可能会唤起你的记忆。

一年多前,他们在GitHub上开源了轰动业界的Genesis物理引擎。
只需一句话就能生成物理世界,获得28.6k星标,学术圈半壁江山都参与其中。

创始团队在2025年中拿到1.05亿美元种子轮融资并开始创业,沉寂了将近一年。
如今,他们回来了。
今年最炸裂的机器人演示
GENE-26.5的演示大概是机器人领域今年最值得仔细观看的内容,我们来快速过一遍。
烹饪场景
四分钟内,20个子任务串联成完整的流水线。单手打蛋,五指配合控制裂纹走向。
双手切番茄,一只手调整角度,另一只手下刀。毛巾、盐磨、打蛋器、刀、铲、煎锅轮番上阵。
有趣的是,打完鸡蛋后它还会用毛巾擦手,真是讲究……
实验室移液操作
从抓取移液器到装入离心机,全程达到毫米级精度。最棘手的部分是拧试管盖和手内换握姿势。
解魔方
双臂协作,连续空中翻转,实时闭环。
此前,不依赖专用夹具完成魔方解法的标杆还是2019年OpenAI的那只单手,Genesis声称这是通用双臂系统的首次突破。
**

△**图源:OpenAI
制作冰沙
由语言指令驱动的长序列任务,涉及固体、可变形物体和液体。
吸管翻转
测试对极脆弱半透明物体的处理能力,最后一步的手内翻转需要多根手指高度同步。
多物体抓取
单手同时抓取四个不同尺寸的物体,四种抓握方式并行,展示了灵巧手相比传统夹爪的效率优势。
线束整理
汽车产业的“圣杯任务”。双手操控柔性线缆进行打捆、挂架、缠胶带,这是公认的最难工业操控任务之一。
弹钢琴
演奏Rush-E,约130BPM,专门用来测试控制栈的极限,策略通过强化学习在仿真中单独训练。
以上大多数复杂技能,GENE只需要不到1小时的任务专属机器人数据,不到200个episode。
值得一提的是,Genesis CEO周衔在接受Business Insider采访时表示:
烹饪大多数步骤的成功率在90%到95%,但单手打蛋和用刀转移切好的番茄只有50%到60%。整体操作速度大约是人类的六七成。
全栈技术如何实现
Genesis的博客中有一句话点明了整个技术思路:操控不是一个单纯的模型训练问题,而是一个系统性问题。任何一层的短板都会传导到整个系统。
因此,他们选择每一层都自主开发。
硬件,一双与人手等大的手
Genesis在演示中使用的灵巧手,拥有20个可反向驱动的自由度,与人手1:1尺寸匹配,手掌和手指覆盖柔软材料以模拟皮肤接触力学。
这种设计使得人手的动作可以直接映射到机械手上,无需复杂的重定向算法。

值得一提的是,不少业内人士指出,这双手与国内灵巧手公司舞肌科技(Wuji Tech)的产品高度相似。
Genesis官方博客将其称为Genesis Hand 1.0,但未详细说明硬件来源。

回到手的尺寸问题,为什么要做到与人手1:1?这是因为机器人领域存在一个被称为“具身差距”的老问题:人手和机械手形态不同,人类动作数据无法直接迁移到机器人上。
Genesis的解决方案很直接:把手做得一模一样,差距自然消失。

控制栈也一并重写。Genesis将机械臂供应商的出厂控制器整个替换掉,自研中间件运行在PREEMPT_RT实时内核上,EtherCAT通信频率500Hz,端到端延迟最低压到3毫秒。
原厂控制器画一个15厘米的圆,追踪误差达20毫米;换上Genesis的控制器后,误差降至2毫米,提升了一个数量级。单关节追踪延迟从80毫秒降至9毫秒。

这一层的意义在于:当训练数据来自人类动作而非机器人遥操作时,控制系统的延迟和误差会在训练信号与实际执行之间制造鸿沟。延迟越低,人类数据就越容易利用。
数据,让工人边工作边采集
在数据采集方面,Genesis主要采用一双与灵巧手配套的数据采集手套。
机器人手和人手尺寸一致,手套记录的手指运动可以无损映射到机器人上,无需复杂的重定向算法。硬件成本是传统方案的百分之一,采集效率是遥操作的五倍。
数据引擎共有三层来源。

手套数据提供最高保真度的手部运动和触觉信号。第一人称视频捕捉自然行为和任务多样性。第三人称互联网视频提供海量覆盖。
三层数据在质量和规模上形成了帕累托分布。Genesis及其合作伙伴已收集超过20万小时的多模态数据。
Genesis总裁Gervet对TechCrunch说了一句有趣的话:这只手套可以让实验室技术员、制造业工人在干日常工作的同时顺便采集数据,不打断工作流。
当然,TechCrunch也追问了一个尖锐的问题:工人会愿意戴着手套和摄像头来训练最终可能取代自己的机器人吗?
Gervet的回答是:这得看客户和员工之间如何协商,具体细节还未敲定。
模型,一个统一的轨迹联合分布
GENE-26.5的模型目标是学习一个能够同时吸收语言、视觉、本体感觉、触觉和动作的统一模型。它使用flow matching对轨迹进行联合分布建模,捕捉多模态的未来可能性。
几个关键设计如下:
第一,支持异构、部分可观测数据的可扩展训练。第一人称视频流、手套数据、机器人控制数据、互联网视频,无需显式对齐即可一起训练。
第二,同一个模型处理所有任务。控制、状态估计、逆动力学、目标推断都变成对联合分布的条件查询,缺失的模态通过去噪推断。
第三,可以灵活吸收预训练模型的先验。VLM提供语义理解,世界模型提供时序和物理动态。
简单来说,就是一个模型吃所有模态的数据,做所有类型的任务。演示中展示的几个场景,除了钢琴演奏是单独用强化学习训练的之外,其余全部共享同一套权重。
训练与评估,仿真是加速器
Genesis团队在博客中放了三张scaling曲线,透露了训练配方中的关键信息。
预训练阶段,open-loop评估显示,模型规模和计算量增加时,验证损失持续下降,符合经典的scaling law。
但他们强调,open-loop指标对机器人来说远远不够,关键在于closed-loop表现,即模型的动作会影响后续观测的闭环场景。

这里,Genesis物理引擎的老本行就派上了用场。他们用最新版Genesis World仿真器进行大规模闭环评估,无需在仿真数据上做任何co-training,仿真环境的保真度已足够直接评估真实世界训练的模型。
每个数据点对应200个评估设置和超过150小时的机器人执行时间,整张图如果在真实世界跑,需要2700个人-机器人小时。结论是:预训练数据量越大,zero-shot泛化能力越强。

到了fine-tuning阶段,回到真实世界。他们专门构造了预训练中完全没见过的新任务,在超低数据量条件下测试,每个任务只用20到30分钟的数据。

演示中展示的那些复杂技能,大多数只需要不到1小时的任务专属机器人数据,换算下来不到200个episode。预训练规模越大,fine-tuning也越快、数据需求越少、最终表现越好。
周衔对TechCrunch说:模型迭代速度的真正瓶颈是评估,仿真帮他们大幅加速了这个循环。
从物理引擎到通用机器人
2024年底,由CMU博士周衔主导的Genesis物理引擎正式开源上线。
这套完全基于Python构建的仿真平台,运行效率比英伟达Isaac Gym快10到80倍,迅速在GitHub上成长为规模最大的具身智能开源项目,吸引了超过20家研究机构参与共建。
周衔本科毕业于新加坡南洋理工大学,是Genesis物理引擎的发起人。

2025年初,Genesis AI在法国正式注册成立,周衔出任CEO,总裁由Théophile Gervet担任。Gervet同样来自CMU,此前曾在具身智能独角兽Skild AI担任早期研究员,后来加入Mistral AI担任研究科学家。

两人师出同门,导师均为Katerina Fragkiadaki。
公司成立仅几个月后,团队便获得了1.05亿美元种子轮融资,由Eclipse和Khosla Ventures联合领投,谷歌前CEO Eric Schmidt、法国电信巨头Xavier Niel个人跟投,法国国家投资银行Bpifrance也在投资方名单中。
作为参照,此前具身智能赛道最大规模的种子轮融资是Physical Intelligence的7000万美元。
拿到资金后,团队并未急于推出产品,而是花了将近一年时间埋头搭建全栈体系。
今天,GENE-26.5正式亮相。模型、硬件、控制栈、仿真器一次性全部发布。团队从最初的几个人扩展至60人,分别在巴黎、加州、伦敦三地办公,欧美团队比例大约四六开。目前已收集超过20万小时的多模态数据,正与多个行业客户洽谈合作。
周衔向TechCrunch透露,接下来很快会公布第一款通用机器人,覆盖全身,不仅仅是手部。
参考链接
[1]https://x.com/gs_ai/status/2052050956272230577_
[2]https://x.com/zhou_xian/status/2052051823742312861_
[3]https://www.aol.com/articles/look-hands-genesis-ai-says-130001205.html
[4]https://github.com/Genesis-Embodied-AI/genesis-world
[5]https://www.genesis.ai/blog/gene-26-5-advancing-robotic-manipulation-to-human-level
[6]https://techcrunch.com/2026/05/06/khosla-backed-robotics-startup-genesis-ai-has-gone-full-stack-demo-shows/
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/33535

