具身智能
-
硅基生命物理世界首考:GDPS 2025国际具身智能技能大赛深度解析
2025年12月12日,中国上海将迎来人工智能发展史上的关键节点——GDPS 2025全球开发者先锋大会暨国际具身智能技能大赛。这不仅是全球具身智能领域的首次大规模物理验证,更是人工智能从虚拟世界走向物理现实的重要里程碑。 从技术演进的角度分析,2023年的大模型突破为AI提供了强大的认知基础,2024年的应用探索验证了AI在数字世界的潜力,而2025年的具…
-
算力融合:破解具身智能落地瓶颈,英特尔酷睿Ultra如何实现大小脑一体化
近期,俄罗斯人形机器人“艾多尔”在演示中踉跄倒地,特斯拉Optimus因反应迟缓遭质疑,1X机器人演示被曝依赖远程操控——这些事件暴露出具身智能从实验室走向实际应用的艰难处境。业内人士普遍认为,许多演示高度依赖人工干预,大量机器人连稳定站立和基础操作都难以实现,在工业场景中执行简单任务(如插拔接口或贴膜)仍面临巨大挑战。英特尔在与数十家具身智能团队深入交流后…
-
PhysX-Anything:单图生成仿真就绪3D资产,突破具身智能物理建模瓶颈
在机器人、具身智能和交互仿真等前沿领域,对高质量、可直接用于物理仿真的3D资产需求日益迫切。传统3D生成方法多聚焦于几何外观与视觉保真度,却普遍忽视密度、绝对尺度、关节约束等关键物理属性,导致生成模型难以直接应用于真实世界的控制与交互任务。尽管已有少数研究探索可动3D对象生成,但受限于高质量物理标注数据的稀缺,现有方法多采用“检索现有模型+附加运动”的范式,…
-
具身智能产业激辩实录:架构革命、数据路径与落地挑战的深度剖析
2025年被业界普遍视为具身智能的爆发元年,这一领域正经历从概念验证到产业落地的关键转折。在北京鼎好大厦举行的智源具身2025 OpenDay现场,30余家顶尖具身智能企业的创始人、技术负责人齐聚一堂,围绕行业核心议题展开了长达四小时的深度辩论。这场汇聚产学研用各方的对话,不仅揭示了当前行业的技术分歧,更勾勒出未来发展的清晰路径。 在智源研究院院长王仲远的主…
-
智源研究院:以“安卓”模式破局具身智能数据孤岛,引领行业生态共建新范式
在2025年智源具身智能Open Day活动中,一场被业界称为“具身武林大会”的盛会,罕见地聚集了银河通用、智元、星海图、自变量、原力灵机、加速进化、北京人形、星源智、优必选、因时、软通天擎等机器人领域的主要厂商代表。这一现象背后,折射出当前具身智能产业面临的核心挑战与转型契机。 智源研究院院长王仲远在会上提出的“数据贡献与模型效用正向关联”机制,直指行业长…
-
SIMA 2:从指令执行到主动认知,Gemini驱动的具身智能新范式
在人工智能向通用智能(AGI)演进的道路上,具身智能(Embodied AI)正成为关键突破口。近日,Google DeepMind发布的SIMA 2(Scalable Instructable Multiworld Agent)标志着这一领域实现了从被动指令执行到主动认知推理的范式转变。DeepMind创始人Demis Hassabis将其定义为“通往通用…
-
仿真合成数据:驱动具身智能与世界模型突破的关键燃料
在AI技术从信息处理向物理世界交互演进的关键拐点,仿真合成数据正从辅助工具转变为基础设施,成为训练下一代AI模型的核心要素。近期,专注于该领域的光轮智能完成数亿元融资,其客户涵盖英伟达、谷歌、阿里、字节等科技巨头,以及Figure AI、智元机器人、丰田、比亚迪等产业代表,凸显了仿真合成数据在AI生态中的战略地位。 当前AI发展的核心矛盾在于:模型在文本、图…
-
具身智能新星Sunday:斯坦福双雄的全栈机器人革命与11月19日产品悬念
近日,具身智能领域迎来重磅消息:斯坦福大学两位顶尖研究者赵子豪(Tony Zhao)与迟宬(Cheng Chi)联合创办的机器人公司Sunday正式浮出水面,并宣布将于11月19日发布首款产品。这一消息迅速引发科技界关注,不仅因为两位创始人在学术与工业界的显赫背景,更因他们宣称要打造“像Macintosh、iPhone、ChatGPT一样的划时代产品”,甚至…
-
2025宝山智能机器人产业大会前瞻:从具身智能到核心部件,解码产业新生态
随着人工智能技术的飞速发展,智能机器人产业正迎来前所未有的变革机遇。2025年11月21日至22日,即将在上海宝山智慧湾科创园举办的“2025宝山・智能机器人产业大会暨嘉年华”,不仅是一场行业盛会,更是一次全面展示中国智能机器人产业实力与未来方向的窗口。本文将从产业趋势、技术突破、生态构建三个维度,深入剖析本次大会的核心价值与行业意义。 **一、产业宏观蓝图…
-
RoboOmni:全模态端到端操作大模型开启机器人主动服务新时代
复旦大学、上海创智学院与新加坡国立大学联合推出的全模态端到端操作大模型RoboOmni,标志着机器人交互范式从被动执行向主动服务的根本性转变。该模型通过统一视觉、文本、听觉与动作模态,实现了动作生成与语音交互的协同控制,并开源了140K条语音-视觉-文字“情境指令”真机操作数据集,为具身智能领域提供了重要的技术突破和数据资源。 在传统机器人交互中,系统通常依…
