-
OpenClaw 2026.3.1震撼发布:90+PR合并、登顶GitHub星标榜,Claude自适应思维与飞书自动化成核心亮点
OpenClaw 2026.3.1 正式发布:集成90余项更新,登顶GitHub历史星标榜 OpenClaw 项目于近日发布了 2026.3.1 版本。本次更新合并了 九十多个 Pull Request,涉及核心功能增强与用户体验优化。 与此同时,该项目在 GitHub 上的星标数持续快速增长,目前已达到 25.2万,超过了 Meta 的 React 项目,…
-
OmniXtreme:人形机器人突破极限动作壁垒,实现连续翻转与霹雳舞表演
在春晚上,宇树机器人带来的武术表演《武 BOT》令人印象深刻。表演中,人形机器人 G1 和 H2 在快速奔跑中完成了穿插变阵与武术动作,展现了高动态、高协同的全自主集群控制能力。 如今,北京通用人工智能研究院(BIGAI)、宇树科技、上海交通大学与中国科学技术大学等机构的一项新研究,在此方向上更进一步。他们提出了 OmniXtreme:一种能够执行各类极限动…
-
全球首份大模型公司年报出炉:MiniMax营收暴涨158.9%,亏损率大幅收窄
全球首份大模型公司年报出炉:MiniMax营收暴涨158.9%,亏损率大幅收窄 全球大模型行业迎来了首个真正可量化的财务样本。 在港交所上市仅52天后,MiniMax发布了IPO后的首份年度业绩报告。数据显示,截至2026年2月,其年度经常性收入(ARR)已突破1.5亿美元。2025年全年,公司总营收同比增长158.9%,毛利同比飙升437%,净亏损率则显著…
-
LLM与强化学习融合:开启智能推荐新纪元,首篇系统性综述发布
强化学习(RL)将推荐系统建模为序列决策过程,支持长期效益和非连续指标的优化,是推荐系统领域的主流建模范式之一。然而,传统 RL 推荐系统受困于状态建模难、动作空间大、奖励设计复杂、反馈稀疏延迟及模拟环境失真等瓶颈。近期,大语言模型(LLM)的崛起带来了新机遇。LLM 凭借常识储备、推理能力和语义天赋,不仅能让智能体更懂用户,还能充当高保真的环境模拟器。LL…
-
Cursor CEO宣布AI编程进入“第三时代”:云端Agent独立完成大规模任务,开发者角色从编码转向工厂管理
近日,Cursor CEO Michael Truell 在社交平台发文指出,AI 编程已正式进入“第三时代”。这一时代的核心特征是:智能体(Agent)能够在更长的时间跨度内、更少的人工干预下,独立完成大规模任务。 AI 编程的三个时代 Michael Truell 回顾了 AI 辅助编程的演进历程: 第一时代:Tab 自动补全 早期代码大多依靠手动输入,…
-
ReVision突破:无需图文配对,几何对齐解锁多模态大模型预训练新范式
无需图文配对,几何对齐解锁多模态大模型预训练新范式 在多模态大模型(MLLM)的研发中,一个长期共识是:没有图文对(Image-Text Pairs),就没有多模态能力。为了训练模型理解图像,业界通常需要耗费巨资收集海量图片,并为每张图片生成高质量的文本描述。这种强监督的配对数据,一直被视为多模态训练的基石。 然而,来自港科大(广州)、新加坡国立大学等机构的…
-
GPT-5.4泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真
GPT-5.4 泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真 GPT-5.4 的消息泄露了吗? 近日,一张截图在社交平台𝕏上广泛传播: 截图显示,在 OpenAI 编码助手 Codex 的代码拉取请求中,直接出现了“GPT-5.4”字样,并提及了用于快速模式的 /Fast 命令。 这并非首次发现 GPT-5.4 的踪迹。几天前,一位 O…
-
OpenAI内部代码意外泄露:GPT-5.4或已进入测试阶段,可能跳过5.3版本直接发布
近日,一名OpenAI工程师在公开的Codex GitHub仓库中提交了一则拉取请求(PR),无意间让“GPT-5.4”这一型号出现在代码版本判断条件中,引发了外界关注。 几乎就在这条PR被网友发现的同时,另一条线索也浮出水面。有用户发现,GPT-5.4曾短暂出现在Codex应用的模型选择器里。据称,这张截图最初源自一位OpenAI员工在社交平台X上的发帖,…
-
字节清华联手打造CUDA Agent:AI写代码不仅正确,还能比人类专家快40%
近日,字节跳动 Seed 团队与清华大学 AIR 的研究人员联合发布了一项名为 CUDA Agent 的新研究,在 AI 代码生成领域引起了广泛关注。 该研究训练了一个能够编写高性能 CUDA 内核的智能体模型。其目标不仅是生成语法正确的代码,更是产出经过深度优化、执行效率显著提升的内核。 在基准测试中,CUDA Agent 展现出卓越的性能:在简单/中等复…
-
JTok:大模型扩展新维度!上海交大提出token-indexed参数,不增算力也能提升性能
大模型扩展的困境 大模型的发展长期遵循一条铁律:依据Scaling Law堆叠参数和数据,模型性能便会遵循负幂律持续提升。然而,这条道路正变得日益昂贵,因为传统的扩展方式始终无法摆脱一个根本性束缚——参数规模与计算量的深度绑定。 在传统的稠密模型中,扩展逻辑简单直接:加宽网络或加深层数。随之而来的硬伤是:参数规模一旦暴涨,计算量和显存需求便会线性飙升。在高质…