近期,Cursor和Cognition两家美国科技公司相继发布新一代AI编程模型Composer和SWE-1.5,引发业界广泛关注。然而,这些模型在推理过程中频繁使用中文的现象,以及其技术特征与中国开源模型的惊人相似性,揭示了全球AI产业格局正在发生的深刻变革。

Cursor发布的Composer模型作为其首个自研代码模型,采用强化学习训练的大型MoE架构,在编码任务上展现出行业前沿水准。官方数据显示,该模型生成速度比同类模型快四倍,能够支撑交互式编码体验。

但开发者很快发现,该模型在思考过程中持续输出中文,行为模式与国产模型高度相似。

技术社区开始深入分析其技术渊源,怀疑其可能基于Qwen Code等中国开源模型进行开发。

与此同时,AI编程独角兽Cognition推出的SWE-1.5模型同样引发热议。这款数千亿参数的快速智能体模型在编码性能上接近SOTA水平,速度表现尤为突出——比Haiku 4.5快6倍,比Sonnet 4.5快13倍。

该模型已在Windsurf IDE平台开放使用。

然而,模型发布后很快被技术社区深入分析,有开发者通过“越狱”测试发现,模型自称为智谱AI开发的GLM大模型。

智谱官方随后转推祝贺,进一步证实了技术关联。

业界专家@deedydas分析指出,Cognition的SWE-1.5很可能基于智谱GLM 4.6模型进行定制化精调和强化学习,并运行在Cerebras硬件上;Cursor的Composer模型同样显示出明显的“中国式推理”特征。

最新消息显示,Cerebras已官宣将于11月5日推出zai-glm-4.6作为新编码模型,这为技术溯源提供了实质性证据。[[VIDEO_0]]
系统架构师Daniel Jeffries从技术经济角度进行了深入剖析。他指出,大量证据表明WindSurf和Cursor的新模型都是基于现有模型进行微调,而非从零开始训练。这对于开源社区而言是一个重要胜利,因为从头训练基础模型的成本极其高昂——许多资金和计算资源更雄厚的公司都未能成功。

Jeffries认为,Cursor和WindSurf团队缺乏建设庞大训练集群的资金,也没有足够的数据和团队支持从零构建大模型。在当前技术格局下,许多大型实验室已建立强大的规模优势,独立开发难以突破。

Jeffries进一步指出,某些反对开源的公司和个人正在阻碍开源模型的发展,影响了现代软件开发和创新进程。他呼吁美国科技公司重新认识开源的重要性,回归开源理念,而不是发布功能受限的专有模型。

这篇分析帖子被AI领域权威学者LeCun转发后,引发了更广泛的技术讨论。技术社区普遍认为,中国开源基础模型已具备足够能力支持西方产品的开发,这标志着全球AI正进入多极化竞争的新阶段。

有开发者幽默评论:“是不是该开始学中文了?”

这一现象背后,是中国开源大模型在全球范围内的崛起。英伟达CEO黄仁勋在最近的GTC大会上明确指出,开源模型已变得非常强大,大大加速了AI应用进程。

他展示的数据显示,2025年以来,阿里的通义千问模型(Qwen)已占据开源模型大部分市场份额,领先优势持续扩大,衍生模型数量全球第一。在HuggingFace趋势榜上,排名前列的模型大多出自中国公司,包括MiniMax、DeepSeek、Kimi、百度、混元、千问以及美团的LongCat。

第三方基准平台ArtificialAnalysis的性能指标分析也显示,排行前列的多数是国产模型。

从技术能力到全球接受度,中国开源大模型已确立领先地位,正在重塑全球AI竞争格局。这场技术竞赛中,追赶者与领先者的位置正在发生根本性转变。中国开源模型不仅为开发者提供强大工具,更成为初创公司的技术命脉。对于Cursor和Cognition这样的公司而言,基于中国开源模型进行开发,已成为在激烈竞争中保持技术优势的理性选择。

关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/8414
