Cursor套壳Kimi风波再起:Composer 2技术报告自证“有技术地套”,网友却不买账

Cursor套壳Kimi的争议仍在继续。

近日,Cursor发布了Composer 2的技术报告,试图证明其并非简单套用,而是进行了有技术含量的、循序渐进的研发工作。

报告强调,其方法核心仍是此前提及的预训练与强化学习相结合的技术路线。

与此前不同的是,Cursor在报告中明确标注了基础模型来源为Kimi K2.5

这一迅速且明确的署名行为,显示出其态度转变,甚至被外界视为已与Kimi官方达成某种和解。

然而,许多网友对此并不认可。

Cursor的技术路径:基于Kimi K2.5的两步训练

报告开篇,Cursor首先评估并肯定了Kimi K2.5的基础能力,称其在多项潜在开源基础模型中综合表现最佳,且在执行效率等方面具备优势。

随后,报告详细阐述了基于Kimi K2.5的两步独立训练流程:持续预训练与异步强化学习。

1. 持续预训练
此阶段旨在提升模型在编码领域的基础能力,为后续强化学习训练做准备。主要分为三个子阶段:
– 将主要计算资源投入32K令牌序列长度的训练。
– 进行短期的上下文扩展训练,将序列长度提升至256K。
– 通过小样本指令微调,使模型适配特定代码任务。

此外,为提升推理速度,模型引入了多令牌预测层,并结合投机解码与自蒸馏策略以保障收敛速度。训练数据显示,模型在自研代码库上的损失值呈对数线性下降,且代码库困惑度与下游强化学习性能正相关,证明了预训练的有效性。

Cursor套壳Kimi风波再起:Composer 2技术报告自证“有技术地套”,网友却不买账

2. 异步强化学习
训练环境高度模拟真实的Cursor对话场景,覆盖各类软件工程核心任务。训练框架基于大规模策略梯度实现,采用单指令多样本的策略梯度算法,并设置固定样本组大小以保持稳定。
– 每条指令仅参与一次训练,使用Adam优化器更新全部参数。
– 优化了GRPO算法,移除了长度标准化项以避免偏差,并引入KL散度进行正则化。

研究指出,最终模型的平均性能最佳采样性能同步提升,表明强化学习不仅重新加权了推理路径,还扩展了正确解决方案的覆盖范围。

Cursor套壳Kimi风波再起:Composer 2技术报告自证“有技术地套”,网友却不买账

Composer 2还引入了一系列辅助奖励机制,包括对代码风格、交互表达的奖励,以及对不当工具调用的惩罚,并根据训练中涌现的行为动态调整规则。

自研评估基准:CursorBench

为进行评估,Cursor推出了自研的内部评估集——CursorBench。该基准的任务均源自真实的智能体使用场景,评估维度不仅包括功能正确性,还涵盖代码质量、执行效率、智能体交互等多个方面。

数据显示,CursorBench的任务代码修改量更大(中位数181行),而指令提示则更简洁(中位数390字符),更贴近实际使用。

Cursor套壳Kimi风波再起:Composer 2技术报告自证“有技术地套”,网友却不买账

在测试结果上,Composer 2在CursorBench-3中的准确率达到61.3%,较其1.5版本和1.0版本分别有显著提升,相比基础模型Kimi K2.5也有大幅进步。

Cursor套壳Kimi风波再起:Composer 2技术报告自证“有技术地套”,网友却不买账

报告总结称,Composer 2在成本与精度上实现了帕累托最优,推理成本与更小模型相当,精度则可媲美更大尺寸的前沿模型,令牌使用效率也与其它先进模型持平。

杨植麟论大模型发展的未来方向

在Cursor发布报告的同时,Kimi创始人杨植麟在中关村论坛的演讲中,分享了对大模型及训练范式的最新思考。

他认为,大模型的本质是将能源转化为智能,关键在于实现规模化。有效的规模化并非盲目堆砌算力,而需讲求方法与效率。

Cursor套壳Kimi风波再起:Composer 2技术报告自证“有技术地套”,网友却不买账

Kimi的规模化策略聚焦于三点:
1. 提升令牌效率:追求以有限数据学习更多智能。
2. 扩展上下文长度:通过创新的网络架构(如Kimi Linear)和训练数据,从根本上提升长上下文处理能力。
3. 引入智能体集群:在Kimi K2.5中提出,通过多个智能体协作解决复杂问题,实现输入、输出、执行与编排的规模化。

Cursor套壳Kimi风波再起:Composer 2技术报告自证“有技术地套”,网友却不买账

同时,杨植麟强调了底层网络架构的重要性。例如,其开源的注意力残差架构,可视为注意力机制在网络深度上的LSTM变种,能更高效地利用各层信息。他指出,在当今算力更强、研究更工程化的背景下,过去的技术标准答案可以被重新挑战和改进。

Cursor套壳Kimi风波再起:Composer 2技术报告自证“有技术地套”,网友却不买账

关于开源,杨植麟表示将持续推进:

开源模型正在成为新的标准。以Kimi K2.5为代表的开源模型,已成为全球芯片厂商测试硬件性能的基准,也被众多研究机构采用。我们希望通过开源降低获取智能的门槛,最终形成开源生态系统,共同推动AI发展。

最后,他断言大模型训练已进入第三阶段

Cursor套壳Kimi风波再起:Composer 2技术报告自证“有技术地套”,网友却不买账

  • 第一阶段(2023-2024年):以天然数据为主,人工标注为辅。
  • 第二阶段(2025年):更重视人工筛选高质量任务,并构建大规模强化学习系统。
  • 第三阶段(2026年起):AI研发流程发生根本变化,研发主体将从人转向AI。AI将自主合成任务、构建训练环境乃至探索新架构,研究员更多提供算力与令牌资源。AI将从被训练者,逐渐转变为研发的参与者与主导者,推动领域发展速度急剧提升。

参考资料
[1] https://x.com/cursor_ai/status/2036566134468542651
[2] https://cursor.com/resources/Composer2.pdf
[3] https://mp.weixin.qq.com/s/GjN_dx380VnUmRWHGRajiA


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/27650

(0)
上一篇 1天前
下一篇 1天前

相关推荐

  • MiniMax M2.5深度评测:国模编程可用性突破,逻辑与工程能力全面进化

    短的结论:向下扎根,向上生长 基本情况: 稀宇的前一代M2.1因技术问题,在逻辑能力上落后于M2。M2.5基本解决了这些问题,能力回归正轨,相比M2的综合性能提升约17%。 不过,部分进步是通过更长的思维链和更深的解空间探索换来的。M2.5的平均Token消耗在测试模型中排第6高,几乎是对手Sonnet的2倍。得益于稀宇充足的算力与可控的成本,M2.5在编程…

    2026年2月13日
    61000
  • EfficientFlow:融合等变建模与流匹配,破解生成式策略学习效率瓶颈

    生成式模型在机器人与具身智能领域正迅速崛起,成为从高维视觉观测直接生成复杂动作策略的重要范式。这类方法在操作、抓取等任务中展现出卓越的灵活性与适应性,然而在真实系统部署时,却面临两大根本性挑战:一是训练过程极度依赖大规模演示数据,数据获取成本高昂且标注困难;二是推理阶段需要大量迭代计算,导致动作生成延迟严重,难以满足实时控制需求。这些瓶颈严重制约了生成式策略…

    2025年12月16日
    20300
  • 谷歌AI教父Jeff Dean预言:未来工程师将管理50个智能体实习生,写需求比写代码更重要

    Jeff Dean预言:未来工程师将管理50个智能体,写需求比写代码更重要 谷歌首席AI科学家、传奇工程师Jeff Dean在最新访谈中提出了一个引人注目的预言:未来每位工程师可能会管理多达50个智能体实习生,以并行处理大量任务,且沟通效率将超越人类协作。 他同时指出,未来最重要的技能将是“清晰地定义需求”,因为智能体的输出质量完全取决于人类如何描述和限定问…

    2026年3月10日
    14000
  • 2026年工作流升级指南:10个现代Python库助你提升开发效率

    现代 Python 强调速度、清晰性和低摩擦。开发者期待能消除环境搭建之痛、缩短反馈回路的工具。 以下这些库可以在不增加复杂度的前提下,帮助你改进日常工作。 1. Pixi 📦 如果你曾花更多时间在排查虚拟环境而不是写代码上,Pixi 就是为你准备的。它是一个构建在 Conda 生态上的高性能包管理器,但针对速度与简洁做了优化。 为什么值得切换: 相比传统 …

    2026年1月26日
    25500
  • OpenAI商业模式变革:从API收费转向价值共享,AI药物研发成新盈利点

    今天一早,OpenAI CEO 山姆·奥特曼在社交媒体上公布了其API业务的收入情况:“仅我们的API业务而言,上个月就增加了超过10亿美元的年度经常性收入(ARR)。” 他进一步表示,公众的注意力大多集中在ChatGPT上,但API团队的工作同样取得了令人瞩目的成就。 奥特曼此举可能意在提振市场信心。近期有消息称,OpenAI正计划进行新一轮融资,目标估值…

    2026年1月23日
    36200