北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

IQuest-Coder-V1:性能超群的代码大模型

近期,一个名为 IQuest-Coder-V1 的代码大模型系列在科技领域引发广泛关注。

在最新的SWE-Bench Verified榜单中,其40B参数版本取得了81.4%的成绩,表现超越了Claude Opus-4.5与GPT-5.2等模型。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

除了基准测试成绩,其实际代码生成能力同样引人注目。例如,当要求“编写一个网页来展示一个逼真的太阳系模拟”时,模型能够生成功能完整的交互式网页。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

该模拟器支持自由切换视角、暂停、放大以及调整公转速度。选中具体行星时,还会显示相应的名称与简介。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

目前,该模型系列已在GitHub和Hugging Face平台开源。

值得关注的是,开发团队IQuest与中国的另一AI团队DeepSeek类似,同样源自量化私募领域,其背后公司为北京的九坤投资。这一背景引发了海外社区关于中国量化公司进军AI模型领域的广泛讨论。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

IQuest-Coder-V1系列概览

IQuest-Coder-V1是一个覆盖多参数规模与场景的模型家族,专注于代码生成、理解与软件工程任务。系列提供7B、14B和40B三种参数规模,每个规模均包含Instruct(指令跟随,高效)和Thinking(强化复杂推理,响应较慢)两种版本。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

特别值得注意的是,40B参数版本额外提供了Loop版本。该版本旨在探索更高的参数利用效率,在计算成本相近的情况下,显著降低了HBM与KV Cache开销,并大幅提升了吞吐量。据称,仅增加约5%的训练成本,Loop架构下的40B模型即可达到数百亿参数MoE模型的性能水平。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

在架构设计上,该系列强调“工程友好”与“长上下文可用性”,主要特性包括:
* 分组查询注意力(GQA):减少推理阶段的显存占用与计算压力。
* 原生支持128K上下文长度:能够处理完整代码仓库及跨文件依赖。
* 76800词表:更贴近真实代码环境中的标识符与符号。
* 循环Transformer设计(Loop变体):通过参数共享与重复计算提升参数利用率,且注重推理稳定性。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

以下是官方展示的更多生成案例:

案例1:构建一个交互式粒子-文本动画(如将“IQuest”文本转换为可受鼠标交互影响的粒子点阵)。
北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

案例2:构建一个实时像素沙盒游戏(支持切换沙子、水、石头等元素,并模拟其物理下落与流动)。
北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

案例3:构建一个完整的单文件HTML5 Canvas太空射击游戏(具备霓虹美学、多种敌人、Boss战及升级系统)。
北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

案例4:基于鸟群算法实现一个拥有150个以上自主Agent的群体模拟,并配备实时参数调节面板。
北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

独特的“代码流多阶段训练”策略

IQuest-Coder-V1采用了名为 “代码流多阶段训练” 的策略,与传统基于静态代码片段的训练方法不同。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

该策略的核心在于从代码的动态演化过程中学习。团队专门构建了基于项目生命周期的三元组数据 (R_old, Patch, R_new),即旧版本代码、变更补丁和新版本代码。并且,数据刻意取自项目生命周期中期的稳定阶段(40%–80%)。

这种方法将“软件工程经验”显式编码进训练数据,使模型不仅能学习完成态的代码,还能理解修改意图、逻辑演变以及工程中的试错修正过程,从而更好地捕捉软件开发的动态性。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

这被认为是模型在软件工程类评测中表现优异的重要原因之一。其关键评测成绩如下:
* SWE-Bench Verified: 81.4%
* BigCodeBench: 49.9%
* LiveCodeBench v6: 81.1%

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

下图更直观地展示了IQuest-Coder在多个代码与智能体相关榜单上的领先地位。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

需要指出的是,根据官方说明,该模型仅用于生成代码,不具备代码执行能力,所有输出均应在沙盒环境中进行验证。

部署方面,官方信息显示,无论是基础版本还是Loop版本,均支持单张H20 GPU进行推理。其Int4量化版本则可在单张消费级RTX 3090或4090 GPU上部署。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

有社区讨论指出,非Loop版本的模型架构似乎采用了阿里Qwen2的设计。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

随着模型关注度上升,相关的技术讨论与质疑也随之出现。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

九坤投资:IQuest-Coder的幕后公司

IQuest-Coder模型由九坤投资(Ubiquant Holding Limited)发起设立的至知创新研究院推出。该公司成立于2012年,是中国较早专注于量化投资与高频交易的私募机构之一,目前管理规模达数百亿元人民币,与幻方同属国内量化私募领域的头部公司。

九坤总部位于北京,并于三周前在新加坡设立了办公室。

其联合创始人背景深厚:
* 王琛:2000年考入清华大学,获数学物理学士及理论计算机博士学位,师从图灵奖得主姚期智院士。博士毕业后曾就职于美国顶级对冲基金Millennium,后联合创立九坤投资并担任CEO。
* 姚齐聪:2002年考入北京大学数学系,获数学学士及金融数学硕士学位。毕业后同样进入Millennium工作,后与王琛共同创业,主要负责公司投研体系搭建、量化策略开发与风险管理,是公司策略与风控体系的核心设计者之一。

九坤的投研与技术团队规模超百人,其中90%以上成员毕业于清华大学、北京大学、复旦大学、斯坦福大学等国内外知名高校,博士占比超过60%。公开信息显示,公司倾向于从全球顶尖高校招募具有计算机、数学、物理、统计学等背景的应届毕业生。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

在AI领域,虽然幻方凭借DeepSeek更早为公众熟知,但九坤在AI技术布局上同样深入。其IT与算力建设位居国内量化机构前列,并设立了数据实验室(DATA LAB)、人工智能实验室(AI LAB)等多个前沿研究部门。

此次发布的IQuest-Coder并非九坤在AI领域的首次尝试。此前(2025年12月16日),公司已推出通用推理模型URM。该模型在ARC-AGI基准测试中正确率达53.8%,允许多次尝试时成功率可超85%;在更困难的ARC-AGI 2基准上也取得了16.0%的成绩。

技术报告文末附有IQuest-Coder团队的成员名单。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

值得注意的是,该报告的核心作者层,与《Scaling Laws for Code》、《CodeSimpleQA》、《From Code Foundation Models to Agents and Applications》等论文的作者阵容重合度较高。以下是部分可查找到公开资料的核心贡献者介绍:

  • Jian Yang:谷歌学术引用量超过1.6万次。此前长期在Qwen 2.5和Qwen 3团队工作,自2025年起开始在九坤投资发表论文。
    北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行
  • Zhengmao Ye:本科毕业于西南交通大学,于四川大学获得计算机科学硕士学位。曾先后在华为和商汤科技担任技术职务。
    北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

该技术报告的通讯作者为九坤人工智能实验室首席研究员及负责人Bryan Dai。

论文与参考资料
* 技术报告地址:file:///Users/hengknows/Downloads/IQuest_Coder_Technical_Report%20(1).pdf
* [1] https://x.com/zephyr_z9/status/2006579658972868988?s=20
* [2] https://github.com/IQuestLab/IQuest-Coder-V1?tab=readme-ov-file
* [3] https://iquestlab.github.io/#/
* [4] https://www.reddit.com/r/LocalLLaMA/comments/1q0x19t/anyone_tried_iquestcoderv1_yet_the_40b_numbers/


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/16677

(1)
上一篇 2026年1月2日 上午11:16
下一篇 2026年1月2日 下午2:58

相关推荐

  • 自进化Text-to-SQL系统:基于Stanford ACE框架的智能查询优化革命

    自进化Text-to-SQL系统:基于Stanford ACE框架的智能查询优化革命 当前,大多数Text-to-SQL系统采用多智能体架构与单体式提示词。它们通过一系列分工明确的智能体(如负责模式分析、查询规划和SQL生成的智能体)来协作生成可执行的SQL查询。 尽管这些单体式系统能够工作,将“显示顶级客户”这样的自然语言转换为SQL,但其生成的查询结果往…

    2025年11月6日
    7500
  • AI Agents工具构建指南:从规范定义到高效使用的核心策略

    AI Agent 是由一系列大语言模型(LLM)调用构成的程序。它们接收用户任务,并通过调用“工具”来高效解决问题。工具本质上是 Agent 可以调用的函数。然而,构建一个高效的 Agent 远不止于简单地将一组函数塞入其上下文。关键在于如何精心定义工具,以及如何向 Agent 清晰地传达这些工具的信息。 本文旨在阐述为 AI Agent 构建工具时应关注的…

    2025年11月24日
    7800
  • 文心5.0正式版发布:2.4万亿参数原生全模态架构,登顶LMArena的“最强文科生”技术解析

    2.4万亿参数,原生全模态架构,在文本榜上“霸榜如喝水”。 在文心Moment大会上,文心大模型5.0正式版 上线。该模型参数量达2.4万亿,采用原生全模态统一建模技术,具备全模态理解与生成能力,支持文本、图像、音频、视频等多种信息的输入与输出。在40余项权威基准的综合评测中,文心5.0正式版的语言与多模态理解能力稳居国际第一梯队。其音频和视觉生成能力与垂直…

    2026年1月24日
    3900
  • 超越基础RAG:构建面向学术论文的智能检索系统实战

    在AI工程实践中,你很快会意识到:并不存在一张可以完全照搬的“通用蓝图”。 对于检索增强生成(RAG)中的基础检索(“R”),标准流程包括文档分块、查询语义搜索、结果重排等。这套流程已广为人知。 但随着系统深入应用,一个问题会浮现:如果一个系统对一篇文档的理解仅限于几个零散的文本块,我们如何能称其为“智能”? 那么,如何确保系统获得足够的信息,从而做出“聪明…

    2026年1月19日
    5400
  • GraphRAG革命:知识图谱与向量数据库的协同进化

    Knowledge graphs 和 vector databases 常被定位为彼此竞争的技术,但这种框架忽略了问题的本质。 它们是对立的吗?简短回答:不是。 它们解决的是根本不同的问题。事实上,它们最好的状态是协同,而不是对抗。如果你在构建现代 AI 系统,把它们当作对手是一种设计缺陷。 更好的理解方式是: Knowledge Graph = 结构化大脑…

    2025年12月28日
    8800