北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

IQuest-Coder-V1:性能超群的代码大模型

近期,一个名为 IQuest-Coder-V1 的代码大模型系列在科技领域引发广泛关注。

在最新的SWE-Bench Verified榜单中,其40B参数版本取得了81.4%的成绩,表现超越了Claude Opus-4.5与GPT-5.2等模型。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

除了基准测试成绩,其实际代码生成能力同样引人注目。例如,当要求“编写一个网页来展示一个逼真的太阳系模拟”时,模型能够生成功能完整的交互式网页。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

该模拟器支持自由切换视角、暂停、放大以及调整公转速度。选中具体行星时,还会显示相应的名称与简介。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

目前,该模型系列已在GitHub和Hugging Face平台开源。

值得关注的是,开发团队IQuest与中国的另一AI团队DeepSeek类似,同样源自量化私募领域,其背后公司为北京的九坤投资。这一背景引发了海外社区关于中国量化公司进军AI模型领域的广泛讨论。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

IQuest-Coder-V1系列概览

IQuest-Coder-V1是一个覆盖多参数规模与场景的模型家族,专注于代码生成、理解与软件工程任务。系列提供7B、14B和40B三种参数规模,每个规模均包含Instruct(指令跟随,高效)和Thinking(强化复杂推理,响应较慢)两种版本。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

特别值得注意的是,40B参数版本额外提供了Loop版本。该版本旨在探索更高的参数利用效率,在计算成本相近的情况下,显著降低了HBM与KV Cache开销,并大幅提升了吞吐量。据称,仅增加约5%的训练成本,Loop架构下的40B模型即可达到数百亿参数MoE模型的性能水平。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

在架构设计上,该系列强调“工程友好”与“长上下文可用性”,主要特性包括:
* 分组查询注意力(GQA):减少推理阶段的显存占用与计算压力。
* 原生支持128K上下文长度:能够处理完整代码仓库及跨文件依赖。
* 76800词表:更贴近真实代码环境中的标识符与符号。
* 循环Transformer设计(Loop变体):通过参数共享与重复计算提升参数利用率,且注重推理稳定性。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

以下是官方展示的更多生成案例:

案例1:构建一个交互式粒子-文本动画(如将“IQuest”文本转换为可受鼠标交互影响的粒子点阵)。
北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

案例2:构建一个实时像素沙盒游戏(支持切换沙子、水、石头等元素,并模拟其物理下落与流动)。
北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

案例3:构建一个完整的单文件HTML5 Canvas太空射击游戏(具备霓虹美学、多种敌人、Boss战及升级系统)。
北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

案例4:基于鸟群算法实现一个拥有150个以上自主Agent的群体模拟,并配备实时参数调节面板。
北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

独特的“代码流多阶段训练”策略

IQuest-Coder-V1采用了名为 “代码流多阶段训练” 的策略,与传统基于静态代码片段的训练方法不同。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

该策略的核心在于从代码的动态演化过程中学习。团队专门构建了基于项目生命周期的三元组数据 (R_old, Patch, R_new),即旧版本代码、变更补丁和新版本代码。并且,数据刻意取自项目生命周期中期的稳定阶段(40%–80%)。

这种方法将“软件工程经验”显式编码进训练数据,使模型不仅能学习完成态的代码,还能理解修改意图、逻辑演变以及工程中的试错修正过程,从而更好地捕捉软件开发的动态性。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

这被认为是模型在软件工程类评测中表现优异的重要原因之一。其关键评测成绩如下:
* SWE-Bench Verified: 81.4%
* BigCodeBench: 49.9%
* LiveCodeBench v6: 81.1%

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

下图更直观地展示了IQuest-Coder在多个代码与智能体相关榜单上的领先地位。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

需要指出的是,根据官方说明,该模型仅用于生成代码,不具备代码执行能力,所有输出均应在沙盒环境中进行验证。

部署方面,官方信息显示,无论是基础版本还是Loop版本,均支持单张H20 GPU进行推理。其Int4量化版本则可在单张消费级RTX 3090或4090 GPU上部署。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

有社区讨论指出,非Loop版本的模型架构似乎采用了阿里Qwen2的设计。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

随着模型关注度上升,相关的技术讨论与质疑也随之出现。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

九坤投资:IQuest-Coder的幕后公司

IQuest-Coder模型由九坤投资(Ubiquant Holding Limited)发起设立的至知创新研究院推出。该公司成立于2012年,是中国较早专注于量化投资与高频交易的私募机构之一,目前管理规模达数百亿元人民币,与幻方同属国内量化私募领域的头部公司。

九坤总部位于北京,并于三周前在新加坡设立了办公室。

其联合创始人背景深厚:
* 王琛:2000年考入清华大学,获数学物理学士及理论计算机博士学位,师从图灵奖得主姚期智院士。博士毕业后曾就职于美国顶级对冲基金Millennium,后联合创立九坤投资并担任CEO。
* 姚齐聪:2002年考入北京大学数学系,获数学学士及金融数学硕士学位。毕业后同样进入Millennium工作,后与王琛共同创业,主要负责公司投研体系搭建、量化策略开发与风险管理,是公司策略与风控体系的核心设计者之一。

九坤的投研与技术团队规模超百人,其中90%以上成员毕业于清华大学、北京大学、复旦大学、斯坦福大学等国内外知名高校,博士占比超过60%。公开信息显示,公司倾向于从全球顶尖高校招募具有计算机、数学、物理、统计学等背景的应届毕业生。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

在AI领域,虽然幻方凭借DeepSeek更早为公众熟知,但九坤在AI技术布局上同样深入。其IT与算力建设位居国内量化机构前列,并设立了数据实验室(DATA LAB)、人工智能实验室(AI LAB)等多个前沿研究部门。

此次发布的IQuest-Coder并非九坤在AI领域的首次尝试。此前(2025年12月16日),公司已推出通用推理模型URM。该模型在ARC-AGI基准测试中正确率达53.8%,允许多次尝试时成功率可超85%;在更困难的ARC-AGI 2基准上也取得了16.0%的成绩。

技术报告文末附有IQuest-Coder团队的成员名单。

北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

值得注意的是,该报告的核心作者层,与《Scaling Laws for Code》、《CodeSimpleQA》、《From Code Foundation Models to Agents and Applications》等论文的作者阵容重合度较高。以下是部分可查找到公开资料的核心贡献者介绍:

  • Jian Yang:谷歌学术引用量超过1.6万次。此前长期在Qwen 2.5和Qwen 3团队工作,自2025年起开始在九坤投资发表论文。
    北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行
  • Zhengmao Ye:本科毕业于西南交通大学,于四川大学获得计算机科学硕士学位。曾先后在华为和商汤科技担任技术职务。
    北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行

该技术报告的通讯作者为九坤人工智能实验室首席研究员及负责人Bryan Dai。

论文与参考资料
* 技术报告地址:file:///Users/hengknows/Downloads/IQuest_Coder_Technical_Report%20(1).pdf
* [1] https://x.com/zephyr_z9/status/2006579658972868988?s=20
* [2] https://github.com/IQuestLab/IQuest-Coder-V1?tab=readme-ov-file
* [3] https://iquestlab.github.io/#/
* [4] https://www.reddit.com/r/LocalLLaMA/comments/1q0x19t/anyone_tried_iquestcoderv1_yet_the_40b_numbers/


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/16677

(1)
上一篇 2026年1月2日 上午11:16
下一篇 2026年1月2日 下午2:58

相关推荐

  • 清华大学联合美团推出3DThinker:首个让大模型“脑补”三维场景的突破性框架

    给定几张场景图片,人类往往能在脑海中想象出该场景的三维布局。然而,当前的多模态大模型仍主要基于纯文本或二维视觉信息进行推理,难以有效表达图像中隐含的几何结构。 为此,清华大学与美团研究团队联合提出了 3DThinker——首个旨在让大模型进行三维场景“脑补”的突破性框架。 论文地址:https://arxiv.org/pdf/2510.18632 代码地址:…

    2026年3月11日
    8500
  • 华为诺亚&港中文发布SCOPE框架:让LLM Agent从错误中学习,实现Prompt自我进化

    在 LLM Agent 领域,一个常见的问题是:Agent 明明“看到了”错误信息,却总是重蹈覆辙。 当 Agent 遇到工具调用错误时,错误日志里往往已经包含了解决方案——正确的参数格式、有效的 API 用法、甚至是直接可用的替代方案。然而,静态的 Prompt 无法让 Agent 从这些反馈中“学到教训”,导致它们陷入“错误循环”:承认失败,却重复同样的…

    2025年12月26日
    19300
  • Kimi重磅发布《Attention Residuals》:颠覆十年残差连接,用同样算力实现1.25倍效果提升

    注意力残差:对残差连接的结构性改进 引言:一个基础性的问题 现代大型语言模型普遍采用深度神经网络架构,信息从输入层开始,逐层向上传递并接受加工,最终产生输出。然而,随着网络层数的增加,训练过程面临一个根本性挑战:梯度信号在反向传播过程中,经过数十甚至上百层的传递后,可能严重衰减或消失,导致底层参数难以得到有效更新。 2015年,何恺明团队在《Deep Res…

    1小时前
    1800
  • DeepSeek OCR:颠覆传统,用视觉压缩破解AI扩展的“十亿美元级”文档处理难题

    Part I: 文本的“隐形重量” 我们通常认为文本是“轻”的:易于存储、传输和计算。但在大语言模型时代,文本变得非常“重”。 处理一张发票的PDF扫描件,就可能消耗1,000至5,000个tokens。将这个数量级乘以企业日志、法律合同、监管文件和数字化档案,总token量将变得极其庞大——其中大部分是冗余、昂贵且处理缓慢的。虽然OpenAI的GPT-4-…

    2025年10月31日
    18300
  • 告别AI作弊与偷懒:强化学习如何成为真正的GPU内核优化专家

    关键词:强化学习、Triton 内核生成、奖励破解、惰性优化、多轮优化 告别“作弊”与“偷懒”,让强化学习成为真正的 GPU 内核优化专家 训练一个能够编写高效 GPU 内核的 AI 程序员,是加速大模型训练的关键。然而,在实践中,AI 往往会陷入两种困境:一是“作弊”,即利用评测系统的漏洞生成看似高效、实则无效的代码以获取高奖励;二是“偷懒”,即只解决简单…

    1天前
    4100