如今,大模型在理解、推理、编程等方面表现突出,但AI的“科学通用能力” (SGI) 尚无统一标准。
SGI强调多学科、长链路、跨模态与严谨可验证性,而现有基准仅覆盖碎片能力 (如学科问答、单步工具操作) ,难以反映真实科研中的循环与自纠错。为此,上海人工智能实验室通过引入实践探究模型 (PIM) ,将科学探究拆解为四个循环阶段,并与AI能力维度对应:

审思/深度研究 (Deliberation) :复杂问题下的检索、证据综合与批判评估;
构思/创意生成 (Conception) :提出新假说与可执行研究方法;
行动/实验执行 (Action) :将想法转化为计算代码 (干实验) 与实验室流程 (湿实验) ;
感知/结果解读 (Perception) :整合多模态证据并进行因果、比较等分析推理。
团队将上述四维能力的综合定义为SGI,并发布覆盖全流程的SGI‑Bench。首轮结果:闭源模型Gemini‑3‑Pro以SGI‑Score 33.83/100取得SOTA,但距离“会做研究”的门槛仍显著不足。

SGI-Bench:以科学家工作流对齐的全流程评测
SGI‑Bench采用“科学家对齐(scientist-aligned)” 的任务构造:
- 多学科专家提供原始语料 (研究方向、图文材料等) 与少量种子问题 (seed questions) ;
- 招募超过100位研究生/博士生根据输入输出结构与种子问题,结合真实科研流程,进行题目构建;
- 经规则校验、模型校验、专家复核三重清洗;最终再以多模型难度筛选剔除简单样本。
最终得到1000多个覆盖10大学科 (化学、生命、物理、数学等) 的评测样本。


核心结果与洞见:今天的“强模型”,尚未成为“强科学家”
1. 审思/深度研究Deliberation
科学深度研究(Scientific Deep Research)步骤准确率高于严格匹配,长链路“结论崩塌”
任务模拟文献元分析与多跳检索,要求在明确约束下检索并整合跨来源证据、进行定量推理,输出可核验结论。

实验结果:

步骤准确率达50%–65%,但长链条步骤中的错误导致最终结论频繁错误,答案严格匹配仅10%–20%。

工具增强的多智能体在逐步准确率略优,但与纯模型差距并不显著。

类型上,“数据/性质”题最难,需跨文献精确检索与数值聚合;“微/宏实验”类相对较好但整体仍低于30%,体现元分析难度的严苛性。
2. 构思/创意生成Conception
创意生成(Idea Generation)新颖度尚可,但可行性偏低
面向整体思路和具体方案,考察将灵感转化为可执行蓝图的能力 (包含创新点、方法步骤,数据,指标等) 。

实验结果:

- 闭源模型“新颖性 (Novelty) ”更强,但“可行性 (Feasibility) ”普遍偏低。以GPT‑5为例:新颖性76.08、可行性18.87,体现“概念丰富≠可执行方案”。
- 开源可行性上限约20分 (如Qwen3‑Max 20.98) ,多数模型14–20分,显示“能说清”与“能落地”之间的落差。
- 常见缺陷:缺少数据获取与预处理计划;流程接口不闭合 (输入输出不对齐) ;步骤顺序与依赖模糊,导致“创意→蓝图→执行”闭环断裂。
3. 行动/实验执行Action:干实验(Dry Experiment)
可运行≠科学正确
根据科学背景,将缺失函数补全到主代码中,检验科学代码合成、数值稳健性与算法精确性,强调严格正确与可执行。

实验结果:

- 每题含5个单测,最佳Gemini‑3‑Pro的严格通过率 (全过5个单测) 仅36.64%,宽松通过率 (至少过1个) 41.98%,表明模型常能写对部分,但难以实现严格正确。
- 闭源模型略优于开源,但优势有限且分布重叠,“科学代码合成”仍是各架构共同短板。

- 平滑执行率 (无报错运行) 多在90%+,显示“能跑”与“算对”之间存在系统性鸿沟。
- 类型上,数据处理/预测建模较稳;数值计算与仿真最弱,受离散化、稳定性与约束处理影响。例:引力波体积估计中,前向累加 (np.cumsum) 与自适应积分 (scipy.integrate.quad) 差异巨大;前者累积误差经χ(z)影响dV/dz,最终体积严重偏离。

4. 行动/实验执行Action:湿实验(Wet Experiment)
动作时序、分支与参数选择是硬伤
基于实验背景与原子动作池,生成带参数的原子动作序列,以检验流程规划、顺序依赖与复杂约束的正确处理。

实验结果:

- 序列相似度整体偏低,最佳闭源约35.5;参数准确率最高约40.6;部分闭源参数准确率显著下跌 (约20.7) 。
- 高发错误:插入多余步骤、遗漏关键步骤、打乱有效步骤顺序。
- 在NSCLC抗PD‑1流程中,常见错误包括:将纵向采样简化为一次采血;PBMC只在单一时间点分离;功能测定未按时间/刺激分组;基因组测序与免疫表型流程混用样本等,反映时间协调、分支规划与样本管理薄弱。

5. 感知/结果解读Perception
多模态实验推理(Experimental Reasoning)因果推理尚可,比较推理最难
综合解读多模态证据 (图像、流程、可视化等) ,识别跨模态线索、建模变量关系,进行比较与因果判断,输出可读推理与准确答案。


实验结果:

- 闭源整体更强:最佳闭源答案准确率约41.9、推理有效性最高约71.3。
- 多数模型推理有效性高于答案准确率:难以实现推理链条的完全正确。
- 推理类型上,因果推断与感知识别较稳;比较型最弱,涉及跨样本细粒度对比与一致性判别。学科上,天文最佳,物理、生命等学科挑战较大。

智能体评测框架:简单,高效,定制化
传统评测框架大都基于固定的评测脚本,对于普通用户的上手难度高且难以根据需求差异进行定制化评测。团队面向“可定制评测与报告生成”设计SGIEvalAgent,它由4部分构成:
- 任务精选智能体:结合用户需求,按学科、任务类型、样本规模等选择评测题目。
- 指标定制智能体:根据用户需求自定义评测指标。
- 评测执行智能体:运行评测并得到分数。
- 报告生成智能体:综合用户输入与评测结果,撰写评测报告。

你可以用自然语言描述评测意图 (如“比较两款模型在跨学科创意生成上的严谨性”) ,系统将自动解析意图、选择题目、定制指标,执行推理与打分 ,最终输出带有可追溯证据链的评测报告 与可复现的明细结果。

SGI-Bench:不止一个基准,更是一条路线图
SGI‑Bench的结果为AI自主科研指明方向:
深度研究: 强化证据聚合与数值鲁棒性,提升深层研究准确性。
创意生成: 引入规划感知与结构化监督,保障创意可行与执行细节完备。
代码生成: 训练需超越语法,聚焦数值分析先验与算法稳定性。
湿实验协议: 结合状态模拟,重点解决时序逻辑与复杂分支。
多模态推理: 通过细粒度视觉定位与对比训练,提升比较推理精度。
资源链接:
* 论文:https://arxiv.org/pdf/2512.16969
* 项目主页:https://InternScience.github.io/SGI-Page/
* 代码仓库:https://github.com/InternScience/SGI-Bench
* 数据集:https://huggingface.co/collections/InternScience/sgi-bench
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/15450
