多数大模型能够生成“看起来像”学术研究的文本,但极少能真正执行研究过程——即提出假设、收集证据、执行可复现的推导,并通过迭代验证形成可靠结论。
近期,发布了BabyVision评测基准(该基准已被多个重要模型采纳)的UniPat AI,在其最新博客《UniScientist: Advancing Universal Scientific Research Intelligence》中,为这一问题提供了一个清晰而系统的解决方案。
UniPat AI开源了UniScientist项目,其核心是一个30B参数的模型,旨在实现科研流程的闭环。在FrontierScience-Research和ResearchRubrics等科学研究能力评测榜单上,该模型的表现匹敌甚至超越了参数量大一个数量级的顶尖闭源模型。

01|“撰写报告”不等于“进行研究”:实现流程闭环是关键
当前许多模型处理“研究任务”时,仅停留在表面:它们能够引用文献、组织逻辑、并模仿论文格式。
然而,其核心问题在于:它们往往陷入“叙事性推理”或从预设“结论”出发的逻辑陷阱——论述看似合理,但缺乏扎实验证,推导过程不稳定,可复现性弱。
UniScientist直接回应了这一能力缺口。仅凭30B参数,它便具备了“自主科学研究”的能力:能够在开放性问题中持续提出假设、进行证伪、修正观点,直至证据状态趋于稳定,最终将全过程沉淀为结构化的研究成果。
这背后的理念很明确:真正的科研不仅在于产出漂亮的报告,更在于能够完整运行“假设-证据-验证”的闭环流程。
02|数据瓶颈:人工撰写缓慢,纯合成数据真实性不足
UniScientist首先指出了高质量科研训练数据的构建难题。现有方案通常走向两个极端:
- 纯人工标注:生态真实、判断精准,但成本高昂、速度慢,且受限于单一专家的知识边界。
- 纯合成数据:规模大、成本低,但常常缺乏可判别的精度和学科落地的真实性。
UniScientist的关键洞察源于一个常被忽视的不对称性:
* 大语言模型更擅长生成:能够跨学科、大规模地提出候选研究问题和解法草案。
* 人类专家更擅长验证:鉴别研究的真伪与质量,其成本和难度远低于从零创造,并能提供高精度的学科把关。
这种不对称性指向了一种更高效的分工模式:模型负责规模与多样性,人类专家负责质量与可验证性。这正是UniScientist数据引擎的核心原则——确保产出的训练实例既有广泛的专业覆盖面,又有严格的验证保障。

03|形式化科学研究:证据状态与溯因假设的动态系统
许多关于“科研智能”的讨论聚焦于更好的工具调用或更精准的检索。UniScientist则在更本质的层面进行探索。团队将开放式科研过程建模为一个基于两个基本操作的动态系统:主动证据整合与模型溯因。
系统的核心是一个不断演化的“证据状态”,其中证据被分为两类:
* Evidence-Grounded:可独立核验的证据,来自外部权威来源,或内部产出但经过明确检查验证。
* Formally-Derivable:可形式化推导/复现的证据,通过符号推导、数值计算、仿真实验等可复现程序得到。
系统随后循环执行三个步骤:
1. 产生假说。
2. 获取外部权威信息证据,并进行计算和推导以获取新证据。
3. 进行溯因更新:调整假说以更好地解释当前的证据状态。
此循环持续进行,直至证据足够完整和稳定,最终将整个研究过程转化为一份严谨的科学成果。这种形式化建模具有重要意义:它将“科研智能”从一个远大理想,转变为可训练、可评估、可迭代的具体对象。
04|将开放科研问题转化为“可验证的单元测试”
UniScientist提出了进化式多学科合成数据引擎,它承担两项核心功能:
1. 从经过专家验证的科学主张出发,将其扩展为研究级问题——这些问题跨越多个相互依赖的子问题,要求实验设计与推导协同进行。
2. 同步合成评测准则。这些准则不评估文风或格式等表面质量,而是评估具体的科学发现是否已被达成。
该设计中最具辨识度的特征是:一份开放式科研成果被分解为N个封闭的、可独立验证的准则检查项。
每个检查项都力求做到:原子化、客观、可证据落地或可形式化推导,并额外强调:
* 一致性:对相同科研成果,重复评测结果应稳定。
* 区分度:能有效区分不同完整度的成果。
* 原子性:单条准则只校验一个核心知识点。
目前,该数据集仍在持续扩展,已包含超过4,700个研究级实例,每个实例附有20+条准则项,覆盖50+学科和400+研究方向。专家对每条样本的平均标注投入为1-2小时,学科范围从量子物理、有机化学到社会文化人类学、计算语言学均有涉及。

数据集中包含了具备真实科研质感的研究问题。下图展示的是一道生态学方向的示例,完整案例库可通过官方博客查阅。
这些问题的共同特征在于:没有任何一道可以通过匹配记忆中的既有答案直接解决。每一道都要求执行完整的科研链条——文献调研、假设形成、实验或推导设计、分析验证以及最终成果的收敛。

05|从单点生成到群体智慧
UniScientist引入了一个额外的训练目标:成果聚合目标。
给定同一问题的N份候选科研成果,模型学习融合各家优点,产出一份更完整、更稳健的最终成果。通过基于准则阈值的拒绝采样来筛选高质量参考答案,模型的聚合能力与科研生成能力被一同训练。
这反映了科学研究中的一个现实:对于复杂问题,单次尝试未必能产生最佳成果。该设计实际上将“集体科研智能”的理念写入了训练过程:模型不仅学会了产出研究,还学会了比较、取舍、整合与自我进化。
06|30B小模型比肩大规模闭源系统
评测结果引人注目,尤其考虑到模型的规模。
UniScientist-30B-A3B——一个仅有30B参数(激活参数3B)的模型——在FrontierScience-Research评测中达到28.3分,超越了Claude Opus 4.5(17.5)、Gemini 3 Pro(12.4)、GPT-5.2 xhigh completion模式(25.2)以及工具调用模式下的DeepSeek V3.2(26.7)和Seed 2.0 Pro(26.7)。在其成果聚合模式下,得分进一步提升至33.3。
在FrontierScience-Olympiad评测中,启用工具的UniScientist得分71.0,与Claude Opus 4.5持平,并超越了多个其他前沿模型。在多项分布外基准——DeepResearch Bench、DeepResearch Bench II和ResearchRubrics上——模型的表现与一系列顶级闭源系统相当。
一个尤为重要的发现是:即使在无工具辅助的评测条件下,其性能仍有显著提升。
这表明,性能的提升并非单纯源于工具调用频率的增加,模型自身的研究推理能力在训练中得到了实质性增强。
所有基准测试结果均指向同一结论:模型学会的不仅是更高效地检索信息,更是将检索、推导、验证与写作整合为一个连贯、自主的研究工作流。

下一步:迈向现实世界实验
科学研究不止步于形成合理的理论叙事,许多结论最终依赖于可执行、可复现的计算与仿真验证。
为此,UniScientist 集成了代码解释器,将研究流程从叙事式推理升级为“假设-测试-修正”的循环。在此过程中,假设不仅被提出,更被实例化为具体的计算实验,其结果用于确认、推翻或细化初始假设。
目前,系统的能力主要集中于可复现的推理与仿真计算范畴。对于真实世界研究资源的协调——例如可靠地调度大规模GPU计算任务或编排湿实验流程——尚未实现自动化。
UniScientist 在官方博客中明确了下一步发展方向:将框架扩展至对真实实验与计算基础设施的受控编排与执行,旨在进一步加速科学发现进程,推动研究前沿。
以下展示了 UniScientist 进行完整科研推理的一个实例,详细推理过程可参阅其博客。

关于 UniPat AI
UniPat AI 此前曾发布多模态评测基准 BabyVision,该基准已被部分近期模型纳入评测体系,并在多项技术报告中获得引用。此次发布的 UniScientist 则将焦点转向科研任务,提出了将全链条科研能力内化于模型的方案,使模型具备了自主推进科学研究进程的潜力。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/24837
