中国团队首创医疗AI临床安全-有效性双轨评估标准CSEDB,获《npj Digital Medicine》收录
中国团队首次在全球顶尖期刊发表“大模型+医疗”领域的相关标准研究。
作为Nature体系中专注于数字医疗的旗舰期刊,《npj Digital Medicine》(JCR影响因子15.1,中科院医学大类1区Top期刊)此次收录的CSEDB研究,首次提出了一套用于评估医疗大模型真实临床能力的系统性框架。
该框架由中国AI医疗公司“未来医生”协同32位来自北京协和医院、中国医学科学院肿瘤医院、北京大学口腔医院、中国医学科学院阜外医院、中国人民解放军总医院、复旦大学附属华山医院、上海市同济医院等顶尖医疗机构的23个核心专科的一线临床专家共同制定。

CSEDB全称为Clinical Safety-Effectiveness Dual-Track Benchmark (临床安全性与有效性双轨基准) ,它首次为评估医疗AI真实临床能力建立了一个基于临床专家共识、覆盖全面风险维度,并将安全性与有效性分开考量的标准化基准。通过公开实验,CSEDB可直接呈现不同模型在同一标尺下的临床能力对照结果。
GlobalMD创始人Tim Shi对此评价道:
这正是我们一直在等待的市场信号!
由中国推动的标准+MedGPT的表现=真正的差异化。

从行业角度看,这项研究释放出了一个清晰的信号:
医疗AI的竞争,正在从能力展示阶段,正式进入责任定义阶段。
CSEDB凭什么被权威期刊认可?
医疗既是高价值场景,也是高风险场景。当前,包括谷歌、OpenAI、Anthropic等在内的全球科技公司均在加速押注医疗AI。然而,医疗AI发展至今,一个核心矛盾始终存在:现有评估体系多围绕学术数据集展开,关注准确率、召回率等统计指标,却难以回答模型在真实临床场景中部署使用的实际结果。而针对人类医生的执业医师考试,也难以完全覆盖真实诊疗的复杂性。
“真实临床工作的复杂性远超考试。”北京协和医院胸外科主任医师梁乃新教授指出,执业医师考试是一种通过性门槛,核心是考核基础规范与“不犯错”的能力。在面对个体化治疗与多病共存的患者时,医生的核心价值在于做出追求更好的综合判断。因此,医疗AI往往在评测榜单上表现亮眼,但很难在真实诊疗环境中验证其安全性和有效性。
正是在此背景下,CSEDB被提出。其最为创新的地方,在于首次在医疗AI评估中引入了“安全性”与“有效性”双轨评价体系。与以往算总分的评测标准不同,CSEDB一条轨道专注安全性,另一条轨道衡量有效性,只有同时通过这两道门槛,模型才被认为具备临床部署的基本资格。

更关键的是,CSEDB在指标设计上引入了风险权重机制,每一项评估指标都会根据其潜在临床风险,被赋予1到5级的权重。涉及误诊、禁忌用药等高风险情境的指标,会对总评分产生显著影响。这种设计逻辑在评估阶段就模拟了医疗决策中的风险分级体系,将“安全优先”原则嵌入评分结构。

为了支撑评估,专家团队构建了一个面向真实临床问题的数据集。整套评估体系共涵盖2069个开放式问答条目,覆盖26个临床专科。这些问答场景高度贴近一线临床病例推演,涵盖危急重症状识别、致死性诊断失误、剂量与器官功能失配、严重过敏史忽视、常见病正确诊断、多病并存优先级、并发症预警提示等关键场景,强调模型在连续决策中的表现。
从评估逻辑上看,CSEDB关注的核心并非模型“知道多少”,而是模型“如果这样判断,会发生什么”。这种以医疗后果为中心的设计,使其天然具备部署导向和监管友好性,同时具备向不同医疗体系扩展的潜力。从根本上改变评估目标,兼具专业性和完整性,方法论上可复现、可推广,让CSEDB能够覆盖真实临床风险,为不同国家的不同医疗机构采用同一标尺提供了可能。

在此框架下,专家团队评估了全球范围内的主流大模型,包括DeepSeek-R1、OpenAI o3、Gemini-2.5、Qwen3-235B、Claude-3.7等。结果显示,在总体得分、安全性和有效性三个核心维度上,中国未来医生团队推出的MedGPT均位列第一。尤其在安全性指标上,MedGPT与其他模型拉开了显著差距,更是唯一一个在安全性评分上超过有效性的模型。

临床安全和有效性持续收敛:MedGPT技术解析
夺冠的MedGPT是什么来头?它由中国AI医疗公司“未来医生”推出,是一个原生为临床使用场景设计的医疗大模型。

鉴于医疗决策本身并不均质,MedGPT的核心架构设计了快慢双系统模式。大量临床场景高度常规,路径清晰、风险可控,且对响应速度要求高。快慢双系统中的“快系统”专为此类场景设计,采用轻量化推理结构,在高度结构化的医学知识约束下快速生成候选结论,响应时间可压缩至百毫秒量级,追求在低风险前提下的稳定高效输出。
然而,面对症状不典型、存在合并症或用药冲突等复杂高风险场景时,单一的快系统机制不足以保证安全性。为此,MedGPT配备了“慢系统”。慢系统会主动拉长推理链,引入多阶段临床演绎路径(如病史分析-鉴别诊断-结论验证),并调用更丰富的医学知识库与专家经验进行交叉校验。
MedGPT会根据问题的风险等级、信息不确定性及潜在后果,动态决定是否从快系统升级到慢系统。为了进一步确保严谨性,模型还引入了专门的风险调和与控制机制“ACC层”,来处理两套系统输出之间的冲突。当快系统的直觉性结论与慢系统发现的风险信号不一致时,系统会优先触发风险约束,重新审视推理路径,必要时直接拒绝输出,并引导转向人工就医。
在训练和数据层面,MedGPT通过结构化方式内化了医学知识体系,使其推理过程更接近真实的医学决策路径。同时,MedGPT在使用中持续进化,每周来自超过一万名医生的两万条诊疗反馈会沉淀下来,纳入模型推理单元训练,形成数据飞轮。从结果看,MedGPT每月准确率均稳定提升1.2%-1.5%。
MedGPT的核心工程化能力体现在三个方面:
1. 医学逻辑显式建模:将临床决策过程拆解为结构化路径(如病史分析、初步判断、鉴别诊断、结论验证),每一步对应明确的医学知识来源和校验规则,使推理过程可追溯。
2. 临床风险量化控制:通过快慢双系统的动态分流和ACC层的风险调和,将临床风险前置到推理过程中。在高风险场景下,系统主动提高验证门槛,甚至触发拒答和就医引导,明确产品责任边界。
3. 临床反馈动态闭环:模型在真实使用中持续接收医生反馈,每周沉淀大量规则更新。这些反馈直接作用于慢系统的推理路径修正和风险策略调整,确保模型的进化方向始终由真实诊疗场景牵引。
医学逻辑的显式建模、临床风险的量化控制以及临床反馈的动态闭环,这三层机制的叠加使得安全性与有效性在MedGPT身上持续收敛,构成了其核心壁垒,也解释了其在CSEDB评估中展现出的优势。

尊重医学复杂性、且其设计哲学与评估标准高度一致的MedGPT,被团队定位为未来医生产品体系的核心动力引擎。
让医疗AI能力在使用中收敛
若仅将模型视为技术能力的展示,那么一时在评测中夺冠便已足够。然而对于未来医生团队而言,比展示模型能力更重要的,是如何将技术优势转化为真实的临床价值。
未来医生以通过CSEDB严格验证的MedGPT为核心,构建了精准匹配不同医疗角色与场景的产品矩阵:
- 患者侧的“未来医生”:7*24小时为用户提供高质量、负责任、可追溯的严肃诊疗服务,致力于“让顶级专家免费在线给全国人民看病”。
- 医生侧的“未来医生AI工作室”:深度嵌入诊疗决策流程,成为医生的智能协作者。
- 基层医疗场景下的“未来家医”:为资源有限的基层机构提供持续、可靠的辅助支持。
这些产品让技术主动适配临床工作流,在每一个环节追求可衡量的效率提升与风险控制。其目标是通过AI技术实现优质医疗资源的有效复制,进而缓解医疗资源供给不足的困境,最终使高品质的健康与医疗服务变得人人可及。
技术能力通过CSEDB这样的评估框架得到验证,产品体系又让这些能力持续暴露在真实使用场景中反复检验,一个独特的“牵引式”进化闭环就此形成。
技术能力通过CSEDB的验证获得“准生证”,产品矩阵则将其置于真实场景中反复淬炼。技术被迫遵从临床流程的严格约束,产品则通过用户反馈不断向技术提出更高、更精准的要求。二者相互牵引,驱动系统向更可用、更可控的方向持续演进。
在医疗AI这场马拉松中,短期技术领先并不罕见,长期兑现的临床价值却极其稀缺。放在更长的时间尺度中,榜单会变化,标准也会不断升级。医疗AI的竞争,更像一场长期耐力测试。
技术、评估、产品三者的协同,正在成为医疗AI能否深入临床的决定性因素。这正在重新定义医疗AI通往临床的核心路径:从追求榜单上的智能,转向兑现诊疗中的信任。
刊发网页:
https://www.nature.com/articles/s41746-025-02277-8
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/18502
