模型层的竞争已进入白热化阶段,而硅谷最核心的半导体掌舵人们,正用真金白银押注一个更为底层的解决方案。一笔1亿美元的种子轮融资,对应着4亿美元的估值,英伟达、AMD、英特尔这三家芯片巨头罕见地同框出现。这笔2026年AI基础设施赛道中最重的早期投资,最终落到了一个从开源社区成长起来的团队——RadixArk,以及其背后的推理引擎SGLang与强化学习框架Miles。
1亿美金:从算力堆叠中突围
5月5日,RadixArk宣布完成1亿美元种子轮融资,投后估值达到4亿美元。本轮融资由Accel领投,Spark Capital联合领投。
机构投资方的名单值得逐行细读。在芯片领域,NVIDIA旗下的NVentures、AMD、联发科同时入局;在数据与平台侧,Databricks出现在名单中;财务投资人则包括Salience Capital、HOF Capital、Walden Catalyst、A&E Investment、LDVP、WTT Fubon Family等一线机构。
这些芯片厂商彼此是竞争对手,却共同站到了同一张股东名单上。
天使投资人的阵容同样重量级:陈立武,Intel CEO;Hock Tan,Broadcom CEO;Igor Babuschkin,xAI前联合创始人;John Schulman,OpenAI前联合创始人、Thinking Machines Lab联合创始人;Soumith Chintala,PyTorch联合创始人;Lilian Weng,Thinking Machines Lab联合创始人。

英特尔CEO陈立武为RadixArk送上了祝贺。
如此多巨头组成的豪华阵容,在AI基础设施赛道中史无前例。


SGLang:全球巨头默认选择的推理引擎
要理解RadixArk的估值逻辑,首先得理解SGLang。
自2023年诞生以来,这个开源推理引擎用两年时间成长为事实上的行业标准。它在GitHub上收获了超过27K颗星,部署规模已超过40万张GPU。
每天有数万亿token的生产流量运行在SGLang上,用户包括Google、Microsoft、NVIDIA、Oracle、AMD、LinkedIn、xAI、Thinking Machines Lab——这些全球对推理性能要求最为苛刻的团队,都不约而同地将生产负载交给了它。

一位参与过多个AI基础设施项目评估的投资人坦言:“SGLang的迭代速度与工程纪律,在开源项目中属于第一梯队。”
过去两年,模型架构经历了MoE、长上下文、推理模型、多模态融合、Agent爆发等一系列剧变。
每一次架构重塑,SGLang都做到了Day-0兼容——新模型一经发布便立即获得支持,性能逼近硬件的物理极限。
这种能力背后,是一支在系统与算法两端都拥有深厚积累的团队。
CEO盛颖是LMSYS Org的发起者、SGLang的主要创始人,先后在Databricks和xAI领导推理系统,是开源大模型推理领域被引用最频繁的研究者之一。
CTO朱邦华师从Michael I. Jordan与Jiantao Jiao,曾联合创立Nexusflow并被NVIDIA收购,此后担任NVIDIA Principal Research Scientist。

RadixArk联合创始人朱邦华(左)与盛颖(右)
这种创始人组合在AI基础设施创业中并不常见。
一位是将开源推理事实标准做出来、并持续维护其工程纪律的研究型创始人;另一位是从GPU厂商最核心研究层走出来的大模型算法专家。
前者决定了SGLang能否继续保持Day-0兼容的迭代节奏,后者则决定了Miles在强化学习落地时能否压住稳定性问题。
推理与训练这两条主线,恰好覆盖了RadixArk商业化叙事的全部技术底色。
Miles + DeepSeek-V4:强化学习与推理一齐亮剑
2026年4月25日,DeepSeek-V4发布的当天,SGLang和Miles成为全球第一个同时支持其推理和RL训练的开源技术栈。
Miles是RadixArk在2025年11月开源的强化学习框架,主攻大规模RL训练的稳定性与效率,目前已被超过20支一线团队用于MoE模型训练,尤其受到硅谷新兴前沿实验室Neo Labs的青睐。
真正让行业注意到这支团队训练技术沉淀的,是4月25日DeepSeek-V4的发布。

这个架构极为复杂的模型——混合稀疏注意力、FP4专家权重——发布的当天,SGLang和Miles成为全球第一个同时支持其推理和RL训练的开源技术栈。
支撑这一切的,是ShadowRadix前缀缓存、Flash Compressor、Lightning TopK等一系列在模型发布前就已准备好的系统优化。
从推理到训练的全链路覆盖,让RadixArk的商业想象空间有了更坚实的工程支撑。
半导体巨头罕见同台
为什么英伟达、AMD、英特尔会同时出现在一张股东名单上?这让人不免困惑。三家公司互为对手,却投资同一家推理引擎,岂不是养虎为患?
恰恰相反,硬件市场存在结构性错配。算力仍然昂贵且稀缺,单纯堆叠硬件已无法持续,其上的软件生态成为了不可或缺的关键入口。
对NVIDIA而言,SGLang能最大化H100/B200/GB300的利用率,这意味着更多客户愿意为高端GPU买单——生态护城河不是靠封锁建起来的,而是靠让自家硬件跑得比谁都好建起来的。
对AMD而言,需要一个与CUDA解耦、能公平发挥MI300系列性能的推理栈,否则硬件再强也找不到用户入口。
对Intel而言,Gaudi系列需要在现有CUDA主导的生态之外,生长出一套开源标准,才能突破生态封锁。对联发科和Broadcom而言,边缘与网络芯片同样需要统一的上层接口,而开源基础设施是最不会偏心的一层。
产业链合纵连横,通过RadixArk,硬件厂商们合力构建一个不被任何单一云厂商或芯片巨头锁定的AI电力基础设施。
天使投资人的逻辑同样清晰:John Schulman和Lilian Weng看重的是训练-推理一体化基础设施对模型迭代的加速效应;Soumith Chintala看重的是PyTorch生态与下一代推理引擎的深度协同;Igor Babuschkin和Hock Tan看重的是从芯片到系统的完整技术栈整合。
xAI联合创始人Igor Babuschkin称赞道:“SGLang是市面上最棒的推理框架。RadixArk的成立就是为了让它更上一层楼,并让更多前沿的AI技术栈实现普惠。”

前OpenAI后训练副总、Periodic实验室创始人Liam Fedus表示——
“构建可靠、高效且准确无误的AI基础设施,一直是打造Periodic时面临的最大挑战之一。正因如此,看到RadixArk给SGLang这样的开源基础设施注入巨资,我感到非常兴奋。当开源基建这一层变得越来越强大时,像Periodic这样的公司就能跑得更快;同时,新一波的初创公司也能放手去挑战那些宏大的项目了——换作以前,这可是从头一天起就需要一整支庞大的基建团队才能搞定的事。”

这些重量级人物同时出现在同一张股东名单上,向整个市场释放了一个强烈的信号。
让AI的建设权不再被少数人独占
RadixArk 官网明确提出:“下一代 AI 不应受到私有基础设施访问权限的限制。更多团队应当有能力拥有自己的模型、自己的系统、自己的未来。”

用工程师的语言来诠释,这就像这样一幅画面:
一个新模型在凌晨发布,几个小时后社区里就有人用 SGLang 跑起了高效推理;
一支仅十几人的初创团队,借助 Miles 在自己的领域数据上完成了 RL 训练,无需再去敲响任何一家云厂商的私有基础设施大门;
硅谷的 Neo Labs 与行业巨头,都能在同一套开源内核之上,按照自己的节奏构建各自的 AI 产品。
过去两年,模型层竞争激烈,基础设施层首次出现同时掌握推理与训练双端入口,并且将内核完全开放给社区的顶尖团队。
1 亿美元的投入,正在重新分配 AI 的建设话语权。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/33877

