华尔街被一则消息引爆。
Cerebras(股票代码:CBRS),这家直接叫板英伟达的AI芯片公司,以其不切割晶圆、直接将整块300毫米硅片打造成一颗芯片的独特技术路线,引发了资本市场的疯狂。
其IPO发行价从最初每股115-125美元,一路飙升至150-160美元。市场超额认购倍数已达到20倍。

按最新发行价区间的上限计算,公司估值直逼350亿美元,融资规模也从35亿美元大幅提升至近48亿美元。

如果此次IPO顺利落地,它将成为2026年至今全球规模最大的新股发行。
Cerebras估值飙升,底气从何而来?
答案隐藏在一份供应链协议中。
今年1月,OpenAI正式宣布与Cerebras建立深度合作关系。协议的核心是,Cerebras将为OpenAI提供总计750兆瓦的超低延迟AI算力,并分阶段在2028年前完成交付。
据外界估算,这份协议的潜在总价值超过200亿美元。

这绝非一笔简单的买卖。Cerebras在4月提交的S-1文件中披露,OpenAI还向其提供了10亿美元的运营资金贷款,年利率为6%。
作为交换条件,OpenAI获得了约3350万股Cerebras普通股的认股权证。只有当OpenAI从Cerebras采购的算力达到2吉瓦时,这些权证才会完全兑现。
如今,OpenAI已成为Cerebras最核心的战略合作伙伴,两者关系之紧密可见一斑。
马斯克起诉OpenAI的法庭文件曾披露,OpenAI高层一度考虑直接收购Cerebras,而非仅仅作为客户合作。
此外,Sam Altman、Greg Brockman、Ilya Sutskever等人也均以个人身份投资了Cerebras。
Cerebras首席执行官Andrew Feldman在接受采访时毫不掩饰地表示:
英伟达不想失去OpenAI的快速推理业务,但我们成功地从他们手中抢了过来。
除了OpenAI,AWS 也紧随其后,宣布在其Bedrock平台中接入Cerebras CS-3系统。

两大AI基础设施的顶级买家同时为其站台,是此次IPO认购火爆的直接原因。
不过,这并非Cerebras首次冲击上市。
2024年,Cerebras首次公开提交了IPO申请。当时,其最大客户是阿联酋的G42,一家具有阿布扎比背景的AI集团。
在2024年上半年,G42为Cerebras贡献了超过87%的收入,客户集中度极高。更致命的是,G42同时也是Cerebras的投资方。

这笔投资随即触发了美国外国投资委员会(CFIUS)的审查,导致IPO进程被冻结。
2025年10月,Cerebras正式撤回了注册声明。
撤单后,Feldman做出了一项堪称“壮士断腕”的决策。他迅速重组了客户结构,用OpenAI和AWS填补了G42留下的缺口。到2025年底,G42的收入占比从87%以上被压缩至24%。
与此同时,CFIUS的障碍也逐步被清除。G42的股份被调整为无投票权股份,监管风险得以解除。
2026年4月,Cerebras重新公开提交了S-1(即向美国证券交易委员会提交的IPO招股文件)。
财务数据也提供了强有力的支撑。Cerebras 2025年全年营收达到5.1亿美元,同比增长76%。
更关键的是,公司实现了8790万美元的净利润。而2024年,其净亏损还高达4.85亿美元。

可以想象,OpenAI的10亿美元贷款和算力采购协议,直接将Cerebras从烧钱模式拉入了盈利通道。
不过,账面数据漂亮并不代表没有隐患。按照GAAP(通用会计准则)计算,Cerebras的经营层面仍有1.46亿美元的运营亏损。
虽然客户集中度有所下降,但前三大客户依然占据了收入的绝大部分。其中,招股书明确将OpenAI描述为“未来数年的主要收入来源”——这既是底气,也是风险。
如果OpenAI自研芯片,或转向其他供应商,Cerebras的收入将受到严重影响。
资本市场给出的高估值,本质上是在押注Cerebras能够将OpenAI的成功故事复制到更多客户身上。
以超大芯片直接挑战英伟达
Cerebras的核心竞争力,源于其自主研发的晶圆级引擎(Wafer Scale Engine,WSE)。
传统芯片制造受限于光刻掩模的尺寸,一颗GPU或CPU只能覆盖几百平方毫米的硅片面积。制造商通常在一块300毫米的晶圆上切割出几十甚至上百颗独立芯片。
而Cerebras的方案是直接不切割,整块晶圆就是一颗芯片。
2019年,Cerebras在洛斯阿尔托斯一间简陋的实验室里首次实现了这一壮举。Feldman后来回忆道:
英特尔10万人没做到,英伟达4万人没做到,我们85个人做到了。我们就站在那里,完全惊呆了。

其第三代产品WSE-3,面积达到46,225平方毫米,大约是英伟达B200 GPU的58倍。上面集成了4万亿个晶体管和90万个AI计算核心。
这看似是工程上的暴力破解,但真正的技术壁垒并不在于面积,而在于内存。
GPU在进行AI推理时,最大的瓶颈并非算力,而是数据搬运。大模型的参数通常需要在外部内存(HBM)和计算核心之间频繁传输,这个搬运过程的延迟和带宽直接决定了推理速度。业界将此瓶颈称为“内存墙”。
WSE-3的解决方案是将内存直接建在芯片上。其片上SRAM容量达到44GB,内存带宽达到每秒21PB。
这是什么概念?作为参照,英伟达H100的片上内存带宽大约只有这个数字的七千分之一。
当整个模型直接“居住”在芯片上时,外部搬运带来的延迟几乎被完全消除。
效果如何?Cerebras官方宣称,在运行Meta的Llama 4 Maverick(4000亿参数模型)时,其推理速度超过了英伟达DGX B200 Blackwell系统的两倍。

在Hugging Face的推理提供商排行榜上,Cerebras长期位居第一。
Cerebras不单独销售芯片,而是销售一套完整的系统,型号为CS-3。
每台CS-3包含一颗WSE-3、液冷系统、电源管理和配套软件。整机功耗约25千瓦,可以像一台服务器一样直接部署进数据中心。

同时,它还提供名为Cerebras Inference的云服务。据官方说法,其推理速度比传统GPU方案快15倍,而成本仅为三分之一。
Cerebras选择的主战场是推理,而非训练。
目前,AI行业正从“训练更大的模型”转向“将模型部署出去”。Agent工作流、实时编程、多轮对话等场景,对推理延迟的要求会呈指数级放大。

GPU在训练阶段所向披靡,但在推理阶段,其内存墙问题日益凸显。
而从OpenAI到AWS,头部买家正在主动寻找英伟达之外的推理基础设施。
Cerebras踩准了这个节点,资本市场对其的狂热追捧也显得顺理成章。
五个人,要做一件载入计算机史的事
Cerebras共有五位联合创始人:
Andrew Feldman、Gary Lauterbach、Michael James、Sean Lie、Jean-Philippe Fricker。

五位联合创始人的故事,要从2007年说起。
那一年,Andrew Feldman和Gary Lauterbach共同创立了SeaMicro,一家专注于能效比极高的微服务器公司。
另外三位联合创始人——Michael James、Sean Lie、Jean-Philippe Fricker,也在这家公司并肩作战。
2012年,SeaMicro以3.34亿美元的价格卖给了AMD,五人随Feldman短暂留在AMD,随后各奔东西。
他们再次聚首是在2015年。
Feldman后来描述那次重聚时提到,他们在白板上写了两件事:要再次合作,要做一件能载入计算机史的事。
在60余年的半导体历史中,没有任何一家公司成功制造过晶圆级芯片,英特尔做不到,英伟达也没有。
这五个人决定尝试一下。
Cerebras,是他们给出的答案。这也是Feldman创办的第五家公司。
团队分工明确:Feldman担任CEO,是一位能用一句话讲清楚技术立场,同时搞定200亿美元合作的领导者。

Lauterbach是联合创始人兼荣誉首席技术官,目前已退休。他在Sun Microsystems时期主导了UltraSPARC III和IV处理器的设计,随后在AMD担任数据中心服务器业务的首席技术官。
晶圆级芯片的核心技术构想,正是源自于他。

Sean Lie接棒成为现任CTO,他拥有麻省理工学院电子工程硕士学位,曾在SeaMicro担任首席硬件架构师。目前,他持有29项计算机架构相关专利。

剩下的两位核心成员,Michael James和Jean-Philippe Fricker,分别负责首席架构和系统架构工作。

值得一提的是,在此次IPO中,Feldman本人不会出售任何股份。
Cerebras的定价预计将在本周最终确定。
当前,围绕AI的乐观情绪正持续引爆芯片股。过去一个月,费城证券交易所半导体指数大幅上涨超过37%。
无论最终估值落在哪个区间,350亿美元已经证明了一件事:市场愿意为英伟达之外的挑战者,给出第一个认真的答案。
参考链接:
[1]https://www.reuters.com/legal/transactional/cerebras-raise-ipo-price-range-150-160-demand-surges-sources-say-2026-05-10/
[2]https://www.cerebras.ai/blog/openai-partners-with-cerebras-to-bring-high-speed-inference-to-the-mainstream
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/34164

