近期,Meta被曝将与谷歌签订价值数十亿美元的TPU订单,这一消息在资本市场引发剧烈震荡:英伟达盘中最大跌幅达7%,市值一度蒸发超3000亿美元;而谷歌股价则一度上涨4%,市值增加约1500亿美元。《华尔街日报》将此解读为谷歌向英伟达市场主导地位发起冲击的信号。然而,从技术演进与产业生态的深层视角审视,这场看似突如其来的“算力变局”,实则揭示了AI芯片市场更为复杂的竞争动态与战略博弈。

首先,必须澄清一个普遍存在的认知误区:Meta采购TPU并非突发行为,而是其长期技术路线的一部分。OpenAI技术人员Clive Chan指出,不仅谷歌自身的Gemini大模型在TPU上训练,包括Anthropic的Claude、图像生成模型MidJourney、Ilya Sutskever的SSI等项目都曾使用TPU。这一观点很快得到实证——纽约大学教授谢赛宁证实,Meta早在2020年就已开始使用TPU进行AI研究。当时由何恺明领导的团队开发了TF和JAX代码库,MAE、MoCo v3、ConvNeXt v2和DiT等标志性研究项目完全在TPU上完成。这表明,TPU在学术界和工业界早已不是陌生工具,华尔街的“惊讶反应”更多反映了资本市场对技术演进细节的疏离。


面对订单消息,英伟达迅速回应,在祝贺谷歌的同时强调其产品“依然是唯一能够运行所有AI模型并应用于所有计算场景的平台”。

有趣的是,这则推文因频繁使用长破折号被网友调侃“疑似AI生成”。

但抛开形式,英伟达的自信源于其CUDA生态的长期积累。然而,Clive Chan指出,所谓的“英伟达护城河”并非不可逾越。例如,OpenAI开发的Triton编译器只需25行Python代码就能达到cuBLAS的性能,有效绕过了CUDA的某些限制。对于谷歌、Meta、OpenAI这类拥有顶尖工程能力的巨头而言,在软件层面实现对英伟达的替代在技术上并非难题。

然而,技术可行性不等于经济合理性。成本成为评估算力方案的关键维度。Artificial Analysis的基准测试显示,在运行Llama 3.3模型时,英伟达H100每1美元带来的Token收益是谷歌TPU v6e的5倍——具体而言,以30 Tokens/秒的速度处理100万输入和输出Tokens,H100成本仅1.06美元,而TPU v6e需5.13美元。即便谷歌最新的TPU v7在能效上有所提升(FP8算力4.6 PFLOP/s,功耗约1000瓦),其综合成本仍与英伟达GB200(FP8算力5 PFLOP/s,功耗约1200瓦)大致相当。这表明,在纯粹的成本效益维度,英伟达依然保持显著优势。
那么,谷歌出售TPU的战略意图究竟是什么?Artificial Intuition作者Carlos E. Perez提出了一个颠覆性观点:谷歌的目标并非直接盈利或挑战英伟达,而是通过大规模订单锁定芯片代工厂的先进产能。Perez分析称,代工厂(如台积电)需要获得长期、稳定的巨额合约,才会启动新的2纳米生产线。谷歌凭借与Meta、苹果等巨头签订的多年云服务合同,能够向代工厂承诺“每年消耗20万个TPU”的确定性需求,从而以成本价优先获取25%的N2产能。这种策略类似于苹果早年通过预付款垄断优质手机屏幕供应链,导致竞争对手只能使用次优面板。其结果是在代工厂层面,只有英伟达拥有与谷歌相当的议价能力,而Groq、Cerebras、Tenstorrent等新兴芯片公司则难以获得尖端制程的充足产能。


综合来看,Meta与谷歌的TPU交易不能简单理解为“替代英伟达”的尝试,而应置于更广阔的产业博弈中审视:一方面,它反映了头部科技公司对算力供应链多元化的迫切需求,尤其是在全球芯片产能紧张的背景下;另一方面,谷歌通过绑定大客户需求反向锁定代工厂产能,实现在芯片制造环节的战略卡位。英伟达的护城河虽未崩塌,但竞争维度已从单纯的硬件性能扩展至生态、成本、产能乃至供应链安全。未来AI算力市场的格局,将愈发取决于参与者整合硬件、软件、制造与资本的全链条能力,而非单一技术指标的优势。
关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/5965
