在近期的一次深度访谈中,英伟达(NVIDIA)创始人兼CEO黄仁勋就公司技术优势与行业竞争格局发表了鲜明观点。他直言不讳地评价了竞争对手的自研AI芯片,并首次系统阐释了英伟达独特的核心竞争力。
公开叫阵:自研芯片为何缺席擂台?
黄仁勋在访谈中表示,在衡量AI算力性能的权威基准测试(如MLPerf)中,诸如谷歌的TPU、亚马逊的Trainium等自研芯片并未现身参与公开竞争。在他看来,这间接说明了在AI算力的终极对决中,具备全面竞争力的对手尚未出现。

核心护城河:“从电子到Token”的转化艺术
面对“英伟达的护城河是什么”的尖锐提问,黄仁勋提出了一个新的思维模型:输入是电子,输出是Token(AI计算产生的结果单元),而英伟达正是中间不可或缺的转化层。

他认为,高效、低成本地生成有价值的Token,是一门融合了极高深艺术、工程与科学的复杂技艺。这一过程难以被简单复制或平庸化。英伟达的护城河建立在被称为“五层蛋糕”的深厚生态系统之上,其策略是:只做必须做的事,并将其做到极致困难。

供应链优势:前瞻性结盟与行业教育
针对“英伟达依靠锁定稀缺供应链建立优势”的说法,黄仁勋承认这确实构成了对手难以短期逾越的壁垒。他强调,这种优势源于前瞻性的战略结盟。
- 蓝图先行:早在AI爆发前,英伟达就已与台积电、美光等供应链伙伴的CEO沟通,共同描绘未来AI产业的巨大规模。
- 引导投资:黄仁勋将自家的GTC大会比作一场“教育会”,旨在让整个产业链看清趋势,从而引导全球资本和资源向AI领域倾斜。

瓶颈与真正的长期挑战
当被问及CoWoS封装、HBM内存等硬件瓶颈是否会限制AI发展时,黄仁勋显得颇为淡定。他认为,在明确的市场需求信号下,这类硬件瓶颈通常能在2-3年内通过扩产解决。英伟达早已通过技术授权和直接投资等方式,帮助合作伙伴提前布局下一代技术(如硅光子)。

在他看来,真正的长期挑战在于更下游的基础设施:
* 能源:建设大型AI工厂所需的能源政策与供给是长期难题。
* 人才:真正稀缺的不是光刻机,而是能够建设和维护AI数据中心的熟练工程师与技术人员(如电工、水管工)。

“加速计算”范式与CUDA生态的降维打击
对于“谷歌TPU成功训练顶尖AI模型是否意味着GPU可被替代”的问题,黄仁勋予以了强力反驳。他指出,TPU等专用芯片(ASIC)仅是“张量处理单元”,而英伟达从事的是范围更广的“加速计算”,涵盖科学计算、物理模拟等诸多领域。
AI算法演进飞速,高度可编程的CUDA平台能够快速适应新架构(如MoE),而固化的ASIC芯片则可能面临淘汰风险。CUDA生态是英伟达的核心资产,允许开发者“一次编写,到处运行”,其价值远超单一硬件。

TCO经济学:为何自研芯片未必划算
黄仁勋从商业逻辑角度分析,认为大客户完全自研芯片未必经济。他提出,英伟达解决方案拥有全球最低的总拥有成本(TCO)。在同等能耗的数据中心内,使用英伟达架构产出的Token数量是全球最高的。

他再次喊话,欢迎竞争对手在MLPerf等公开基准测试中同台竞技。同时指出,即便委托博通设计ASIC,其利润率也高达65%,仅比英伟达的毛利率低约5个百分点。为节省有限成本而放弃整个成熟生态,商业上并不明智。
回应Anthropic特例:承认误判,但非趋势
针对“为何Anthropic选择与谷歌、亚马逊签订巨额TPU/Trainium订单”的质疑,黄仁勋将其定义为一个特例,而非行业趋势。

他罕见承认了一次策略失误:当时低估了云巨头通过巨额融资“绑定”AI初创公司使用其自研芯片这一手段的影响力。但他强调,TPU和Trainium的增长几乎完全由Anthropic一家驱动,而“世界上只有一个Anthropic”。

商业哲学:明确边界,深度协同
黄仁勋阐述了英伟达的商业哲学:不与客户竞争,明确自身边界。公司专注于构建平台,通过深度协同设计(如Blackwell架构针对MoE的优化),帮助客户将系统性能推向极限,从而获得数倍的提升,这远胜于客户自行研发。
| 
(注:本文基于公开访谈内容整理,已去除营销化表述与无关引导信息。)
访谈的后半段,主持人提出了一个极具诱惑力的假设:既然英伟达拥有无可匹敌的算力资源,为何不直接下场成为一家超大规模云服务商?
黄仁勋的回答揭示了英伟达的商业哲学:「做尽可能多,同时也做尽可能少」。

世界上已经有很多云服务商了。如果英伟达自己下场做云,就是与自己的客户(如亚马逊、微软等)直接竞争。英伟达宁愿选择投资像 CoreWeave 这样的「原生 AI 云」,通过背书和资金支持,让生态系统更加多元化,而不是亲自去盖机房、拉电线。
黄仁勋认为,一个健康的公司应当专注于那些「如果我不做,就没人能做成」的事情。如果英伟达不去研发 NVLink、不投入 20 年时间坚持发展 CUDA、不开发像 cuLitho 这样的计算光刻库,这些技术可能永远不会出现。

投资,但不「选妃」
近来,英伟达对 OpenAI、Anthropic 等公司进行了大规模投资。对此,黄仁勋严肃地表示:「我们不选赢家。」一方面,这不是英伟达的工作;另一方面,他深知创业的不确定性。
| 
他回忆起英伟达初创时,全球有 60 家图形芯片公司,而英伟达当时甚至是架构最「离谱」的一个。英伟达的策略是:如果世界需要这些伟大的 AI 公司存在,而风险投资无法提供百亿级别的资金支撑,那么英伟达就会出手。但目的是为了让整个生态「繁荣」,而不是为了控制它们。

做好一件事,CUDA 就够了
在访谈的尾声,主持人提出了一个思辨性问题:英伟达现在资源雄厚,为何不并行开发几种完全不同的架构(例如晶圆级芯片或巨型封装),以防 AI 架构发生突变?
黄仁勋的回答,展现了他作为顶级架构师的自信与理性。
模拟器已否定了一切
他直言,英伟达拥有世界顶尖的「模拟系统」,可以在模拟器中验证任何能想象到的架构。模拟结果证明,那些替代方案在性能和效率上都更差。也就是说,数据验证已经否定了这些可能性。

主持人又问道,如果台积电先进制程产能见顶,英伟达是否会回到老旧的工艺节点重新设计芯片?黄仁勋表示,这种「回流」研发的成本高得离谱。英伟达宁愿选择在先进制程上持续投入,通过先进封装和数值计算的改进来应对产能压力。
扩产 Groq:抢占「溢价 Token」市场
英伟达此前已将专注于低延迟推理的 Groq 纳入 CUDA 生态。这背后,蕴含着黄仁勋对推理市场「分层化」的洞察:以前 Token 要么免费,要么极其便宜;但现在,如果更快的响应速度能大幅提升高薪工程师的效率,那么企业愿意为此支付高额溢价。

过去英伟达追求的是高吞吐量(单位时间内产出的 Token 总量),但现在他们也开始布局「低延迟、高溢价」的推理细分市场。这意味着未来英伟达将同时提供「平价高产」和「高速尊享」两种类型的计算服务。
如果没有 AI 革命,英伟达会怎样?
访谈以一个假设性问题结束:如果深度学习革命从未发生,英伟达现在会在做什么?
黄仁勋的语气带着一种使命感:「即便没有 AI,英伟达也会非常庞大。」

- 通用计算的终结
他的基本信念是,依赖「摩尔定律」的通用计算(CPU)已经走到尽头。无论有没有 AI,科学、工程、物理、图像处理等领域都急需「加速计算」。 - 科学的民主化
英伟达的初心是让每一位学生、每一位科学家,通过一张 GeForce 显卡就能处理分子动力学或地震数据。这种「加速计算」的底色,早在 AI 爆发前就已奠定。 - 不仅仅是张量
黄仁勋强调,在其主题演讲的开篇,他总会花大量时间讲解计算光刻、量子化学和数据处理。AI 确实令人兴奋,但世界上还有很多重要工作与 AI 无关,张量并不是计算的唯一方式。

参考资料:
* https://www.dwarkesh.com/p/jensen-huang
* https://x.com/dwarkesh_sp/status/2044456498441708013
* https://www.youtube.com/watch?v=Hrbq66XqtCo
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/30915

