黄仁勋揭秘AI基建狂潮:6600亿美元投入背后,算力翻倍收入或翻四倍的商业逻辑

黄仁勋揭秘AI基建狂潮:6600亿美元投入背后,算力翻倍收入或翻四倍的商业逻辑 黄仁勋揭秘AI基建狂潮:6600亿美元投入背后,算力翻倍收入或翻四倍的商业逻辑

上周,英伟达股价创下近一年来的单日最大涨幅,达到7.9%,公司总市值回升至4.5万亿美元。这一强劲表现,与核心客户近期在财报会议上释放的积极信号密切相关。

Meta、亚马逊、谷歌和微软等科技巨头均向投资者表示,计划在2026年大幅增加数据中心和专用芯片的资本支出,合计金额预计高达6600亿美元。这一数字较2025年的4100亿美元和2024年的2450亿美元有显著跃升。市场普遍预期,这笔巨额投资中将有相当一部分用于采购英伟达的芯片。

针对业界对AI投资可能产生泡沫的担忧,英伟达创始人黄仁勋在CNBC的《Halftime Report》节目中阐述了他的观点。他认为,科技行业这笔6600亿美元的资本支出是“合理的、恰当的,也是可持续的”。

黄仁勋将当前阶段称为“人类历史上最大的一次基础设施建设”,其驱动力源于“高得离谱”的算力需求。他解释道,AI公司和云服务提供商能够利用这些算力创造更多收入,其现金流即将开始显著增长。他透露,行业早在去年就已成功跨过“token赚钱”的关键拐点。

核心应用场景:AI如何驱动业务变革

黄仁勋列举了主要客户如何将AI融入核心业务:

  • Meta:正在将原本运行在CPU上的推荐系统,全面升级为基于生成式AI和智能体(agent)的新系统。
  • 亚马逊:其云服务(AWS)对英伟达芯片和AI技术的使用,将深刻改变这家零售巨头的商品推荐方式。
  • 微软:计划利用基于英伟达芯片的AI能力,来改进其企业级软件产品。

黄仁勋特别提到,像Anthropic和OpenAI这样的AI公司已经实现盈利。“如果他们拥有两倍的算力,收入可能会增长到四倍。”他强调,这些公司目前正严重受限于算力,而市场需求极其庞大。

洞察:本轮AI热潮与互联网泡沫的根本区别

在分享中,黄仁勋指出了本轮AI基础设施建设的几个关键特征:

  1. GPU的持续价值:英伟达过去出售的所有GPU,包括六年前推出的A100芯片,目前都仍在被租赁使用,甚至出现了价格上涨的情况。
  2. 与“暗光纤”时代的对比:互联网泡沫时期建设了大量未被充分利用的“暗光纤”,而本次AI热潮中并未出现未被使用的“暗GPU”,所有算力都处于高负荷运行状态。
  3. 计算范式的根本转变
    > 过去的软件是预编译的。Excel、PowerPoint都是提前编好,再交付给用户。
    > 而现在的软件是每一次运行都具备上下文感知能力。它会考虑你是谁、你问了什么、世界正在发生什么,以及你给了它哪些信息。每一次上下文都不同,每一次响应也都不同。

硅谷知名投资人Brad Gerstner将当前阶段类比为2008年亚马逊押注AWS云服务。“这就像挖一座金矿。你得先花很多钱把矿挖出来,才能拿到黄金。”他表示,企业正在挖掘“软件历史上最大的一座金矿”,前期的高额投入是必要的。

建设周期展望

当被问及这种高强度的基础设施建设周期将持续多久时,黄仁勋给出了他的判断:“你需要先建设,然后在五到七年后开始替换。我们可能需要七到八年,才能建设到一个需要长期维持的水平。之后就是持续更新和小幅增长。”

黄仁勋揭秘AI基建狂潮:6600亿美元投入背后,算力翻倍收入或翻四倍的商业逻辑
黄仁勋揭秘AI基建狂潮:6600亿美元投入背后,算力翻倍收入或翻四倍的商业逻辑
黄仁勋揭秘AI基建狂潮:6600亿美元投入背后,算力翻倍收入或翻四倍的商业逻辑

黄仁勋:
这不像修路。道路铺好之后,可以长期使用。计算机基础设施不是这样运作的。

你会先建设,然后在五到七年后开始替换。我们可能需要七到八年,才能建设到一个需要长期维持的水平。之后就是持续更新和小幅增长。

我们前面还有好几年的建设周期。

黄仁勋揭秘AI基建狂潮:6600亿美元投入背后,算力翻倍收入或翻四倍的商业逻辑

关键在于回到第一性原理:计算方式已经发生了根本变化

过去的软件是预编译的。Excel、PowerPoint,都是提前编好,再交付给用户。

而现在的软件是每一次运行都具备上下文感知能力。它会考虑你是谁、你问了什么、世界正在发生什么,以及你给了它哪些信息。每一次上下文都不同,每一次响应也都不同。

从现在开始,每一个像素、每一段声音、每一个视频,都是实时生成的。这就是为什么我们需要如此大规模的计算能力的原因。

这些 token,本质上就是我们所说的“智能”。而这是人类第一次,把如此高价值的“智能”转化成数字进行生产。

主持人:
去年,我们再次越过了一个拐点:token 变得可以盈利了。所以我们需要做的,只是——生产更多智能。从某种程度上说,你能理解投资者的担忧吗?毕竟上一次科技革命叠加演进时,留下了很深的心理阴影。

黄仁勋:
回顾历史永远是有价值的,但历史不会简单重复。你必须回到第一性原理,看清当下到底发生了什么。

这一次和互联网时代有一个根本差异:当年有大量“暗光纤”,现在没有“暗 GPU”

100% 的 GPU 都被租用了。甚至我们六年前卖出的 GPU,价格还在上涨。这不是古董,简直像陈年好酒。

需求之所以如此之高,原因很清楚:第一,我们已经越过了拐点,AI 真正有用了;第二,AI 的能力极强,采用速度极快;第三,因为 AI 在“思考”,它对算力的需求本身就极其巨大。

黄仁勋揭秘AI基建狂潮:6600亿美元投入背后,算力翻倍收入或翻四倍的商业逻辑


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/20819

(0)
上一篇 2天前
下一篇 2天前

相关推荐

  • UniLIP:突破多模态模型语义理解与像素重建的权衡,实现统一表征新范式

    在人工智能多模态领域,一个长期存在的核心挑战是如何构建既能深度理解语义又能精确重建像素的统一表征模型。传统方法往往在这两个目标间面临艰难权衡:专注于语义理解的模型(如基于CLIP的编码器)在图像重建任务中表现欠佳,而专注于像素重建的模型(如VAE)则语义理解能力有限。本文深入分析北京大学与阿里通义万相实验室联合提出的UniLIP模型,探讨其如何通过创新的两阶…

    2025年11月2日
    10300
  • TrajSelector:轻量级隐状态复用,突破大模型推理的Best-of-N性能瓶颈

    在大型语言模型(LLM)日益成为解决复杂任务核心工具的当下,测试时扩展(Test-Time Scaling,TTS)已成为提升模型推理能力的关键技术路径。该技术通过在模型“答题”阶段动态分配更多计算资源,显著优化其表现。当前,Test-Time Scaling主要分为两大范式:内部测试时扩展,以DeepSeek-R1等推理模型为代表,通过延长思维链实现;外部…

    2025年11月6日
    8900
  • GLM-4.7震撼发布:编程与推理能力全面突破,多项基准测试超越GPT-5.2与Claude 4.5

    经过多日预热,12月22日,智谱AI正式发布新一代旗舰模型GLM-4.7。该模型在编程和复杂推理能力上实现重大突破,旨在对标当前顶尖闭源模型。 基准测试表现亮眼 根据官方信息,GLM-4.7在编程、复杂推理和工具使用方面均有显著提升,同时在聊天、创意写作和角色扮演等场景下的能力也有所增强。 官方公布的测试结果显示,GLM-4.7在多项关键基准测试中表现优异:…

    2025年12月23日
    63600
  • VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

    在具身智能领域,视觉-语言-动作(VLA)模型正成为连接大语言模型与物理世界的关键桥梁。近期,Physical Intelligence发布的π*0.6论文与清华大学星动纪元团队的iRe-VLA研究,共同揭示了VLA模型通过在线强化学习实现自我改进的技术路径,标志着该领域从单纯模仿学习向自主探索的范式转变。 VLA模型的核心挑战在于如何将预训练的视觉-语言大…

    2025年12月12日
    11000
  • Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈

    编辑|听雨 Claude Code 创始人 Boris Cherny 近期在社交平台 X 上公布了过去一个月使用 Claude Code 的真实生产数据,其规模令人惊讶: 在过去 30 天里,我合并了 259 个 PR —— 共 497 次提交,新增约 4 万行代码,删除约 3.8 万行代码。而且,每一行代码都是由 Claude Code + Opus 4.…

    2025年12月29日
    18400