英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命

这个圣诞节,英伟达创始人黄仁勋并未停歇。英伟达史上最大的一笔“收购”正式落地——公司已与AI芯片初创公司Groq达成重磅交易,涉及金额高达200亿美元(约合人民币1405亿元)。

根据Groq官方声明,交易的核心内容是英伟达获得了Groq推理技术的授权,同时,Groq创始人兼CEO Jonathan Ross、总裁Sunny Madra及其他核心高管将加入英伟达,协助推动授权技术的整合与落地。英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命

与此同时,Groq将继续作为独立公司运营,由现任CFO Simon Edwards接任CEO。表面看,这似乎是一场普通的技术合作。然而,Groq的投资方、Disruptive公司CEO Alex Davis向CNBC透露,英伟达将获得Groq的“几乎所有资产”,仅其初具规模的云计算业务GroqCloud不在交易范围内。

答案显而易见。这是一笔典型的Acqui-hire(人才收购):不购买公司外壳,但拿走核心技术、专利以及最关键的人才。

那么,英伟达为何要斥资200亿美元重金收购Groq?这要从Groq的独特背景说起。

英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命

高中辍学,设计出第一代TPU

Groq成立于2016年,其创始人Jonathan Ross的履历堪称传奇。他高中辍学,未完成大学学业,却在谷歌期间主导设计了第一代TPU(张量处理单元)芯片的核心架构。他负责实现原始TPU的核心元件,该芯片在谷歌的人工智能项目(包括AlphaGo)中发挥了关键作用。英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命 TPU是谷歌为AI计算自研的专用芯片,被视为英伟达GPU在AI领域最重要的替代路线之一。

2016年,Ross带领TPU团队中的7位核心成员集体出走,创立了Groq。这家公司从一开始就做出了一个极其明确、甚至有些“反主流”的战略选择:不与英伟达在AI模型训练算力上正面竞争,而是专注于AI推理市场。

英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命
Groq的名字源于「Grain of Quantum」(量子之粒),既暗指其处理“量子级别”海量数据的能力,也宣告了在芯片领域,小体量也能拥有颠覆性力量。

其核心杀手锏,是专为AI推理设计的ASIC芯片——LPU(语言处理单元)。
与英伟达的GPU相比,LPU在处理大语言模型推理任务时,能够实现更低的延迟和更高的吞吐量,这对英伟达、AMD和英特尔等传统GPU制造商构成了直接挑战。

过去几年,AI行业的焦点几乎都集中在模型训练上。然而,随着大模型进入落地应用阶段,真正的瓶颈开始转移:用户并不关心训练耗费了多少算力,只关心响应速度、使用成本以及服务稳定性。

换言之,推理正在成为AI商业化落地的主战场

Groq自研的LPU芯片在此领域优势显著。其推理引擎是一个端到端的处理系统,专为需要大量计算和连续处理的应用(如大语言模型)设计,旨在提供最快的推理速度。在运行Mixtral、Llama 2等开源大模型时,其系统每秒可输出约500个token,远超传统服务的响应速度,同时每百万token的推理成本也极具竞争力。

为实现规模化推理,Groq设计了可扩展的分布式系统,能够将数千个LPU芯片高效互联,让计算流持续在芯片间流动,从而避免了传统架构因频繁访问外部内存所带来的能耗与延迟问题。得益于架构优化,LPU处理单位token的能耗可降至GPU的三分之一左右。

2024年,Ross曾公开表示,鉴于AI推理成本高昂,Groq专门为大模型提供了“超快”且更经济的芯片选择。他当时宣称:“到今年年底,我们很可能会成为大多数初创公司使用的基础设施,我们的价格对初创公司非常友好。”

而这,恰恰击中了英伟达的结构性短板

英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命

英伟达剑指AI推理市场

投资方Disruptive的CEO透露,在被英伟达接洽时,Groq其实并无出售意向。 今年9月,Groq刚完成7.5亿美元融资,估值达69亿美元,投资方包括贝莱德、三星、思科等巨头。公司2024年的营收目标为5亿美元,正处于高速增长期。

据CNBC报道,黄仁勋在英伟达内部邮件中明确了此次交易的战略意图:

“我们计划将Groq的低延迟处理器整合到英伟达的AI工厂架构中,以服务更广泛的AI推理和实时工作负载。”

翻译过来就是:Groq的核心技术,将被吸收为英伟达AI生态的一部分。

至于Groq公司本身,仅保留云业务独立运营,这既不影响英伟达的战略整合,也巧妙地规避了直接并购可能引发的反垄断审查风险。

对英伟达而言,这笔交易不仅拿下了一项关键技术,更是将潜在的挑战者转化为自身体系内的一个战略模块。

截至2025年10月底,英伟达持有的现金及短期投资规模已达606亿美元,相比2023年初的133亿美元增长近5倍,这为其大手笔投资提供了充足弹药。

除了Groq,英伟达还广泛投资了AI基础设施领域的其他关键公司,如AI与能源基础设施公司Crusoe、AI模型开发商Cohere、AI云服务商CoreWeave等。整个AI生态链,处处可见英伟达的身影。

今年9月,英伟达还宣布计划向OpenAI投资最高1000亿美元,同时向老对手英特尔投资了50亿美元。

英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命

硅谷的“人才收购”套路

这种Acqui-hire的收购模式在硅谷早已不是新鲜事。

今年9月,英伟达就曾策划过一笔结构相似的交易。 当时,公司支付了超过9亿美元,引入AI硬件初创公司Enfabrica的CEO Rochan Sankar及其团队,同样是获得其技术授权,而非直接收购公司。

放眼整个硅谷,这种“为人才而收购”的操作已成为主流。Meta、谷歌、微软等科技巨头都在采用类似策略争夺顶尖AI人才与核心能力。

例如,Meta去年曾斥巨资从数据标注公司Scale AI挖走其CEO亚历山大·王(Alexander Wang),并同步获取了关键技术授权。去年8月,谷歌以约27亿美元的价格,将初创公司Character.AI的联合创始人诺姆·沙泽尔(Noam Shazeer,Transformer论文作者之一)及其30多人的核心研究团队招致麾下,旨在将其前沿训练技术用于强化Gemini模型。今年7月,谷歌再次以约24亿美元收购Windsurf,吸纳了创始人Varun Mohan、Douglas Chen及其研发团队,随后便推出了AI编程工具Antigravity。这些案例清晰地表明了一种趋势:巨头们正从“收购公司”转向直接“收购能力”。

英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命

这则收购新闻在Hacker News等社区引发了广泛讨论。对于硅谷常见的人才收购操作,不少网友已感到司空见惯。

英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命

有观点认为,英伟达此举意在遏制开源模型的发展。通过收购Groq、Cerebras等专注于推理的芯片公司,英伟达可能试图“卡住”开源模型在推理侧的规模化能力,从而保护其从OpenAI、Anthropic、Meta等闭源大客户处获得的巨额利润。

英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命

然而,许多网友反驳了这一说法。他们认为,英伟达的主要动机在于降低自身芯片的推理成本、缓解生产瓶颈,并与谷歌的TPU等竞争对手展开直接对抗。

英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命

也有评论指出,英伟达完全有能力在Groq抢占可观市场份额之前,自行开发出有竞争力的推理芯片产品。因此,为其支付200亿美元显得并不理性。

英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命

对此,一种可能的解释是,推理硬件市场正出现一个“短暂但关键”的战略窗口期。这可能与DRAM成本结构的变化,以及OpenAI等公司大规模推理需求的集中爆发密切相关。

英伟达200亿美元豪购Groq:黄仁勋的AI推理野心与LPU芯片的颠覆性革命

总体而言,全球AI产业正处在从模型训练迈向规模化推理落地的关键阶段。低延迟、高能效的推理算力已成为核心刚需。英伟达与Groq的联手,有望推动AI推理技术向高性能与低成本的双重目标迈进,也可能为科技巨头与明星初创公司之间的战略合作提供新的范式。

参考链接:
https://www.cnbc.com/2025/12/24/nvidia-buying-ai-chip-startup-groq-for-about-20-billion-biggest-deal.html


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/15257

(0)
上一篇 2025年12月25日 上午8:20
下一篇 2025年12月25日 下午12:05

相关推荐

  • LLM推理优化全景图:从基础设施到模型算法的全栈工程实践

    本文基于真实的企业级AI平台研发与实践经验,首次以“系统分层、功能解耦”的架构思想,自底向上地呈现一幅完整的LLM推理优化全景图。文章详细剖析了从基础设施层(GPU集群、高速网络、存储加速)的硬件基石,到平台与调度层(Kubernetes、高级调度器、KServe)的资源管理中枢,再到服务与容器层的微观优化,以及AI网关层作为智能流量枢纽的核心能力。最终,深入探讨了推理引擎与算法层的核心优化技术,包括KV缓存管理、连续批处理、模型压缩及创新的Prefill/Decode分离架构。

    2025年10月2日
    52912
  • 推理成本突破1元/百万token:浪潮信息元脑HC1000如何重塑AI产业竞争格局

    当前全球AI产业已从模型性能竞赛迈入智能体规模化落地的“生死竞速”阶段,“降本” 不再是可选优化项,而是决定AI企业能否盈利、行业能否突破的核心命脉。 在此大背景下,浪潮信息推出元脑HC1000超扩展AI服务器 ,将推理成本首次击穿至1元/每百万token 。 这一突破不仅有望打通智能体产业化落地“最后一公里”的成本障碍,更将重塑AI产业竞争的底层逻辑。 浪…

    2025年12月26日
    13600
  • 突破硬件壁垒:基于Triton的跨平台Attention内核实现5.9倍推理加速,性能达SOTA 105.9%

    我们所研究的优化方法累计实现了高达 589%的性能提升 ,并已将相关内核与框架作为开源项目贡献( ibm.biz/vllm-ibm-triton-lib )。最终,我们开发的高度优化内核已成为 vLLM 中 AMD 部署的默认注意力后端。 关键词:Triton、Attention Kernel 、Portability 、Large Language Mod…

    2025年12月21日
    21000
  • Meta REFRAG革新RAG架构:30倍提速、16倍上下文、成本减半,彻底解决上下文垃圾问题

    你是否遇到过这样的困扰:只想让大模型读取10段关键资料,它却被迫处理100段,导致token消耗激增,响应速度却异常缓慢? 这一行业普遍痛点,如今被Meta提出的全新方案彻底解决。 他们刚刚开源了一个名为 REFRAG 的革新性RAG架构。其核心思想极为直接:在信息输入大模型前,将无关的上下文极度压缩,仅保留并提供真正有用的部分。 实测数据令人印象深刻:* …

    2025年11月23日
    8200
  • 清华&生数开源TurboDiffusion:视频生成加速200倍,实时创作时代来临

    在2025年末,一个全新视频生成加速框架的开源,宣告了“等待数分钟才能生成一个视频”的时代已经终结。 这个框架正是清华大学TSAIL团队与生数科技联合发布的TurboDiffusion。 其加速效果极为显著:在几乎不影响生成质量的前提下,主流视频生成模型在单张RTX 5090上生成5秒720p视频的速度可提升约200倍,同时一个5秒480p视频的生成时长能被…

    2025年12月26日
    9500