Anthropic押注英国存算一体黑马Fractile:2027年AI推理芯片格局或生变

AI大模型的竞争早已跨越了算法层面的较量,一场围绕算力命脉的隐秘博弈正在悄然上演。根据《The Information》援引知情人士的披露,Anthropic正与英国芯片初创企业Fractile展开早期谈判,计划采购后者专为AI推理场景量身打造的定制芯片。

  • Fractile – Radically Accelerate Frontier Model Inference
  • Fractile致力于研发人工智能算力系统,旨在推动下一代AI规模的拓展:前沿模型推理速度提升高达25倍,成本骤降至现有水平的十分之一。
  • https://www.fractile.ai
  • 全文约4000字,阅读需22分钟,播客版时长14分钟

相关推荐

一旦这笔交易落地,Fractile将成为继英伟达、谷歌和亚马逊之后,Anthropic的第四条芯片供应渠道。

对于一家Claude运行率收入已突破300亿美元的公司而言,这绝非仅仅增加一个供应商那么简单——它正在为一场长期的算力成本博弈投下关键一子。

unsetunset本文目录unsetunset

  • Fractile是谁?存算一体的野心家
  • 从三足鼎立到四维并行:供应链焦虑的显现
  • 2027,三条算力大河的汇聚点
  • 推理芯片的战场:高带宽内存困局与SRAM的雄心
  • 信号释放:AI基础设施的“芯”多元化时代
  • 写在最后:2027年的赌注

unsetunsetFractile是谁?存算一体的野心家unsetunset

在解读这场谈判之前,有必要先认识一下这家突然步入聚光灯下的伦敦初创企业。Fractile于2024年7月首次浮出水面,当时筹集了1500万美元的种子资金。这笔资金在芯片行业堪称沧海一粟,但它押注的技术路线却足够大胆:存算一体架构。

简而言之,Fractile的芯片设计试图将内存与计算单元在物理层面深度交织,使数据无需在处理器和存储器之间频繁搬运,直接在存储端完成部分运算这一思路直击当前AI推理的核心痛点——数据搬运带来的能耗与延迟。 Fractile在宣传资料中宣称,其方案可实现高达25倍的推理速度提升,并将成本压缩至现有主流硬件的十分之一 。这组数字固然惊人,但需强调,它们目前仍停留在厂商理论层面,尚未经过任何独立的第三方基准测试验证。

时间线是另一个关键变量。据媒体报道,Fractile的芯片预计要到2027年左右才能达到商用就绪状态。也就是说,Anthropic今天敲开的这扇门,最早也要等上一年才会真正开启。 这是一场典型的长期战略押注,而非近期的产能补充。

unsetunset从三足鼎立到四维并行:供应链焦虑的显现unsetunset

Anthropic为何需要第四条芯片供应线?答案藏在三个字里:安全感。

目前,Claude系列模型的训练与推理主要依赖三大巨头的芯片:英伟达的GPU、谷歌的TPU以及亚马逊AWS的Trainium。表面上看已经相当多元化,但现实远非风平浪静。

英伟达GPU仍是全球AI基础设施的绝对王者,其高昂成本与供应瓶颈正成为许多AI公司脖子上的绳索。与OpenAI和xAI深度绑定英伟达的策略不同,Anthropic自始至终都在有意识地将鸡蛋分散到不同篮子里。

这种紧迫感并非抽象的未雨绸缪,而是被实在的数字逼出来的。报道显示,Anthropic预计每年在服务器和芯片上的投入将达数百亿美元。这一数字背后,是Claude需求曲线的近乎垂直拉升——其运行率收入已从2025年底的约90亿美元飙升至目前超过300亿美元。 在短短一年多的时间里,这位“AI黑马”的服务体量翻了三倍有余,现有算力资源正承受着巨大的承压测试。

Anthropic首席执行官达里奥·阿莫迪今年早些时候公开表态时,透露出一种“幸福的烦恼”:“我们的用户告诉我们,Claude在他们工作中正变得越来越不可或缺,我们需要建设基础设施来跟上快速增长的步伐。” 语义温和,行动却毫不含糊—— 在接洽Fractile的同时,Anthropic还曾与Cerebras、Groq等同样主攻SRAM架构的芯片初创公司进行过接触,显示出对替代性推理芯片的强烈兴趣。

这也折射出一个更深的困境:推理成本正在蚕食利润。有消息称,受推理成本超出预期拖累,Anthropic AI产品业务去年的毛利率未能达到既定目标。同样的财务压力也笼罩在OpenAI头上。对于这些前沿AI实验室而言,模型能力已不再是唯一的决胜点, 谁能将每一道查询的边际成本压到最低,谁就能在企业级API和规模化部署的战场上拿到主动权。

若与Fractile最终达成协议,Anthropic将构建起“英伟达GPU + 谷歌TPU + 亚马逊Trainium + Fractile定制推理芯片”的四维供应结构。这与其说是想摆脱哪一家,不如说是在用商业杠杆提升议价能力,同时为自己储备足够多的技术选项,以对冲任何单一供应链可能出现的波动。

unsetunset2027,三条算力大河的汇聚点unsetunset

将谈判放到更长的时间轴来观察,会看到一个清晰的2027集合点。

最重磅的产能扩充,来自谷歌与博通达成的TPU扩展协议。据报道,该协议涉及约5吉瓦的TPU容量,计划从2027年开始陆续上线。5吉瓦是什么概念?这相当于数个超大型数据中心的能耗总和,足以承载面向数亿用户的AI推理负载。这块大蛋糕,将成为Anthropic在2027年以后的核心算力底座。

与此同时,亚马逊也在加固与Anthropic的芯片纽带。AWS计划推出的3纳米Trainium3芯片,将进一步把二者的训练和部署链条拧紧。Anthropic首席财务官Krishna Rao将谷歌-博通的扩建描绘为“扩展容量的延续”,强调公司正在为急速壮大的客户群持续加码基础设施,而非将命运系于某一款芯片之上。

于是,一个饶有趣味的局面出现了:谷歌-博通的数吉瓦TPU集群、亚马逊的新一代Trainium以及Fractile的存算一体推理芯片,都不约而同地将目光投向了2027年。

这三条处于不同成熟度阶梯上的算力河流,预计将在两年后汇聚成一个交汇点。对Anthropic而言,这是一项“现在签约、三年后见分晓”的多轨并行策略——其中一些轨道锚定了确定的大规模产能,另一些则带有鲜明的对冲色彩。Fractile恰好属于后者:

  • 若其芯片成功商业化并展现出颠覆性的性价比,Anthropic可以迅速将其整合,抢在成本曲线陡峭下降前占据有利地位;
  • 即便最终不及预期,谷歌和亚马逊的庞大产能也足以提供安全垫。

推理芯片的战场:高带宽内存困局与SRAM的野心

为何Anthropic等AI实验室如此急切地寻找推理专用芯片?这需追溯至AI计算的经济模型本身。

训练模型是阶段性的资本消耗,而推理则是持续性的现金流收割——每一次用户提问、每一次API调用,都在不断消耗算力。当前主导市场的英伟达H100等通用GPU虽然性能强悍,但在处理大批量、高重复性的推理任务时,并非最具性价比的选择。尤其是高带宽内存(HBM),其价格长期居高不下,已成为推理成本中难以压缩的刚性部分。

Fractile、Cerebras、Groq这类初创公司采用的SRAM架构,正是试图绕过HBM的高成本围墙。 SRAM集成方式能大幅减少对HBM的依赖,将数据保留在更靠近计算核心的位置,从而降低每个token的处理能耗与延迟。Fractile的存算一体设计则更进一步,直接在存储单元内完成部分计算,进一步最小化数据搬运开销。

这是一场针对“推理成本结构”的精准手术。 整个AI行业正步入一个微妙的阶段:各大实验室的模型能力差距逐步缩小,算法层面的竞争日趋白热化,基础设施建设反而成为新的战略高地。谁能通过底层硬件创新将推理成本下拉一个数量级,谁就能在定价权、企业渗透率和生态锁定上占据不可逆的先机。

当然,对Fractile们泼冷水的声音同样存在。1500万美元的种子轮融资在半导体行业堪称轻量级,后续流片、量产和软件生态建设还需数亿甚至数十亿美元级别的资金。存算一体技术在学术界和产业界已被反复演示了十多年,真正跑通商业化、击败传统架构的产品却屈指可数。Fractile仍需拿出令人信服的第三方基准测试结果,以及与PyTorch、JAX等主流机器学习框架完善的编译工具链支持,否则一切宣称都只能是纸上蓝图。

信号释放:AI基础设施的“芯”多元化时代

Anthropic与Fractile的这轮试探性洽谈,无论最终是否转化为采购订单,都已释放出一个不容忽视的行业信号:由科技巨头把持的AI芯片供应体系,正在被撕开可见的缝隙。

当AI实验室的算力需求以指数级膨胀时,单纯依靠英伟达的生态,无论从成本、供应弹性还是技术自主性上,都变得越来越沉重。越来越多的独立AI公司,乃至二线云厂商,开始像Anthropic一样积极接洽专用芯片初创公司,试图建立起多极化的供应网络。这不仅仅关乎成本,更关乎控制权。在硬件-软件栈高度耦合的AI生态中,完全依赖某一家芯片意味着技术调优的自主空间被大幅压缩。引入Fractile这样的变量,本质上是在为自身争取更大的自由度。

而站在英伟达的角度,CUDA生态构筑的护城河依然宽广,其在即将推出的新一代GPU中必将继续巩固性能优势。但当Claude的运行率收入数字以十亿为单位不断刷新,当整个行业对推理芯片的渴望从“nice-to-have”变成“must-have”,英伟达之外的空间自然会被撑开。一个由GPU、TPU、Trainium、SRAM存算芯片等多种架构混合组成的AI算力世界,正在不可逆地成型。

写在最后:2027年的赌注

Anthropic与Fractile的谈判仍处在极为早期的阶段,没有签订任何订单,也没有锁定任何采购规模。与其把这则消息看作一桩即将落定的交易,不如将它理解为一扇观察AI产业底层逻辑变迁的窗口。

当Claude的用户数以国家为刻度增长,当每一次有人打开对话窗口都代表着一枚token被消耗,芯片就是这座AI大厦中最真实、最具体的砖石。Anthropic今天试探性伸向Fractile的那只手,正试图握住一块未来的砖。

2027年,注定将成为一个关键分水岭。那一年,谷歌-博通的5吉瓦TPU集群将开始并网发电,亚马逊的3纳米Trainium3将穿出Fab车间,Fractile的存算一体芯片也将接受商业化的首次大考。多条迥异的技术路线将同台竞技,回答同一个问题:谁来定义下一代高效推理的经济模型?

对于Anthropic来说,这场押注不是一场浪漫的技术赌局,而是一场关于增长能否摆脱昂贵算力绑架的现实突围。而对于整个AI世界而言,Fractile的命运或许只是一个切片,它背后折射出的,是一个狂飙突进的行业如何拼命突破物理和成本边界的集体焦虑与野心。

2027年的答案,值得所有人等待。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/33110

(0)
上一篇 2026年5月4日 下午8:11
下一篇 2026年5月4日 下午8:11

相关推荐

  • Vidu Agent深度评测:AI视频创作从“片段生成”到“专业拍片”的范式革命

    2025年,视频生成AI领域正经历着前所未有的技术竞赛。谷歌Veo 3、OpenAI Sora 2、Runway Gen-4.5以及本土的Vidu等模型相继推出,参数规模不断刷新纪录,演示视频一个比一个惊艳。然而,在这场看似繁荣的技术狂欢背后,一个根本性问题逐渐浮出水面:AI能够生成高质量的视频片段,但真正“会拍片”的模型仍然凤毛麟角。创意如何系统化拆解?镜…

    2025年12月17日
    32700
  • 构建可扩展、生产级的 Agentic RAG Pipeline:分层架构与六层核心设计详解

    面向大型数据集、符合行业标准的 Agentic RAG Pipeline 需要基于清晰、可扩展的分层架构进行构建。我们将系统结构化,使得 Agent 能够并行地进行推理、获取上下文、使用工具以及与数据库交互。每一层都承担明确的职责,涵盖从数据摄取、模型服务到 Agent 协调的全过程。这种分层方法有助于系统实现可预测的扩展,同时为终端用户保持较低的响应延迟。…

    2026年1月22日
    92300
  • DeepAnalyze:首个面向数据科学的Agentic LLM,开启自主数据智能新纪元

    在数据爆炸式增长的时代,如何从海量信息中高效提取价值,一直是数据科学领域的核心挑战。传统的数据分析流程通常需要数据科学家手动完成数据清洗、特征工程、模型构建、可视化呈现等一系列复杂步骤,这不仅耗时耗力,也对从业者的专业能力提出了极高要求。近期,中国人民大学与清华大学联合研究团队推出的DeepAnalyze系统,通过创新的Agentic LLM架构,为这一难题…

    2025年11月1日
    30300
  • AdaptCLIP:西门子与腾讯优图联合打造零样本工业异常检测新框架,无需微调实现精准定位

    AdaptCLIP:无需微调的零样本工业异常检测新框架 当前,视觉模型在工业“缺陷检测”等领域的应用已相对成熟。然而,广泛使用的传统模型在训练时对数据要求极高,需要大量精细标注的数据才能达到理想效果。 大模型则有望在“零样本/少样本识别” 条件下,达到与传统模型相当的性能。CLIP 是 OpenAI 于 2021 年发布的开源视觉-语言基础模型。本研究在其基…

    2026年1月19日
    44800
  • Neuralink脑机接口新突破:意念操控游戏与打字,下一代设备性能翻三倍

    近日,埃隆·马斯克在社交媒体上转发了一个帖子,展示了Neuralink脑机接口的突破性进展:植入其脑芯片的患者,已经能够仅凭意念直接操控电子游戏,完全无需依赖手柄、鼠标或键盘等传统外设。 对于网友“我们正生活在未来,这太神奇了”的感叹,马斯克简洁地回复了一个“Yup”。 截至目前,Neuralink在全球范围内已有21人参与其名为“Telepathy”(心灵…

    2026年2月1日
    68000