Claude全球宕机,又一次冲上热搜。
美东时间周三上午,Anthropic遭遇了一场严重的系统危机,官方状态页显示——Claude、Claude Code、API接口全线出现高错误率。

一大批Claude用户表示工作受到影响。宕机高峰期,有6000人同时在故障追踪网站Downdetector上提交了报错报告。

前有Claude Opus模型性能波动,后有频繁宕机,这似乎印证了行业内的看法:Anthropic未能及时储备足够算力,是一个战略失误。

为了填补算力鸿沟,Anthropic不再坐以待毙,被曝已开始探索自研芯片。

Claude又崩了!惊魂三小时
Claude宕机,对许多依赖其工作的用户而言,无异于一场“生产力罢工”。
据Downdetector数据监控,本次故障在上午10:42左右达到高峰。

故障时间线如下:
* 10:53 AM:Anthropic官方开始介入调查错误原因。
* 12:30 PM:Claude登录成功率已趋于稳定,官方正全力解决余下问题。
* 01:50 PM:状态页正式更新,所有系统均已恢复正常运行。

近三小时的宕机,对使用Claude进行编码、文案等工作的用户造成了不小影响。有用户吐槽“个人项目一瞬间全没了”。

甚至有开发者表示考虑转投其他AI编码工具。

然而,Claude服务中断已非新鲜事。

4月以来,已经第7次了
回顾Anthropic四月以来的状态页历史,服务中断节奏密集得离谱:
* 4月1日:Opus与Sonnet模型超时率异常。
* 4月3日:Claude Code宕机1小时10分钟。
* 4月6日、7日:连续两天登录系统崩溃。
* 4月10日:非Opus模型集体出错。
* 4月13日:Claude.ai服务中断15分钟。
* 4月15日:本次持续3小时的大规模宕机。
短短半个月,七次有据可查的服务中断。这已非偶发事件,而是系统在持续报警。
Anthropic通常将此类事件归因于“重磅发布后的空前需求”。直白讲,用户增长过快,服务器负载已接近极限。

故障是表象,根源在于算力短缺。
5亿美元入场费,Anthropic也要造芯片了
近日有消息曝出:Anthropic正探索自研AI芯片。

据悉,该计划仍处于“极早期”阶段。公司尚未敲定具体设计方案,也未为此项目组建专门团队。
业内估算,设计一款先进AI芯片的初始成本约需5亿美元,主要用于支付顶级工程师薪酬、流片测试及确保制造环节可靠。这仅仅是“入场费”。
从设计到量产通常需要3到4年时间,期间任何环节出问题都可能导致前期投入付诸东流。

以谷歌TPU为例,从2013年立项到2018年第三代芯片具备规模化训练能力,前后历时五年。
因此,Anthropic最终也可能选择继续采购而非自研。但“探索”这一动作本身,已释放出明确信号。
目前,Anthropic采用英伟达GPU、谷歌TPU、亚马逊芯片等多种硬件来开发和运行Claude。就在上周,他们还官宣将与谷歌、博通合作打造一个3.5GW的超算集群。

AI巨头,全在绕开英伟达
Anthropic并非个例。其他AI巨头也在寻求算力自主:
* Meta正与博通合作扩产自研的MTIA芯片,计划从2027年开始部署“数GW级”算力。
* OpenAI去年10月公布的博通合作计划,目标是在2026年下半年开始部署,到2029年累计上线10GW算力。
| 
为何AI巨头纷纷向博通靠拢?
定制ASIC芯片与英伟达通用GPU的核心差异在于两点:
1. 总持有成本(TCO):针对特定模型优化的ASIC,可比通用GPU低30%到50%。
2. 能效:每瓦性能比通用GPU高出一个量级。
这听起来像是降维打击,但ASIC也有其短板:它通常绑定特定模型架构,一旦模型迭代,硬件效率可能下降;且缺乏像CUDA那样成熟的开发者生态,在研究和实验阶段仍需依赖英伟达。
Anthropic自己也明确表示,Claude当前是在AWS Trainium、Google TPU、英伟达GPU三种硬件上跨架构部署,并未将筹码全押在一家供应商身上。
但这种“多云多芯”战略本身,就承认了一个事实:没有任何一家供应商能单独满足前沿AI公司对算力的巨大胃口。

而供应商能提供的最优条件,往往只属于其自家设计的芯片。这或许是Anthropic探索自研之路的根本动因。
越赚钱,越缺钱
的确,Anthropic近两年增长迅猛。据官方最新披露,其年化营收已突破300亿美元。在企业市场,数据显示73%的企业首次采购AI工具的支出流向了Anthropic。
超过1000家企业客户的年化付费突破100万美元,且这个数字在不到两个月内翻了一番。
但增长越猛,财务压力越大。
Claude Code和Claude Cowork这类智能体(Agent)产品是不折不扣的算力黑洞。它们能连续运行数小时执行任务,每一次响应都在消耗大量GPU资源。

Anthropic 2025年的毛利率因高昂的模型推理成本而低于预期,这在行业内已不是秘密。
为了平衡账目,Anthropic在过去几周连续推出三项举措:
- 调整企业版定价:将Claude Enterprise从纯订阅制改为“20美元月费+按用量计费”模式。新模式下,固定费用降低,但Token用量按实际消耗计费(不影响150人以下的小公司)。估算显示,重度用户的成本可能翻倍甚至增至三倍。

Anthropic发言人对此的解释是,新定价能更准确地反映客户的实际使用情况。换言之,旨在对消耗算力最多的那部分用户单独收费。
- 限制第三方工具调用:Claude Code订阅用户若使用某些第三方Agent工具,需额外付费。官方表示,算力是需精打细算的资源,必须优先保障使用自家产品和API的客户。

- 上线强制实名验证(KYC):要求用户提供政府签发的实体证件及实时自拍进行验证。其公告明确将“从不支持地区创建账户”列为禁用理由之一,这对部分地区的用户影响显著。
依赖中转、套壳或共享池访问 Claude 的国内账号,在这套验证流程下几乎无法通过。此前积累的对话记录、提示词与项目上下文,也将随着账号被封而全部清零。


上述措施均旨在从需求侧施压,以挤出过度使用。
然而,无论需求侧如何挤压,供给侧的算力天花板依然存在。
Adaption Labs 联合创始人、前 Cohere 推理负责人 Sudip Roy 道破了订阅制 AI 产品的根本困境:采用订阅模式,其商业前提本就是赌用户不会用满额度。
赌输了,就只能自己动手造“铲子”。
解药需等到 2027 年
Anthropic 的尴尬处境在于此。
公司估值高达 3800 亿美元,且 70% 的企业客户首单都冲着 Claude 而来。但所有这些辉煌的数字,最终都依赖于同一项硬件基石——芯片。

尽管众多风投争相注资 Anthropic,其下一轮估值预计将攀升至 8000 亿美元,但在芯片这一关键环节,主动权始终掌握在他人手中。
采购英伟达芯片需看“老黄”脸色,获取谷歌 TPU 得排队抢档期,甚至连博通(Broadcom)也开始写入对赌条款。
自研芯片,是将命脉攥回自己手中的唯一途径。但这一解决方案的兑现时间,至少要等到 2027 年之后。
在那之前,Claude 的每一次宕机,开发者在 Downdetector 上的每一声抱怨,都在反复提醒同一个事实:故事讲得再宏大,承载故事的芯片,却依然受制于人。
参考资料
* https://www.cnbc.com/2026/04/15/anthropic-outage-elevated-errors-claude-chatbot-code-api.html
* https://www.reuters.com/business/anthropic-weighs-building-it-own-ai-chips-sources-say-2026-04-09/
* https://www.theinformation.com/articles/anthropic-changes-pricing-bill-firms-based-ai-use-amid-compute-crunch?rc=epv9gi
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/30545

