马斯克意外泄露Claude参数?Sonnet 1T、Opus 5T引热议
马斯克近期在社交媒体上的一次互动,意外引发了关于Anthropic公司Claude系列模型参数规模的广泛推测。其言论被网友解读为间接证实了Claude Sonnet和Opus的参数量级。

事件起因是马斯克发文透露,其xAI公司的Colossus 2超算集群正在训练一系列模型,其中最大模型的参数量达到了10万亿(10T)。他列出的清单包括:
Imagine V2
2个1万亿(1T)参数的变体模型
2个1.5万亿(1.5T)参数的变体模型
6万亿(6T)参数模型
10万亿(10T)参数模型
注:Colossus 2是xAI宏计划的一部分。据2025年8月信息,该集群已安装119台风冷式冷水机组,提供约200MW冷却能力,可支持约11万个GB200 NVL72 GPU。其最终目标是部署超过55万个GPU。

在后续互动中,有用户询问其模型Grok 4.2的具体规模时,马斯克回复称:
总参数量就是0.5T(5000亿)。现在的Grok,参数量是Sonnet的一半、Opus的十分之一。
这段回复迅速被网友捕捉并解读:这似乎意味着Claude Sonnet的参数量约为1T,而Opus则达到5T。


当被问及如何得知竞争对手模型的参数细节时,马斯克未再回应。但这一插曲再次点燃了技术社区对Claude这一闭源模型规模的好奇。


网友如何推测Claude参数规模?
Anthropic从未官方披露过Claude系列模型的参数量,但这并未阻止社区通过各种方法进行估算。主流推测方法主要围绕以下四类展开:
- 推理成本与吞吐量反推法:基于模型API的推理成本与响应速度,结合行业经验系数,反推其激活参数量与总参数量。
- 性能基准对标法:将Claude在各类公开基准测试中的表现,与已知参数的开源或闭源模型进行对比,从而推断其规模。
- 内部信息与传闻分析法:整合各方流出的非官方信息、招聘动向及行业传闻进行交叉验证。
- 架构特性分析法:通过分析模型在长上下文、思维链等任务中的行为特性,推测其可能使用的混合专家(MoE)等架构,进而估算参数范围。
社区的综合讨论显示,最新版本Claude 4.6 Sonnet的估算参数量约在1-2T,Claude 4.6 Opus约在1.5-5T,这与马斯克“泄露”的“Sonnet 1T、Opus 5T”说法存在重叠区间。

Claude 3 系列参数推测
2024年3月发布的Claude 3系列首次明确了Haiku(小杯)、Sonnet(中杯)、Opus(大杯)的产品矩阵。行业分析师Alan D. Thompson曾估算其参数量分别为:Haiku约200亿(20B),Sonnet约700亿(70B),Opus约2万亿(2T)。Reddit社区也有讨论认为Claude 3 Sonnet的参数可能在1500亿至2500亿(150-250B)之间。




Claude 3.5 系列参数推测
随后发布的Claude 3.5 Sonnet在多项性能上表现突出,其速度是Claude 3 Opus的两倍,成本仅为五分之一。根据微软等机构发布的一篇论文中的行业估算,Claude 3.5 Sonnet的参数量约为1750亿(175B)。该论文同时估算了同期其他模型:ChatGPT约175B,GPT-4约1.76T,GPT-4o约200B。




Claude 4 系列及后续版本参数推测
进入Claude 4时代,社区对参数的估算分歧变大。对于Claude Opus 4和Sonnet 4,行业估算范围分别在3000-5000亿(300-500B)和500-1000亿(50-100B)之间。

后续的Opus 4.1被视为一次小幅更新。有Hacker News用户分析认为,Anthropic可能在此版本中尝试了超大参数规模(估计约6T,采用MoE架构),随后发布的Opus 4.5则通过知识蒸馏等技术优化效率,参数规模可能缩小至约2T,从而实现了更快的速度和更低的成本。


今年初发布的4.5系列及最新的4.6系列,在计算机操作、编程、深度研究等任务上能力持续提升。然而,随着模型架构和技术迭代日趋复杂,仅从外部表现精确估算其参数规模也变得越来越困难。


一篇发表在Substack平台、署名“unexcitedneurons”的技术逆向工程分析,通过OpenRouter在Google Vertex和Amazon Bedrock平台上的Token吞吐数据,对Claude Opus 4.5和4.6的激活参数量进行了估算。

作者以三个开源MoE模型作为校准基准,推算出Vertex平台的有效内存带宽约为4.0–4.5 TB/s,并由此得出以下结论:
* Opus 4.6在FP8精度下的激活参数量约为93–105B。
* 若假设模型采用FP8精度稠密层与FP4精度混合专家层的配置,Opus 4.6的激活参数量则约为127–154B。
结合不同的专家稀疏度方案,作者最终认为,Opus 4.5远非传闻中的10T+参数量级,而是一个体量小得多的模型,很可能是由参数量更大的Claude Opus 4/4.1蒸馏而来,其参数量规模应落在1.5T至2T之间。作者推测,Claude Opus 4/4.1本身的参数量大概率在5T-6T左右。
这一推断也能从API定价策略中得到侧面印证:Claude Opus 4.1的输入/输出定价为每百万Token 15美元/75美元,而Claude Opus 4.5/4.6的定价仅为每百万Token 5美元/25美元,价格降至原先的三分之一。
除了对已发布模型的分析,近期Anthropic团队因权限配置失误,意外泄露了其内部代号为“Capybara”的未发布模型——Claude Mythos。
泄露文件多次使用“质的飞跃”来形容Mythos。在具体能力上,相较于Claude Opus 4.6,Mythos在软件编码、学术推理和网络安全等测试中得分显著更高,被称为是Anthropic迄今为止开发过的最强大的AI模型。

有传言称,该模型的参数量达到了10T。
参考链接:
1. https://x.com/lifetimization/status/2042285703162397167
2. https://www.reddit.com/r/ClaudeAI/comments/1ixuxln/estimate_of_model_size_for_claude_37/
3. https://lifearchitect.substack.com/p/the-memo-special-edition-claude-3
4. https://arxiv.org/pdf/2412.19260v1
5. https://medium.com/@bob.mashouf/claude-4-vs-llama-4-benchmarking-55b99c17d3f7
6. https://news.ycombinator.com/item?id=47319205
7. https://unexcitedneurons.substack.com/p/estimating-the-size-of-claude-opus
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/29644

