只因提交记录含“HERMES.md”,Claude Code 误扣用户200美元,Anthropic 拒不退款

近期,Anthropic 可谓麻烦缠身。上周刚放下高傲姿态,公开致歉并承认 Claude Code 确实存在性能下降问题,找出 3 个 Bug 后“谢罪”,还宣布调整使用额度以安抚所有用户。然而,平静没持续多久,新一轮风波又起……

仅仅因为用户 Git 提交记录里出现了“HERMES.md”,Claude Code 竟擅自停用其 Max 套餐额度,转而按 API 按量计费,导致用户无故损失 200.98 美元。

事后,Anthropic 的 AI 客服机器人仅回复:抱歉,我们承认存在这个 Bug,但不好意思,概不退款。

只因提交记录含“HERMES.md”,Claude Code 误扣用户200美元,Anthropic 拒不退款

事情经过是这样的。最近两天,一位开发者在 Reddit 上吐槽称,自己订阅了 Anthropic Claude Code 每月 200 美元的 Max 20x 套餐。使用过程中,Claude Code 突然弹出错误提示:“额外用量已耗尽,请前往 claude.ai/settings/usage 添加额度以继续使用。”

该用户感到困惑:后台显示周用量仅为 13%,当前会话用量为 0%,明明还有 86% 以上的套餐容量闲置未用,为何 200.98 美元的额外用量已被扣光?这些费用本应由订阅覆盖才对。问题究竟出在哪里?

于是,用户花了数小时调试,试图找出原因。他尝试了登出再登录、更换模型、重新安装,以及按照客服建议执行 claude logout && claude login,但均无济于事,依然一筹莫展。

“我跟一个 AI 客服机器人打了四轮交道,它只会不断重复粘贴相同的脚本回复。”用户吐槽道。最终,他不得不放弃客服,决定亲自做 Anthropic 那些人不愿做的事:诊断问题。

他对代码仓库和提交历史进行了全面的二分查找式排查:克隆仓库、测试 orphan 分支、定位具体 commit、缩小到特定字符串……

“周六的几个小时就这么浪费了,好在找到了触发点:最近的 Git 提交信息中包含字符串‘HERMES.md’(注意:是大写、带 .md 后缀)。”

原因就是这么简单:Claude Code 会将最近的提交记录包含在系统提示词中,而服务器端的某些机制一旦看到“HERMES.md”,就会判定将用户路由到“额外用量计费”路径,而非套餐额度。

需要说明的是,“HERMES.md”在 AI Agent 项目中是一个很常见的约定,用于系统提示的规范文件,并非什么冷门的极端情况。

该用户还贴心给出了“最小复现步骤”,并无奈吐槽:Git 提交信息中包含“AGENTS.md”没问题,“README.md”没问题,不带后缀的“HERMES”也没问题,甚至小写的“hermes.md”同样没问题,唯独大写的“HERMES.md”会触发计费 Bug。

“这逻辑到底谁能理解?”

只因提交记录含“HERMES.md”,Claude Code 误扣用户200美元,Anthropic 拒不退款

但这还不是最离谱的。该用户称,当他向 Anthropic 客服陈述此事后,其 AI 客服先后三次承认了该 Bug,称之为“身份验证路由问题”,并回复道:

“对于您在计费路由问题中遇到的困扰,我深表歉意,我们非常重视服务的可靠性。但是,我需要告知您,我们无法针对因技术错误或计费路由错误导致的受损服务提供补偿。”

翻译一下,也就是说:“是的,因为你 Git 历史里的一个字符串,我们的系统通过错误的路径刷掉了你 200 美元。不过,我们不会退钱,但还是谢谢你帮我们做测试工作!”

这样的“傲慢”彻底让该用户无语了。他直言,自己无论如何也算不明白这笔账:“我每月付 200 美元购买 Max 20x 套餐,可因为计费 Bug 我又损失了 200 美元。如今,我花了数小时免费为 Anthropic 做 QA(质量保证)工作,可最后得到的解决方案竟然是‘感谢您的耐心’?”

他无奈调侃道,自己甚至想按承包商费率给 Anthropic 开账单,但直觉告诉他,他们的退款机器人同样会拒绝。

该用户称,他无论如何不明白这到底是什么逻辑,但似乎有点明白 Anthropic 之所以叫做“Anthropic”(人类学)的原因了:因为你需要真正的人类才能解决问题,而他们本身似乎一个人类员工都抽不出来。

“他们声称自己正在构建世界上最先进的 AI,但他们的退款政策比提交信息里的正则匹配还要蠢。他们的客服机器人也没通过那些让他们模型出名的‘对齐训练’——它绝对没有把用户的利益放在心上。”

只因提交记录含“HERMES.md”,Claude Code 误扣用户200美元,Anthropic 拒不退款

帖子一经发布,立刻一石惊起千层浪,引起广大网友关注。有的网友开始查看自己最近的提交记录中是否包含“HERMES.md”,有没有被恶意扣费;有的网友则感同身受,直言该用户的经历并非个例,自己也深受其害。

一位名为 Tony Simons 的网友表示,刚刚也有类似的事情发生在他身上。

当时他用 Hermes 搭配 Opus 4.7,边用边不停刷新用量统计,发现订阅用量从 0% 一直涨到 9%,然后它悄无声息地切换了计费方式,直接把他全部的额外用量用光,甚至还超出了额外用量的上限。好在他的额外用量只设了 20 美元,发现时只超了 0.78 美元。

但这样的操作也实在让他生气:“这次我是真的受够了,Anthropic 可以拿着他们那些二流模型和那套摇摆不定的计费规则,滚吧。”

然后,这位网友还顺手表白、安利了一波 DeepSeek 新发布的模型:“这 20 美元要是花在 DeepSeek v4 上,那效果可比这好太多了……”

只因提交记录含“HERMES.md”,Claude Code 误扣用户200美元,Anthropic 拒不退款

还有一位网友直接晒图,图中他的额外套餐已超额使用到 102%,而直到这次他才终于明白为什么会出现这种情况:“哦,这就说得通了,好在续费也快到期了,对不住了 Claude,看来咱们得分道扬镳了。”

只因提交记录含“HERMES.md”,Claude Code 误扣用户200美元,Anthropic 拒不退款

随着网友的吐槽热度上升,不久也引起了 Anthropic 的注意。是的,依旧是这位 Claude Code 的工程师——Thariq,从 OpenClaw“误封杀”Openclaw 之父,到 Claude Code 被吐槽变慢变笨,他一直都是紧跟事态发展,随时上线解答、安抚网友情绪,Anthropic 真应该给他多发一份工资。

而根据 Thariq 的描述,这次又是“Bug”背锅。他表示:“抱歉,这其实是第三方检测工具的一个 Bug,问题出在我们把 Git 状态拉取到系统提示词的方式上。我们正在联系受影响的用户,并为他们提供退款,同时额外补偿一个月的积分(在此案例中为再补 200 美元)。”

只因提交记录含“HERMES.md”,Claude Code 误扣用户200美元,Anthropic 拒不退款

但即便是这样,网友也并没有买账。

“为什么非要等到这件事情被疯传,才能有人为一个真正的 Bug 进行退款?”

只因提交记录含“HERMES.md”,Claude Code 误扣用户200美元,Anthropic 拒不退款

“直到这件事情爆红后,(才出来解释?)兄弟。”

只因提交记录含“HERMES.md”,Claude Code 误扣用户200美元,Anthropic 拒不退款

“每次都是这样,问题必须在 Twitter 和 Reddit 上引起关注,否则你们根本不会采取任何行动。之前那个用户要求退款,而你们拒绝退给他。”

只因提交记录含“HERMES.md”,Claude Code 误扣用户200美元,Anthropic 拒不退款

在网友看来,如果没有在网上吐槽,将此事“闹大”,是不是 Anthropic 就当作无事发生?而这样的事情也不止一次了。难道就像此次率先发声的网友说的那般:“你(Anthropic)需要真正的人类才能解决问题,本身似乎一个人类员工都抽不出来解决问题”?

你对 Anthropic 的这次事件有什么看法?不妨去看看自己最近的提交记录里是否出现了「HERMES.md」,以及有没有因此被不合理扣款。欢迎大家在评论区留言交流!

参考链接:

https://www.reddit.com/r/ClaudeAI/comments/1svdm1w/psa_the_string_hermesmd_in_your_git_commit/

https://x.com/om_patel5/status/2048204411986469232

https://x.com/virushuo/status/2048389166417727729


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/32265

(0)
上一篇 2天前
下一篇 1天前

相关推荐

  • 大模型重塑端点安全:从被动防御到智能自治的演进之路

    在数字化浪潮席卷全球的当下,端点安全已成为网络安全体系中最关键也最脆弱的环节。2025年的数据显示,全球勒索软件平均赎金已突破270万美元,而72%的入侵事件仍从终端设备发起,包括PC、服务器及各类物联网设备。这一严峻现实揭示了一个核心问题:传统基于签名匹配与云端查杀的防护模式,在零日漏洞与AI生成式恶意代码的双重夹击下,已显露出明显的疲态与滞后性。 [[I…

    大模型安全 2025年8月27日
    31600
  • 大模型API惊现‘狸猫换太子’:你花高价买的GPT-5,可能只是廉价小模型

    近段时间,不少用户抱怨大模型API的表现如同“薛定谔的猫”:时而聪明绝顶,时而愚钝不堪。这不禁让人怀疑,后台是否存在偷偷“降智”的操作。 如今,一篇来自CISPA亥姆霍兹信息安全中心的最新论文《Real Money, Fake Models: Deceptive Model Claims in Shadow APIs》揭开了部分谜底:你花费真金白银购买的“第…

    2026年3月7日
    31900
  • 微软AI CEO苏莱曼提出“人文主义超级智能”:超越人类后的安全路径与产业反思

    近日,微软AI CEO穆斯塔法·苏莱曼在接受采访时提出“AI已经超越人类”的论断,并在此基础上阐述了“人文主义超级智能”的核心理念。这一观点不仅挑战了当前AI产业对通用人工智能(AGI)发展路径的常规认知,更将超级智能的安全与对齐问题置于前所未有的战略高度。 苏莱曼的职业生涯轨迹本身即是一部AI发展简史:作为DeepMind联合创始人,他亲历了AlphaGo…

    2025年12月13日
    33200
  • Google DeepMind重磅研究:AI安全评估体系面临颠覆!操控频率≠实际伤害,隐蔽手法更危险

    核心摘要 Google DeepMind的一项大规模研究对当前AI安全评估体系的核心假设提出了根本性质疑。研究发现,AI输出中有害行为(如操控)的发生频率与其造成的实际伤害之间缺乏稳定关联。这意味着,行业普遍依赖的“降低有害输出频率即代表更安全”的逻辑,可能无法有效评估真实风险。 颠覆性发现:操控频率≠实际伤害 今年3月,Google DeepMind在ar…

    2026年4月13日
    20100
  • 大语言模型安全攻防新纪元:从认知退化到供应链风险的全面解析

    近期,多篇学术论文集中探讨了大语言模型(LLM)在安全攻防领域的前沿进展,揭示了从提示注入、资源消耗到认知退化、供应链风险的全方位挑战与创新解决方案。这些研究不仅展现了LLM在构建防御体系中的巨大潜力,也深刻暴露了其在推理逻辑、系统稳定性及依赖生态中存在的结构性脆弱点,为重新划定AI安全边界提供了关键的理论与实践视角。 **一、 核心安全漏洞与攻击范式演进*…

    2025年7月25日
    32100