一个月烧掉130万美元Token!龙虾之父的AI自动化实验震惊全网

你没看错!

龙虾之父Peter Steinberger在API token上的月度开销,竟然飙到了130万美元以上。

数据显示,过去30天内,他的总token消耗量高达6030亿,请求次数达到760万次。

有网友惊呼:“雇一支开发团队可能都比这便宜。”

另一位网友追问:“兄弟,你最好能拿出点真本事,做出那些年薪百万美元的工程师都搞不定的东西,不然这广告恐怕就成了前沿实验室泡沫破裂的信号。而且这价格还是补贴过的。天哪,按实际成本算,那得贵得多。”

Steinberger回应道:“我把快速模式关掉后,价格直接降了70%,所以算下来也就一个员工的成本。”

还有人直接开嘲:“一个月130万美元?结果你啥都没交付。你真是史上最差劲的营销鬼才。”

Steinberger同样反击:“说不好啊兄弟,你这‘啥都没交付’的定义未免也太特别了吧。”

Steinberger还表示:“这些代码全是用Codex写的。那些比较乱、我后来整理过的拉取请求,大概是Claude写的。”

在自曝高昂的token花费并引发热议后,Steinberger很快做出了回应,他说他正在尝试回答这样一个问题:

“如果Token不再重要,未来我们会如何构建软件?”

我们长期在云端运行大约100个Codex,审查每一个PR、每一个issue。只要main分支上合入了一个修复,@clawsweeper最终就会找到那个已经挂了6个月的旧issue,并带着精确引用把它关闭。

我们会在每次commit上运行Codex,审查安全问题,因为这些问题实在太容易漏掉。

我们会用Codex对issue去重、发现聚类,并为最紧迫的问题发送报告。

我们有一些Agent可以复现复杂环境,启动临时的crabbox.sh机器,登录到Telegram之类的平台,录制视频,并在PR中发布修复前后的对比。

还有一些Codex会监控新issue,如果它符合我们已经写明的产品愿景,就会自动为它创建PR。随后,另一个Codex会再去审查这个PR。

我们还运行Codex来扫描评论中的垃圾信息,并封禁相关用户。

我们运行Codex实例来验证性能基准,并把回归问题报告到Discord。

我们有Agent监听我们的会议,并主动开始工作。比如,当我们在会议中讨论新功能时,它们会在我们讨论的过程中直接创建PR。

我们构建了clawpatch.ai,把所有项目拆分成功能单元,用来审查、发现Bug和回归问题。

在安全方面,我们也做了同样的拆分,并结合Vercel的deepsec和Codex Security来发现回归与漏洞。

所有这些自动化,让我们能够以极其精简的团队运转这个项目。

问题来了,这么高的开销由谁来承担呢?显然不是他自己。

“OpenAI不会收取我的token费用。”

Tokenmaxxing:这场吞吐量竞赛还能维持多久

这直接杀死了比赛。

前段时间AI圈热议的Tokenmaxxing,各大厂商,包括Meta和亚马逊,甚至公开公司内部的Token使用排行榜,让使用人工智能工具、消耗Tokens成了员工每日工作的KPI。

在当时,Meta排名第一的个人用户平均消耗了2810亿token,根据不同模型的定价,背后可能是数以百万计美元开销。而龙虾之父Peter Steinberger在一个月的时间里就消耗了6030亿token,简直是降维打击。

前特斯拉和OpenAI科学家Karpathy在播客中坦言自己也感受到最大化使用AI的压力,“关键在于token。你的token吞吐量是多少?你能调动多少token吞吐量?”

Token慢慢变成了一种新的生产资料,甚至变成了是衡量AI运转密度的单位。一个团队,只要拥有足够高的token吞吐量、足够完善的任务拆分方式,以及足够可靠的验证闭环,就可能跑出过去大型团队才能承担的工程密度。

就在刚刚,OpenAI总裁Greg Brockman发推表示,“Token正在迅速成为解决问题的通用输入。”

但我们相信Token并非以量取胜,就像龙虾之父搭建智能体自动化开发流,一个良好的项目管理模式,或许是决胜关键。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/35020

(0)
上一篇 21小时前
下一篇 6小时前

相关推荐

  • AgentFS:基于SQLite的AI智能体状态管理革命,单文件封装完整运行时

    在AI智能体(Agent)系统快速发展的当下,状态管理、审计追踪和合规性保障成为制约其规模化应用的关键技术瓶颈。传统解决方案往往依赖复杂的分布式数据库或云存储服务,不仅增加了系统架构的复杂性,还带来了性能开销、数据迁移困难和平台依赖等问题。近日,由Pekka Enberg与Turso数据库的Glenn Snelling合作开发的AgentFS项目,为这一领域…

    2025年11月6日
    36600
  • 告别重复造轮子:7个Python库彻底解放AI工程师的双手

    我删掉了 350 行封装代码。取而代之的是这些。 “想要流式输出?SSE 我自己解析,有多难?” 难。离谱地难。我花了一个周末写了个能处理 OpenAI 格式的流式解析器,结果 Anthropic 改了他们的格式,我那所谓的“通用”解析器立刻就只通用于一家供应商了。 那一刻我决定不再写自定义 API 封装器。六个月后,伴随着一堆被删掉的代码,就是下面这 7 …

    2026年2月21日
    70500
  • GPT-5.2深度解析:专业生产力工具的进化与多模态能力突破

    OpenAI近期正式发布了GPT-5.2系列模型,这一更新标志着人工智能在专业工作场景中的应用迈入新阶段。数据显示,ChatGPT企业版用户平均每日可节省40-60分钟的工作时间,重度用户每周节省超过10小时,这不仅是效率的提升,更是工作模式的根本性变革。GPT-5.2的核心目标在于释放更广泛的经济价值,通过技术优化推动各行业知识工作者的生产力跃升。 在专业…

    2025年12月12日
    34900
  • Claude Opus 4.6评测暴跌至第10名,Anthropic却亮出王炸:全栈应用构建系统或将消灭编程

    近期,Claude Opus 4.6 模型在第三方基准评测中的表现引发了广泛关注。根据 BridgeBench 发布的最新报告,该模型的全球排名出现显著下滑。 报告数据显示,Claude Opus 4.6 的准确率从 83.3% 下降至 68.3%,其幻觉率则大幅上升。这一变化导致其在综合排名中从第 2 位跌落至第 10 位。 评测结果的公布,在用户社区中引…

    2026年4月14日
    37600
  • 从语言到空间:世界模型如何重塑AI进化的底层逻辑

    近期AI领域两位重量级人物的发声,揭示了人工智能发展路径的重要转向。图灵奖得主杨立昆(Yann LeCun)被曝计划离开Meta,专注于以“世界模型”为核心的新事业;而斯坦福大学教授李飞飞则在社交媒体发表长文,直言大语言模型(LLM)的局限性,并提出“空间智能”才是通往通用人工智能(AGI)的关键。两人不约而同地强调“世界模型”的重要性,这标志着AI研究正从…

    2025年11月17日
    32000