你没看错!
龙虾之父Peter Steinberger在API token上的月度开销,竟然飙到了130万美元以上。
数据显示,过去30天内,他的总token消耗量高达6030亿,请求次数达到760万次。
有网友惊呼:“雇一支开发团队可能都比这便宜。”
另一位网友追问:“兄弟,你最好能拿出点真本事,做出那些年薪百万美元的工程师都搞不定的东西,不然这广告恐怕就成了前沿实验室泡沫破裂的信号。而且这价格还是补贴过的。天哪,按实际成本算,那得贵得多。”
Steinberger回应道:“我把快速模式关掉后,价格直接降了70%,所以算下来也就一个员工的成本。”
还有人直接开嘲:“一个月130万美元?结果你啥都没交付。你真是史上最差劲的营销鬼才。”
Steinberger同样反击:“说不好啊兄弟,你这‘啥都没交付’的定义未免也太特别了吧。”
Steinberger还表示:“这些代码全是用Codex写的。那些比较乱、我后来整理过的拉取请求,大概是Claude写的。”
在自曝高昂的token花费并引发热议后,Steinberger很快做出了回应,他说他正在尝试回答这样一个问题:
“如果Token不再重要,未来我们会如何构建软件?”
我们长期在云端运行大约100个Codex,审查每一个PR、每一个issue。只要main分支上合入了一个修复,@clawsweeper最终就会找到那个已经挂了6个月的旧issue,并带着精确引用把它关闭。
我们会在每次commit上运行Codex,审查安全问题,因为这些问题实在太容易漏掉。
我们会用Codex对issue去重、发现聚类,并为最紧迫的问题发送报告。
我们有一些Agent可以复现复杂环境,启动临时的crabbox.sh机器,登录到Telegram之类的平台,录制视频,并在PR中发布修复前后的对比。
还有一些Codex会监控新issue,如果它符合我们已经写明的产品愿景,就会自动为它创建PR。随后,另一个Codex会再去审查这个PR。
我们还运行Codex来扫描评论中的垃圾信息,并封禁相关用户。
我们运行Codex实例来验证性能基准,并把回归问题报告到Discord。
我们有Agent监听我们的会议,并主动开始工作。比如,当我们在会议中讨论新功能时,它们会在我们讨论的过程中直接创建PR。
我们构建了clawpatch.ai,把所有项目拆分成功能单元,用来审查、发现Bug和回归问题。
在安全方面,我们也做了同样的拆分,并结合Vercel的deepsec和Codex Security来发现回归与漏洞。
所有这些自动化,让我们能够以极其精简的团队运转这个项目。
问题来了,这么高的开销由谁来承担呢?显然不是他自己。
“OpenAI不会收取我的token费用。”
Tokenmaxxing:这场吞吐量竞赛还能维持多久
这直接杀死了比赛。
前段时间AI圈热议的Tokenmaxxing,各大厂商,包括Meta和亚马逊,甚至公开公司内部的Token使用排行榜,让使用人工智能工具、消耗Tokens成了员工每日工作的KPI。
在当时,Meta排名第一的个人用户平均消耗了2810亿token,根据不同模型的定价,背后可能是数以百万计美元开销。而龙虾之父Peter Steinberger在一个月的时间里就消耗了6030亿token,简直是降维打击。
前特斯拉和OpenAI科学家Karpathy在播客中坦言自己也感受到最大化使用AI的压力,“关键在于token。你的token吞吐量是多少?你能调动多少token吞吐量?”
Token慢慢变成了一种新的生产资料,甚至变成了是衡量AI运转密度的单位。一个团队,只要拥有足够高的token吞吐量、足够完善的任务拆分方式,以及足够可靠的验证闭环,就可能跑出过去大型团队才能承担的工程密度。
就在刚刚,OpenAI总裁Greg Brockman发推表示,“Token正在迅速成为解决问题的通用输入。”
但我们相信Token并非以量取胜,就像龙虾之父搭建智能体自动化开发流,一个良好的项目管理模式,或许是决胜关键。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/35020

