AI制造的垃圾,就该由AI亲自清理。
就在近日,OpenClaw创始人兼OpenAI工程师Peter Steinberger完成了一项惊人创举——
他仅用2天时间打造了一款名为ClawSweeper的工具,启动50个Codex实例,实现7×24小时不间断并行扫描。
在一天之内,该工具直接关闭了openclaw/openclaw仓库中超过5000个无效Issue,还有数千个正在排队等待处理。

这个拥有36万Star的开源巨兽,此前积压了上万个Issue和PRs。

重复的、过时的、早已在main分支修复却无人关闭的、以及AI灌水产生的slop——这些内容如同数字坟场般堆积。
任何人类维护者看到这一幕都会感到头皮发麻。
按照人工处理速度,清理完这些积压大约需要整整一年。
而Steinberger借助AI,仅用一天就完成了半数工作。

当被问及本轮扫描的耗费时,他的回答轻描淡写:不到1000美元。
这意味着,5000多个Issue的深度审查与关闭,平均每个成本不足0.2美元。

而让整套系统减速的唯一因素,并非模型不够智能,而是GitHub的API速率限制——服务器跟不上AI的处理速度。
「冷面判官」的处决逻辑
别以为ClawSweeper是一个无脑的杀手。
恰恰相反,Steinberger为其设计哲学归纳为四个字——极致保守。
这套系统的核心运行在 gpt-5.5 上,采用 high reasoning effort 和 fast service tier 配置;每个待审条目的Codex审查超时设置为 10分钟。
它仅在以下7种情况下才会关闭一个Issue:已在 main 实现、当前 main 无法复现、应归属ClawHub的 skill/plugin 而非 core、重复或已被更权威条目取代、在该仓库内具体但不可执行、内容过于混乱不可执行、以及超过60天且缺少足够数据验证bug。

除此之外,一律保持open状态。
还有一层保障机制:ClawSweeper不会触碰维护者自己发布的条目。
它会先检查GitHub中的身份标记,只要是项目主人、成员或协作者发布的issue,就直接跳过,不会自动关闭。
更谨慎的是,Codex在审查时根本没有写权限。
它只能在只读环境中查看代码、分析上下文、做出判断,然后将结果整理成一份结构化的markdown报告,存储到 items/<编号>.md。
真正的评论和关闭动作,并不会在审查阶段直接执行。
系统要等到进入 apply_existing=true 模式后,重新抓取最新上下文,再对快照哈希进行重新计算,确认这条issue在提案生成之后没有发生变化,才会真正动手。
Steinberger亲自人工抽检了数百条关闭记录,结果:准确率几乎无误。

README就是仪表盘
ClawSweeper最令人拍案叫绝的设计,或许不是它的关闭逻辑,而是其「监控系统」。
传统做法是什么?
搭建Grafana,配置Prometheus,制作一套精美的后台Dashboard。
Steinberger表示:不需要。README就是我的仪表盘。

ClawSweeper在运行过程中,会实时更新仓库的README.md文件。
当前有多少open issue、本轮审查了多少条、提议关闭多少条、已执行关闭多少条、GitHub限流到了哪一步——全部以表格形式清晰地展示在README中。
任何人打开GitHub仓库主页,就能看到这个AI判官此刻正在做什么。
它让整个清理过程变得完全透明、完全公开、完全可审计。
任何对「AI擅自关闭我的Issue」有疑虑的贡献者,都可以直接点击对应的items/71514.md,查看Codex给出的完整审查理由。
当AI开始「自愈」
你可能会想,这不就是一个自动化脚本吗?
格局放大一些。
GitHub上有超过4亿个仓库,其中活跃的大型开源项目几乎都面临同一个噩梦——Issue坟场。
Kubernetes有4万多个已关闭Issue,Linux内核的邮件列表积压更是天文数字。

维护者的时间是世界上最稀缺的资源之一,而大量时间被浪费在「判断这个Issue到底还需不需要存在」这种机械劳动上。
ClawSweeper的意义在于,它首次在一个真实的、百万Star级别的仓库中证明:使用AI agent进行大规模的、保守的、可审计的Issue分诊,是完全可行的。
5000多个Issue的深度审查加关闭,总花费不到1000美元。按单个Issue计算,成本大约0.2美元。
而且它7×24小时不休息、不抱怨、不带情绪。
唯一让它慢下来的,只有GitHub API的速率限制。
从某种意义上说,这标志着开源项目从「人工维护」迈向「自愈」的起点。
未来,每一个大型开源仓库可能都会运行一个类似ClawSweeper的bot,持续监控Issue质量,自动过滤噪音,让人类维护者只需关注那些真正需要人类判断的高价值问题。
Rate Limit是最后的防线
有个细节特别值得关注。
ClawSweeper的Dashboard上赫然写着:「State: Apply throttled」 ——GitHub的API限流把它卡住了。

50个Codex并行扫描的速度太快,快到GitHub的服务器开始说「你慢点,我跟不上了」。
在传统软件开发中,速率限制是为了防止攻击。
但现在,它成了AI工作效率的唯一瓶颈。
不是模型不够聪明,不是判断不够准确,纯粹是基础设施跟不上AI的速度。
这大概就是2026年最真实的写照:管道追不上AI。
参考资料:
https://x.com/steipete/status/2047982647264059734
https://github.com/openclaw/clawsweeper
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/32168

