AI机器人一夜关闭4000个Issue!开源维护进入自动时代,Codex并行扫描GitHub垃圾堆
什么?现在,50个Codex可以并行运行,Issues和PRs也能全天候扫描了。
昨天晚上,OpenClaw之父Peter Steinberger发布的最新项目「Clawsweeper」实现了这一切。它是一个专注于控制代码「洪流」的AI维护机器人,负责关闭OpenClaw上那些已经实现或明显没有意义的Issues和PRs。当前,OpenClaw积压了近5000个Issues和4000多个PRs。

昨天一天,ClawSweeper关闭了大约4000个Issues,还有几千个正在处理中。由于API限制,处理速度受到一定影响。

Steinberger表示,与其使用传统的仪表盘来显示进展,ClawSweeper选择在工作过程中直接更新README文件。这意味着README文件本身就变成了一个动态的「仪表盘」,实时反映项目的状态和进展。

有用户对ClawSweeper的工作模式给予了高度评价,认为这不只是一个简单的清理工具,实际上是开源维护的一个全新范式转变。以前,维护者总是亲自照看代码仓库,永远跟不上AI的输出速度;现在是AI控制着AI,开源项目的维护成本不再是瓶颈了。唯一剩下的限制不是模型本身的弱点,反而是GitHub和OpenAI的速率限制阻碍了效率的提升。一旦这些限制解决,GitHub上堆积的陈旧垃圾代码(垃圾堆)可能会被彻底清理掉。

作为一个保守的OpenClaw维护机器人,ClawSweeper会为每个开放的问题或PR保留一个Markdown格式的报告,在有用的情况下发布一次耐用的Codex自动审查评论,并且只有在有充分证据的情况下才会关闭条目。
ClawSweeper只有在以下情况明确时才会建议关闭项目:
- 当前主分支上已实现
- 当前主分支上无法重现
- 更适合放在ClawHub技能/插件工作中,而非核心代码
- 是重复的或已被权威问题/PR取代
- 已经有具体内容但在该源代码库中不可执行
- 内容不一致,无法采取任何行动
- 超过60天的陈旧问题,且缺乏足够的数据进行验证
维护者创建的条目永远不会被自动关闭,其他的条目保持开放状态。
ClawSweeper如何工作呢?官方介绍了以下两个独立的工作流程。
一是,审查流程。审查只提出建议,从不关闭条目。
- 计划者会扫描所有开放的问题和PR,并将具体的条目编号分配给分片。
- 每个分片会检出openclaw/openclaw的主分支。
- Codex使用gpt-5.5进行审查,进行高推理的快速服务,且每个条目最多耗时10分钟。
- 每个条目生成一个Markdown文件(items/.md),包含决策、证据、建议的评论、运行时元数据和GitHub快照哈希。
- 高置信度的关闭建议会被标记为proposed_close。
审查节奏是这样的:
- 每小时审查有过活动的条目
- 每小时审查过去7天内创建的条目
- 每天审查30天内没有活动的条目
- 每周审查更旧且没有活动的条目
- 新的或活跃的条目会每5分钟即时处理一次
二是,应用流程。应用流程读取现有报告,并在存储的审查结果仍然有效时更新GitHub。
- 更新单个带标记的Codex自动审查评论。
- 只有在审查结果明确且高置信度时,才会关闭条目。
- 关闭时,重复使用相同的评论,避免重复关闭评论。
- 将已关闭或已经关闭的报告移动到closed/.md。
- 将重新打开的存档报告移回items/.md,标记为过时。
- 在长时间运行时进行检查点提交和仪表盘心跳。
- 应用流程默认仅关闭问题,不设置年龄限制,关闭延迟为5秒,每次检查点最多关闭50个条目。如果达到请求的关闭数量,会排队进行下一个应用运行。

项目地址:https://github.com/openclaw/clawsweeper
参考链接:
https://x.com/steipete/status/2047982647264059734
https://x.com/AYi_AInotes/status/2048007004430491755
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/32074

