AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

ยุคแห่งการ ‘รักษาตัวเอง’ ของ AI มาถึงแล้ว: 50 ตัวอย่าง Codex สแกน 7×24 ชั่วโมง ปิด Issue ที่ไม่ถูกต้องกว่า 5,000 รายการในวันเดียว การบำรุงรักษาโอเพนซอร์สก้าวสู่การปฏิวัติครั้งใหม่

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง


รายงานโดย Xin Zhi Yuan

บรรณาธิการ: แรด โซโลมอน

[สาระสำคัญ] สร้างใน 2 วัน ต้นทุนไม่ถึง 1,000 ดอลลาร์สหรัฐ 50 ตัวอย่าง Codex สแกนแบบขนาน – ผู้ก่อตั้ง OpenClaw เปิดตัวเครื่องมือ ClawSweeper ปิด Issue ที่ไม่ถูกต้องกว่า 5,000 รายการในวันเดียว ข้อจำกัดอัตรา API ของ GitHub เป็นอุปสรรคเดียว การบำรุงรักษาโอเพนซอร์สก้าวสู่ยุคใหม่แห่ง ‘การรักษาตัวเอง’ ของ AI อย่างเป็นทางการ

ขยะที่ AI สร้างขึ้น ก็ควรให้ AI จัดการด้วยตัวเอง

เมื่อเร็วๆ นี้ Peter Steinberger ผู้ก่อตั้ง OpenClaw และวิศวกรของ OpenAI ได้สร้างความสำเร็จที่น่าทึ่ง –

เขาใช้เวลาเพียง 2 วันในการสร้างเครื่องมือที่ชื่อว่า ClawSweeper โดยเปิดใช้งาน50 ตัวอย่าง Codex เพื่อสแกนแบบขนานตลอด 24 ชั่วโมง 7 วันต่อสัปดาห์

ภายในวันเดียว เครื่องมือนี้ปิดIssue ที่ไม่ถูกต้องกว่า 5,000 รายการในคลัง openclaw/openclaw โดยตรง และยังมีอีกหลายพันรายการที่รอการประมวลผล

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

คลังโอเพนซอร์สขนาดใหญ่ที่มี 36,000 Stars นี้ ก่อนหน้านี้มี Issue และ PRs สะสมนับหมื่นรายการ

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

Issue ที่ซ้ำซ้อน ล้าสมัย ได้รับการแก้ไขในสาขา main แล้วแต่ไม่มีใครปิด รวมถึง slop ที่เกิดจากการป้อนข้อมูลของ AI – สิ่งเหล่านี้สะสมเหมือนสุสานดิจิทัล

ผู้ดูแลที่เป็นมนุษย์คนใดเห็นภาพนี้ก็จะรู้สึกขนหัวลุก

ตามความเร็วในการประมวลผลของมนุษย์ การทำความสะอาดสิ่งที่สะสมไว้เหล่านี้จะใช้เวลาทั้งปี

แต่ Steinberger ใช้ AI เพียงวันเดียวก็ทำงานสำเร็จไปครึ่งหนึ่ง

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

เมื่อถูกถามถึงค่าใช้จ่ายในการสแกนรอบนี้ คำตอบของเขาเบามาก: ไม่ถึง 1,000 ดอลลาร์สหรัฐ

นั่นหมายความว่า การตรวจสอบเชิงลึกและการปิด Issue กว่า 5,000 รายการ มีต้นทุนเฉลี่ยน้อยกว่า 0.2 ดอลลาร์สหรัฐต่อรายการ

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

และปัจจัยเดียวที่ทำให้ระบบทั้งหมดช้าลง ไม่ใช่เพราะโมเดลไม่ฉลาดพอ แต่เป็นข้อจำกัดอัตรา API ของ GitHub – เซิร์ฟเวอร์ตามความเร็วของ AI ไม่ทัน

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

ตรรกะการตัดสินของ ‘ผู้พิพากษาหน้าเย็น’

อย่าคิดว่า ClawSweeper เป็นนักฆ่าที่ไร้สมอง

ตรงกันข้าม Steinberger ได้สรุปปรัชญาการออกแบบของมันเป็นสี่คำ – อนุรักษ์นิยมอย่างที่สุด

ระบบนี้ทำงานบน gpt-5.5 โดยใช้การกำหนดค่า high reasoning effort และ fast service tier; การตรวจสอบ Codex แต่ละรายการตั้งค่า timeout ไว้ที่ 10 นาที

มันจะปิด Issue ใน 7 กรณีต่อไปนี้เท่านั้น: มีการใช้งานใน main แล้ว, ไม่สามารถจำลองใน main ปัจจุบันได้, ควรเป็นของ skill/plugin ใน ClawHub ไม่ใช่ core, ซ้ำซ้อนหรือถูกแทนที่ด้วยรายการที่มีอำนาจมากกว่า, เฉพาะเจาะจงในคลังนี้แต่ไม่สามารถดำเนินการได้, เนื้อหายุ่งเหยิงเกินไปไม่สามารถดำเนินการได้, และเกิน 60 วันโดยไม่มีข้อมูลเพียงพอที่จะยืนยันบั๊ก

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

นอกเหนือจากนี้ จะคงสถานะ open ไว้ทั้งหมด

ยังมีกลไกความปลอดภัยอีกชั้น: ClawSweeper จะไม่แตะต้องรายการที่ผู้ดูแลเผยแพร่เอง

มันจะตรวจสอบแท็กระบุตัวตนใน GitHub ก่อน ถ้าเป็น Issue ที่เจ้าของโครงการ สมาชิก หรือผู้ทำงานร่วมกันเผยแพร่ จะข้ามไปทันทีและไม่ปิดอัตโนมัติ

ที่ระมัดระวังยิ่งกว่านั้นคือ Codex ไม่มีสิทธิ์เขียนในระหว่างการตรวจสอบ

มันสามารถดูโค้ด วิเคราะห์บริบท และตัดสินใจในสภาพแวดล้อมแบบอ่านอย่างเดียวเท่านั้น จากนั้นจะรวบรวมผลลัพธ์เป็นรายงาน markdown ที่มีโครงสร้าง เก็บไว้ใน items/<หมายเลข>.md

การแสดงความคิดเห็นและการปิดจริงจะไม่ดำเนินการโดยตรงในขั้นตอนการตรวจสอบ

ระบบจะรอจนกว่าเข้าสู่โหมด apply_existing=true จากนั้นจึงดึงบริบทล่าสุดอีกครั้ง คำนวณแฮชของ snapshot ใหม่ เพื่อยืนยันว่า Issue นี้ไม่มีการเปลี่ยนแปลงหลังจากสร้างข้อเสนอ แล้วจึงลงมือทำจริง

Steinberger สุ่มตรวจสอบบันทึกการปิดหลายร้อยรายการด้วยตนเอง ผลลัพธ์: ความแม่นยำแทบไม่มีข้อผิดพลาด

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

**

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

**

README คือ Dashboard

การออกแบบที่น่าทึ่งที่สุดของ ClawSweeper อาจไม่ใช่ตรรกะการปิด แต่เป็น ‘ระบบตรวจสอบ’ ของมัน

วิธีดั้งเดิมคืออะไร?

ตั้งค่า Grafana กำหนดค่า Prometheus สร้าง Dashboard หลังบ้านที่สวยงาม

Steinberger กล่าวว่า: ไม่จำเป็น README คือ Dashboard ของฉัน

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

ระหว่างการทำงาน ClawSweeper จะอัปเดตไฟล์ README.md ของคลังแบบเรียลไทม์

มี Issue ที่เปิดอยู่กี่รายการ ตรวจสอบไปแล้วกี่รายการในรอบนี้ เสนอให้ปิดกี่รายการ ปิดจริงกี่รายการ GitHub จำกัดอัตราถึงขั้นไหน – ทั้งหมดแสดงอย่างชัดเจนในรูปแบบตารางใน README

ใครก็ตามที่เปิดหน้าแรกของคลัง GitHub จะเห็นว่าผู้พิพากษา AI กำลังทำอะไรอยู่ในขณะนี้

มันทำให้กระบวนการทำความสะอาดทั้งหมดโปร่งใสอย่างสมบูรณ์ เปิดเผยอย่างสมบูรณ์ และตรวจสอบได้อย่างสมบูรณ์

ผู้มีส่วนร่วมที่สงสัยว่า ‘AI ปิด Issue ของฉันโดยพลการ’ สามารถคลิกที่ items/71514.md ที่เกี่ยวข้องเพื่อดูเหตุผลการตรวจสอบทั้งหมดที่ Codex ให้ไว้

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

เมื่อ AI เริ่ม ‘รักษาตัวเอง’

คุณอาจคิดว่า นี่ไม่ใช่แค่สคริปต์อัตโนมัติเหรอ?

ขยายมุมมองให้ใหญ่ขึ้น

บน GitHub มีคลังมากกว่า 400 ล้านคลัง ซึ่งโครงการโอเพนซอร์สขนาดใหญ่ที่ยังคงดำเนินอยู่เกือบทั้งหมดเผชิญกับฝันร้ายเดียวกัน – สุสาน Issue

Kubernetes มี Issue ที่ปิดแล้วกว่า 40,000 รายการ รายชื่ออีเมลของ Linux Kernel ก็มีจำนวนมหาศาล

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

เวลาของผู้ดูแลเป็นหนึ่งในทรัพยากรที่หายากที่สุดในโลก และเวลาจำนวนมากถูกเสียไปกับงานเครื่องจักรอย่าง ‘การตัดสินว่า Issue นี้ยังจำเป็นต้องมีอยู่หรือไม่’

ความสำคัญของ ClawSweeper คือ เป็นครั้งแรกที่มันพิสูจน์ในคลังจริงระดับล้าน Stars ว่าการใช้ AI agent ในการคัดแยก Issue ขนาดใหญ่ อนุรักษ์นิยม และตรวจสอบได้นั้น เป็นไปได้อย่างสมบูรณ์

การตรวจสอบเชิงลึกและการปิด Issue กว่า 5,000 รายการ ใช้เงินทั้งหมดไม่ถึง 1,000 ดอลลาร์สหรัฐ คิดเป็นต้นทุนประมาณ 0.2 ดอลลาร์สหรัฐต่อ Issue

และมันทำงาน 7×24 ชั่วโมงโดยไม่หยุดพัก ไม่บ่น และไม่มีอารมณ์

สิ่งเดียวที่ทำให้มันช้าลงคือข้อจำกัดอัตรา API ของ GitHub

ในแง่หนึ่ง นี่เป็นจุดเริ่มต้นของโครงการโอเพนซอร์สที่ก้าวจาก ‘การบำรุงรักษาโดยมนุษย์’ ไปสู่ ‘การรักษาตัวเอง’

ในอนาคต คลังโอเพนซอร์สขนาดใหญ่ทุกแห่งอาจมีบอทที่คล้าย ClawSweeper ทำงาน ตรวจสอบคุณภาพของ Issue อย่างต่อเนื่อง กรองสัญญาณรบกวนอัตโนมัติ ให้ผู้ดูแลที่เป็นมนุษย์มุ่งเน้นเฉพาะปัญหาที่มีมูลค่าสูงซึ่งต้องการการตัดสินใจของมนุษย์จริงๆ

**

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

**

Rate Limit คือแนวป้องกันสุดท้าย

มีรายละเอียดหนึ่งที่ควรให้ความสนใจเป็นพิเศษ

บน Dashboard ของ ClawSweeper มีข้อความชัดเจน: 「State: Apply throttled」 – การจำกัดอัตรา API ของ GitHub ทำให้มันช้าลง

AI กวาดขยะ: 50 ตัวอย่าง Codex ทำงานขนาน 7×24 ชั่วโมง ปิด Issue ไร้ประโยชน์กว่า 5000 รายการต่อวัน การบำรุงรักษาโอเพนซอร์สเข้าสู่ยุค AI ซ่อมแซมตัวเอง

ความเร็วในการสแกนแบบขนานของ 50 ตัวอย่าง Codex นั้นเร็วเกินไป จนเซิร์ฟเวอร์ GitHub เริ่มพูดว่า ‘ช้าลงหน่อย ฉันตามไม่ทัน’

ในการพัฒนาซอฟต์แวร์แบบดั้งเดิม การจำกัดอัตรามีไว้เพื่อป้องกันการโจมตี

แต่ตอนนี้ มันกลายเป็นอุปสรรคเดียวต่อประสิทธิภาพการทำงานของ AI

ไม่ใช่เพราะโมเดลไม่ฉลาดพอ ไม่ใช่เพราะการตัดสินใจไม่แม่นยำ แต่เป็นเพราะโครงสร้างพื้นฐานตามความเร็วของ AI ไม่ทัน

นี่คงเป็นภาพสะท้อนที่แท้จริงที่สุดของปี 2026: ท่อส่ง跟不上 AI

ข้อมูลอ้างอิง:
https://x.com/steipete/status/2047982647264059734
https://github.com/openclaw/clawsweeper


⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง

☕ สนับสนุนค่ากาแฟทีมงาน

หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay

PromptPay QR
SCAN TO PAY WITH ANY BANK

本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/32169

Like (0)
Previous 2 hours ago
Next 2 hours ago

相关推荐