Karpathy เปิดตัวโปรเจกต์โอเพนซอร์ส autoresearch: ใช้โค้ดเพียง 630 บรรทัดเพื่อสร้าง AI ที่พัฒนางานวิจัยได้ด้วยตัวเอง
นักวิจัยชื่อดังในวงการ AI อย่าง Karpathy ได้เปิดตัวโปรเจกต์โอเพนซอร์สใหม่ล่าสุด autoresearch ซึ่งเป็นระบบวนลูปวิจัย AI ที่สามารถวิวัฒนาการได้ด้วยตัวเอง เป้าหมายหลักคือทำให้เอเจนต์อัจฉริยะสามารถสำรวจงานวิจัยได้อย่างอิสระทั้งหมด: ผู้ใช้เพียงแค่กำหนดคำสั่งวิจัยในเอกสาร Markdown จากนั้นกระบวนการแก้ไขโค้ด รันการทดลอง ประเมินผล และปรับปรุงการตัดสินใจจะถูกดำเนินการโดย AI อย่างอัตโนมัติทั้งหมด

เฟรมเวิร์กของโปรเจกต์นี้เรียบง่ายมาก โดยมีโค้ดหลักเพียง630 บรรทัด และสามารถรันได้ด้วยGPU เพียงตัวเดียว ระบบทำงานในรอบการทดลองประมาณ5 นาที ต่อรอบ และเมื่อจบแต่ละรอบจะตัดสินใจโดยอัตโนมัติว่าจะเก็บหรือทิ้งการเปลี่ยนแปลงโค้ดตามผลการตรวจสอบ เพื่อให้เกิดการวนซ้ำและปรับปรุงตัวเองอย่างต่อเนื่อง
Karpathy มองไปข้างหน้าว่า ในอนาคตอาจมีเอเจนต์อัจฉริยะแบบนี้หลายพันตัวทำงานร่วมกันแบบอะซิงโครนัสบนสาขาย่อยจำนวนมาก ซึ่งจะหลุดพ้นจากข้อจำกัดของสาขาหลัก (master) แบบเดิมๆ และช่วยยกระดับประสิทธิภาพการวิจัยผ่านปัญญาของกลุ่ม
ภายในเวลาไม่ถึงสองวันหลังจากเปิดตัว โปรเจกต์นี้ได้รับดาว (Star) มากกว่า 9.5k ดวง บน GitHub

โพสต์แนะนำโปรเจกต์บนแพลตฟอร์ม X ก็ได้รับการดูมากกว่า 5.8 ล้านครั้ง เช่นกัน

Tobi Lütke CEO ของ Shopify หลังจากเห็นโปรเจกต์แล้วแสดงความประทับใจ โดยกล่าวว่า “มันบ้าจริงๆ”

วงจรการทดลองอัตโนมัติ 5 นาที
แนวคิดหลักของ autoresearch คือทำให้วงจร “ลอง-ประเมิน” ในการวิจัย AI เป็นไปโดยอัตโนมัติ ระบบจะแก้ไขโค้ดการฝึก รันการทดลองระยะสั้น และตัดสินใจทิศทางต่อไปโดยอัตโนมัติตามตัวชี้วัดการประเมิน
โปรเจกต์นี้ใช้การฝึกโมเดล nanochat เป็นพื้นฐาน และกำหนดกฎหลักสองข้อ:
1. เวลาในการฝึกล้วนๆ ของแต่ละรอบการทดลองถูกกำหนดไว้ที่ 5 นาทีโดยเคร่งครัด เพื่อให้มั่นใจว่ามาตรฐานการประเมินระหว่างการเปลี่ยนแปลงต่างๆ จะสม่ำเสมอ
2. ใช้เฉพาะค่าบิตต่อไบต์บนชุดตรวจสอบ (val_bpb) เป็นตัวชี้วัดการประเมิน ค่านี้ยิ่งต่ำหมายถึงประสิทธิภาพของโมเดลยิ่งดี และไม่ขึ้นกับขนาดของโมเดล
ด้วยการออกแบบดังกล่าว กระบวนการวิจัยอัตโนมัติทั้งหมดถูกย่อให้อยู่ในเวอร์ชันที่เบาและรันได้ด้วย GPU เดียว ฐานโค้ดหลักประกอบด้วยไฟล์หลักสามไฟล์:
- prepare.py: กำหนดค่าคงที่ที่จำเป็นสำหรับการฝึก (เช่น มิติของโมเดล) รับผิดชอบดาวน์โหลดข้อมูลดิบและเตรียมโทเค็นไนเซอร์ และจัดเตรียมฟังก์ชันเครื่องมือที่จำเป็นสำหรับการทดลอง ไฟล์นี้จะไม่เปลี่ยนแปลงในระหว่างกระบวนการทดลอง

- train.py: ประกอบด้วยสถาปัตยกรรมโมเดล GPT ที่สมบูรณ์ ตัวปรับให้เหมาะสม (optimizer) และตรรกะของวงจรการฝึก นี่คือไฟล์เดียวที่ AI สามารถแก้ไขได้ ซึ่งเปรียบเสมือน “สมุดบันทึกการทดลอง” ของมัน AI สามารถปรับพารามิเตอร์ต่างๆ เช่น จำนวนชั้น ขนาดแบทช์ อัตราการเรียนรู้ ได้ที่นี่

- program.md: ไฟล์ข้อความล้วนที่เขียนและดูแลโดยมนุษย์ ใช้สำหรับออกคำสั่งวิจัยให้กับ AI กำหนดกฎการทดลอง และให้ความรู้พื้นฐาน โดยทั่วไปแล้ว การเปลี่ยนทิศทางการวิจัยมักจะทำได้เพียงอัปเดตไฟล์นี้

ขั้นตอนการทำงานมีดังนี้:
1. AI อ่านคำสั่งจาก program.md
2. ทำการแก้ไข train.py อย่างเจาะจง (โดยปกติจะแก้ไขเพียง 1-2 จุดต่อครั้ง)
3. เริ่มการฝึกที่เข้มงวดเป็นเวลา 5 นาที
4. เมื่อการฝึกสิ้นสุดลง จะให้คะแนนการเปลี่ยนแปลงครั้งนี้ตามตัวชี้วัด val_bpb
5. ตัดสินใจ: หากคะแนนดีขึ้น (val_bpb ลดลง) จะเก็บการเปลี่ยนแปลงนี้และใช้เป็นจุดเริ่มต้นของการทดลองรอบต่อไป หากคะแนนแย่ลง จะยกเลิกการเปลี่ยนแปลง ย้อนกลับไปยังเวอร์ชันที่ดีที่สุดก่อนหน้า และเริ่มสำรวจใหม่
คำนวณจากรอบละ 5 นาที AI สามารถทำการทดลองได้มากกว่า 10 ชุดต่อชั่วโมง ซึ่งมีประสิทธิภาพในการลองผิดลองถูกและการวนซ้ำที่สูงกว่าการปรับด้วยมือมาก

ภาพด้านบนแสดงกระบวนการสำรวจอัตโนมัติเกือบ 250 รอบ ในที่สุด AI คัดกรองและเก็บการปรับปรุงที่มีประสิทธิภาพ 29 ครั้ง จุดสีเทาในภาพแสดงถึงการทดลองที่ถูกตัดสินว่าไม่มีประสิทธิภาพและถูกทิ้ง ซึ่งก็ให้ประสบการณ์ที่มีค่าในการ “หลีกเลี่ยงหลุมพราง” สำหรับกระบวนการสำรวจเช่นกัน
วิสัยทัศน์อนาคต: จำลองชุมชนนักวิจัยระดับปริญญาเอกแบบกระจายศูนย์
หลังจากเปิดตัวโปรเจกต์ Karpathy ได้อธิบายวิสัยทัศน์ระยะยาวของเขาต่อไป เขาอ้างอิงแนวคิดจากโปรเจกต์ SETI@home (การค้นหาอารยธรรมนอกโลก) ที่มหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ริเริ่มขึ้นในปี 1999 และชี้ให้เห็นว่าเป้าหมายสูงสุดของ autoresearch ไม่ใช่แค่การจำลองงานของนักวิจัยคนเดียว แต่คือการจำลองชุมชนนักวิจัยระดับปริญญาเอกทั้งหมดที่ทำงานร่วมกันแบบกระจายศูนย์และอะซิงโครนัส

SETI@home รวบรวมพลังการคำนวณที่ว่างจากคอมพิวเตอร์ของอาสาสมัครทั่วโลกเพื่อวิเคราะห์ข้อมูลจากกล้องโทรทรรศน์วิทยุร่วมกัน ซึ่งเป็นผู้บุกเบิกการคำนวณแบบกระจายศูนย์ขนาดใหญ่ Karpathy เห็นว่า เอเจนต์วิจัยในปัจจุบันส่วนใหญ่ยังคงถูกจำกัดด้วยเส้นทางการพัฒนาที่เป็นเส้นตรงและเดี่ยว ซึ่งจำกัดศักยภาพของมัน
รูปแบบในอุดมคติของเขาคือ ให้ฐานโค้ดเริ่มต้นเหมือนเมล็ดพันธุ์ ที่แตกแขนงออกไปในทิศทางการวิจัยและแพลตฟอร์มการคำนวณที่แตกต่างกันนับไม่ถ้วน ก่อตัวเป็นเครือข่ายการสำรวจแบบกลุ่มแบบกระจายศูนย์ คล้ายกับ SETI@home
Karpathy ชี้ให้เห็นว่าการสำรวจแบบนี้ถูกจำกัดด้วยปรัชญาการออกแบบของเครื่องมือทำงานร่วมกันหลักในปัจจุบัน ซึ่งเป็นตัวแทนโดย Git/GitHub นั่นคือ การออกแบบโดยปริยายว่ามี “สาขาหลัก” ที่มีอำนาจ และจุดหมายสุดท้ายของสาขาอื่นๆ ทั้งหมดคือการรวมกลับเข้าสู่ลำต้น โมเดล “การค้นหาคำตอบที่ถูกต้องเพียงหนึ่งเดียว” แบบนี้ ขัดแย้งโดยพื้นฐานกับการวิจัยอัตโนมัติที่ต้องการการสำรวจแบบไม่เป็นเส้นตรงจำนวนมหาศาล

เพื่อสำรวจเส้นทางใหม่ เขาได้ทำการทดลองบางอย่าง: หลังจากให้เอเจนต์ทำงานข้ามคืนแล้ว ให้เผยแพร่สรุปการวิจัยในส่วน GitHub Discussion หรือส่งการเปลี่ยนแปลงโค้ดที่แม่นยำผ่าน Pull Request (PR) PR เหล่านี้อาจไม่จำเป็นต้องถูกรวมเข้าด้วยกันเลย แต่พวกมันถูกบันทึกและสะสมอย่างมีประสิทธิภาพในฐานะสาขาการวิจัยอิสระ เอเจนต์สามารถอ่านการอภิปรายและบันทึกที่มีอยู่เพื่อหาแรงบันดาลใจ แล้วนำการค้นพบใหม่กลับไปยังชุมชน
โดยพื้นฐานแล้ว นี่มุ่งหมายที่จะสำรวจวิธีการทำงานร่วมกันที่เหมาะสมกว่าสำหรับการผลิตผลและลองผิดลองถูกความถี่สูงของ AI เพื่อเปลี่ยนกระบวนการวิจัยจากตรรกะแบบดั้งเดิมของ “การเขียนซอฟต์แวร์” ไปสู่ตรรกะที่ยืดหยุ่นกว่าของ “การสะสมประสบการณ์”
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/24988
