OpenSeeker: ตัวแทนการค้นหาเชิงลึกแบบโอเพนซอร์สแรกที่ฝึกด้วยข้อมูลเต็มจำนวน ทีมวิชาการล้วนๆ ทำลายการผูกขาดข้อมูลของบริษัทใหญ่

ตลอดมา วงการเอเจนต์ค้นหาลึก (Search Agent) ประสิทธิภาพสูง ดูเหมือนถูกกั้นด้วย “คูข้อมูล” แม้จะมีโมเดลโอเพนซอร์สมากมาย แต่ ข้อมูลฝึกอบรมคุณภาพสูง ที่กำหนดขีดจำกัดความสามารถของเอเจนต์ โดยเฉพาะข้อมูลที่มีเส้นทางการตัดสินใจที่ซับซ้อนและการเรียกใช้เครื่องมือ กลับถูกควบคุมอย่างแน่นหนาโดยบริษัทเทคโนโลยีขนาดใหญ่ สถานการณ์การขาดแคลนข้อมูลนี้ จำกัดการสร้างสรรค์และการสำรวจของชุมชนวิจัยที่กว้างขึ้นในสาขานี้อย่างรุนแรง

วันนี้ สถานะปัจจุบันนี้ถูกทำลายโดยทีมวิจัยจากมหาวิทยาลัยเซี่ยงไฮ้เจียวทง พวกเขาเปิดตัว OpenSeeker ซึ่งเป็นเอเจนต์ค้นหาลึกล้ำสมัยตัวแรกที่สร้างโดยทีมวิชาการล้วนๆ และ เปิดเผยโมเดลและข้อมูลฝึกอบรมทั้งหมด 100% แบบโอเพนซอร์สอย่างสมบูรณ์

OpenSeeker พิสูจน์ว่า โดยไม่ต้องพึ่งพาการใช้พลังคำนวณมหาศาล แต่ด้วย การสังเคราะห์ข้อมูลคุณภาพสูงอย่างยิ่ง วงการวิชาการก็สามารถสร้างผลงานชั้นนำได้เช่นกัน ในขนาดที่เท่ากัน (ประมาณ 30 พันล้านพารามิเตอร์, โครงสร้าง ReAct ล้วน) OpenSeeker ใช้เพียง ตัวอย่างสังเคราะห์ 11.7k ตัวอย่างสำหรับการปรับแต่งภายใต้การดูแล (SFT) รอบเดียว ก็สามารถทำคะแนนนำ (SOTA) ได้ในหลายบัญชีการประเมินอำนาจ

ทรัพยากรโครงการ
* ที่เก็บ GitHub: https://github.com/rui-ye/OpenSeeker
* ข้อมูลฝึกอบรมทั้งหมด: https://huggingface.co/datasets/OpenSeeker/OpenSeeker-v1-Data
* น้ำหนักโมเดล: https://huggingface.co/OpenSeeker/OpenSeeker-v1-30B-SFT
* เอกสารวิชาการ (Huggingface): https://huggingface.co/papers/2603.15594
* เอกสารวิชาการ (arXiv): https://arxiv.org/pdf/2603.15594

สรุปไฮไลท์หลัก

  • ทำลายการผูกขาดข้อมูล: พัฒนาโดยทีมวิชาการล้วนๆ เปิดเผยข้อมูลฝึกอบรมทั้งหมด (คู่คำถาม-คำตอบและเส้นทางการโต้ตอบสมบูรณ์) และโมเดลแบบโอเพนซอร์ส สร้างพื้นฐานวิจัยคุณภาพสูงให้ชุมชน ลดอุปสรรคในการสำรวจเอเจนต์ค้นหารุ่นต่อไป
  • ประสิทธิภาพนำข้ามบัญชี: บนบัญชี BrowseComp-ZH ทำคะแนนได้ 48.4% แซงหน้าโมเดลของบริษัทใหญ่ที่ใช้แผนการฝึกซับซ้อนหลายขั้นตอน (การฝึกล่วงหน้าต่อเนื่อง, การปรับแต่งภายใต้การดูแล และการเรียนรู้เสริม) (46.7%) ในกลุ่มโมเดล SFT ล้วนขนาดประมาณ 30 พันล้านพารามิเตอร์ ได้คะแนนดีที่สุดในหลายบัญชี (BrowseComp 29.5 / xbench 74.0 / WideSearch 59.4)

เปิดเผยเทคโนโลยีหลัก: แผนการสังเคราะห์คุณภาพสูงที่ก้าวข้ามปัญหาข้อมูล

หัวใจของการฝึกเอเจนต์ค้นหาลึกอย่างมีประสิทธิภาพ อยู่ที่การแก้ปัญหาสำคัญสองประการ:
1. สร้างงานถามตอบที่ยากพอ เพื่อกระตุ้นความสามารถในการโต้ตอบหลายรอบที่ซับซ้อนของโมเดล “การให้เหตุผล → การเรียกใช้เครื่องมือ → การประมวลผลผลตอบรับ”
2. สร้างเส้นทางการแก้ปัญหาคุณภาพสูงด้วยวิธีที่เสถียรและทำซ้ำได้ เพื่อให้มั่นใจว่าโมเดลเรียนรู้กลยุทธ์ที่มีความสามารถในการปรับใช้ทั่วไป ไม่ใช่รูปแบบความสำเร็จโดยบังเอิญ

เพื่อจุดประสงค์นี้ OpenSeeker เสนอวิธีการ “การสร้างคำถาม-คำตอบโดยยึดกับข้อเท็จจริงจากโครงสร้างเว็บเพจจริง” และ “การสังเคราะห์เส้นทางแบบลดสัญญาณรบกวนแบบไดนามิก”

1. การสร้างคำถาม-คำตอบโดยยึดกับข้อเท็จจริง: สร้างปัญหาข้ามขั้นตอนที่ยากจากกราฟเว็บเพจจริง
OpenSeeker: ตัวแทนการค้นหาเชิงลึกแบบโอเพนซอร์สแรกที่ฝึกด้วยข้อมูลเต็มจำนวน ทีมวิชาการล้วนๆ ทำลายการผูกขาดข้อมูลของบริษัทใหญ่
เพื่อหลีกเลี่ยงไม่ให้โมเดล “ใช้ทางลัด” ผ่านการจับคู่รูปแบบง่ายๆ OpenSeeker ใช้การวิเคราะห์ย้อนกลับจากโครงสร้างกราฟลิงก์ของเว็บเพจจริงจำนวนมหาศาลโดยตรง
* เริ่มจากหน้าเริ่มต้นแบบสุ่มเพื่อขยายโครงสร้างเครือข่าย หากลุ่มข้อมูลที่เชื่อมโยงกันและแยกกราฟย่อยของเอนทิตี
* นำกลไกการทำให้เอนทิตีสับสน มาใช้ ทำให้เอนทิตีเฉพาะเจาะจงคลุมเครือ เปลี่ยนข้อเท็จจริงง่ายๆ เป็นปริศนาซับซ้อนที่ต้องการการให้เหตุผลหลายขั้นตอน
วิธีนี้รับประกันความจริงของข้อมูลและความยากในการให้เหตุผลสูง บังคับโมเดลให้ทำการนำทางหลายขั้นตอนและคิดอย่างลึกซึ้งจากโครงสร้าง

2. การสังเคราะห์เส้นทางแบบลดสัญญาณรบกวนแบบไดนามิก: เสริมสร้างความสามารถในการดึงข้อมูลหลักในสภาพแวดล้อมที่มีสัญญาณรบกวน
OpenSeeker: ตัวแทนการค้นหาเชิงลึกแบบโอเพนซอร์สแรกที่ฝึกด้วยข้อมูลเต็มจำนวน ทีมวิชาการล้วนๆ ทำลายการผูกขาดข้อมูลของบริษัทใหญ่
สภาพแวดล้อมเว็บเพจจริงเต็มไปด้วยสัญญาณรบกวนจากข้อมูลที่ไม่เกี่ยวข้อง เพื่อสังเคราะห์เส้นทางการกระทำคุณภาพสูง OpenSeeker ออกแบบชุดกลยุทธ์ “การลดสัญญาณรบกวนบริบทแบบไดนามิกที่ไม่สมมาตร”:
* ขั้นตอนการสร้าง (โมเดลครู): นำการสรุปย้อนหลังมาใช้ บีบอัดผลลัพธ์เครื่องมือจากขั้นตอนก่อนหน้าที่มีสัญญาณรบกวนเป็นบทสรุปที่ชัดเจน ทำให้โมเดลครูสร้างการให้เหตุผลและการเรียกใช้เครื่องมือระดับผู้เชี่ยวชาญในบริบทที่ไม่มีสัญญาณรบกวน
* ขั้นตอนการฝึก (โมเดลนักเรียน): เมื่อฝึกป้อนผลลัพธ์เครื่องมือดั้งเดิมที่มีสัญญาณรบกวนและไม่ผ่านการบีบอัด บังคับให้โมเดลเรียนรู้ที่จะคาดการณ์การตัดสินใจคุณภาพสูงของโมเดลครู
วิธีนี้ทำให้ OpenSeeker เรียนรู้ความสามารถหลักในการดึงข้อมูลและลดสัญญาณรบกวนจากเว็บเพจจริงที่มีสัญญาณรบกวนได้อย่างมีประสิทธิภาพ

ผลการทดลอง: การท้าทายข้ามระดับด้วยข้อมูล 11.7k

เทียบเคียงโมเดลที่ใช้ทรัพยากรเข้มข้นของบริษัทใหญ่: ใช้ตัวอย่างเพียง 11.7k ตัวอย่างสำหรับ SFT รอบเดียว OpenSeeker ก็แสดงความสามารถแข่งขันที่แข็งแกร่ง บนบัญชี BrowseComp-ZH คะแนน 48.4% ของมันแซงหน้าโมเดลของบริษัทใหญ่ที่ผ่านการฝึกหลายขั้นตอนที่ซับซ้อน (46.7%)
OpenSeeker: ตัวแทนการค้นหาเชิงลึกแบบโอเพนซอร์สแรกที่ฝึกด้วยข้อมูลเต็มจำนวน ทีมวิชาการล้วนๆ ทำลายการผูกขาดข้อมูลของบริษัทใหญ่

ประสิทธิภาพนำในโครงสร้าง SFT ล้วน + ReAct: ในการเปรียบเทียบเอเจนต์ ReAct ที่ฝึกด้วย SFT เช่นเดียวกัน OpenSeeker ด้วยข้อมูล 11.7k ได้คะแนนดีที่สุดในสี่บัญชีหลัก ได้แก่ BrowseComp, BrowseComp-ZH, xbench และ WideSearch-EN นำหน้าโมเดลโอเพนซอร์สประเภทเดียวกันอื่นๆ อย่างชัดเจน
OpenSeeker: ตัวแทนการค้นหาเชิงลึกแบบโอเพนซอร์สแรกที่ฝึกด้วยข้อมูลเต็มจำนวน ทีมวิชาการล้วนๆ ทำลายการผูกขาดข้อมูลของบริษัทใหญ่

เน้นคุณภาพข้อมูลที่สูงมาก: ในกรณีที่ปริมาณข้อมูลที่ควบคุมได้ (ระดับ 10k-15k) เทียบเคียงกันได้ คุณภาพข้อมูลของ OpenSeeker ดีกว่าชุดรวมของโซลูชันโอเพนซอร์สประเภทเดียวกันอื่นๆ อย่างชัดเจน ตัวชี้วัดต่างๆ ยังคงได้เปรียบอย่างมีนัยสำคัญ
OpenSeeker: ตัวแทนการค้นหาเชิงลึกแบบโอเพนซอร์สแรกที่ฝึกด้วยข้อมูลเต็มจำนวน ทีมวิชาการล้วนๆ ทำลายการผูกขาดข้อมูลของบริษัทใหญ่

ความยากของข้อมูลสูงกว่ามาตรฐานอย่างมาก: การวิเคราะห์เชิงปริมาณแสดงให้เห็นว่าข้อมูลสังเคราะห์มีความยากสูงมาก ตัวอย่างเช่น เส้นทางข้อมูลภาษาจีนสังเคราะห์แต่ละเส้นทางโดยเฉลี่ยต้องการการเรียกใช้เครื่องมือ 46.35 ครั้ง ความยาวเฉลี่ยสูงถึง 76.1k โทเค็น สูงกว่ามาตรฐาน BrowseComp-ZH (26.98 ครั้ง, 15.1k โทเค็น) อย่างมาก ความยากของข้อมูลภาษาอังกฤษก็เทียบเท่ากับมาตรฐานชั้นนำเช่นกัน
OpenSeeker: ตัวแทนการค้นหาเชิงลึกแบบโอเพนซอร์สแรกที่ฝึกด้วยข้อมูลเต็มจำนวน ทีมวิชาการล้วนๆ ทำลายการผูกขาดข้อมูลของบริษัทใหญ่

เสียงตอบรับจากชุมชน: การสนับสนุนโอเพนซอร์สพื้นฐานที่ขับเคลื่อนการพัฒนาสาขา

การเปิดตัว OpenSeeker ก่อให้เกิดการอภิปรายอย่างกระตือรือร้นในชุมชนวิชาการและโอเพนซอร์สต่างประเทศ ถือเป็นก้าวสำคัญในการทำลายกำแพงและขับเคลื่อนการพัฒนาสาขาให้โปร่งใส
OpenSeeker: ตัวแทนการค้นหาเชิงลึกแบบโอเพนซอร์สแรกที่ฝึกด้วยข้อมูลเต็มจำนวน ทีมวิชาการล้วนๆ ทำลายการผูกขาดข้อมูลของบริษัทใหญ่
การประเมินของชุมชนมุ่งเน้นไปที่:
* กำหนดขอบเขตนวัตกรรมที่ชัดเจน: การเปิดเผยข้อมูลทั้งหมดแบบโอเพนซอร์สทำให้นักวิจัยสามารถแยกแยะได้อย่างชัดเจนว่าการเพิ่มประสิทธิภาพเกิดจากนวัตกรรมวิธีการ หรือพึ่งพาผลประโยชน์จากข้อมูลปิด
* ทำลายการผูกขาดข้อมูล: นักวิจัยสามารถสร้างเอเจนต์การให้เหตุผลหลายขั้นตอนได้อย่างอิสระในสภาพแวดล้อมที่ไม่มีข้อจำกัดจาก “ผู้เฝ้าประตูข้อมูล”
* เรียกร้องความโปร่งใส: เสียงเช่น “ในที่สุด AI เอเจนต์ก็มาถึงความโปร่งใสของข้อมูล”, “โอเพนซอร์สชนะอีกครั้ง” สะท้อนความคาดหวังของชุมชนต่อการทำงานร่วมกันแบบเปิด

OpenSeeker ไม่เพียงเป็นโมเดลที่มีประสิทธิภาพนำหน้า แต่ยังเป็นฐานที่มั่นคงที่เสริมพลังให้ทั้งวงการวิชาการในการสำรวจเอเจนต์ค้นหารุ่นต่อไป

OpenSeeker ในฐานะเอเจนต์ค้นหาลึกตัวแรกที่สร้างโดยทีมวิชาการล้วนๆ และเปิดเผยโมเดลและข้อมูลฝึกอบรมทั้งหมดแบบโอเพนซอร์สอย่างสมบูรณ์ ได้ทำลายกำแพงข้อมูลที่สร้างโดยบริษัทเทคโนโลยีขนาดใหญ่มายาวนานตั้งแต่รากฐาน มันสร้างพื้นฐานวิจัยคุณภาพสูงที่ชุมชนวิทยาศาสตร์สามารถใช้งานได้โดยตรง ทำซ้ำได้ และขยายได้ให้กับชุมชนวิจัย การดำเนินการโอเพนซอร์สนี้ลดอุปสรรคการวิจัยเอเจนต์ค้นหาล้ำสมัยลงอย่างมีนัยสำคัญ ทำให้นักวิจัยสามารถมุ่งเน้นนวัตกรรมของวิธีการเองมากขึ้น โดยไม่ต้องถูกจำกัดด้วยความยากในการเข้าถึงข้อมูล

แนะนำผู้เขียน
ผู้เขียนร่วมคนแรกของบทความนี้คือ Du Yuwen และ Ye Rui นักศึกษาปริญญาเอกของมหาวิทยาลัยเซี่ยงไฮ้เจียวทง โดย Ye Rui เป็นผู้รับผิดชอบโครงการ อาจารย์ที่ปรึกษาคือ Professor Chen Siheng จากคณะปัญญาประดิษฐ์ มหาวิทยาลัยเซี่ยงไฮ้เจียวทง ทิศทางการวิจัยหลักคือด้าน AI เอเจนต์ และวิทยาศาสตร์อัจฉริยะ เป็นต้น


⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง

☕ สนับสนุนค่ากาแฟทีมงาน

หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay

PromptPay QR
SCAN TO PAY WITH ANY BANK

本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/28078

Like (0)
Previous 7 hours ago
Next 7 hours ago

相关推荐