ความปั่นป่วนที่พัดผ่านตลาด ได้ดึงเอาการโต้เถียงทางวิชาการออกมาโดยไม่คาดคิด
เย็นวันศุกร์นี้ งานวิจัยของทีมวิจัยกูเกิลตกอยู่ภายใต้ข้อกล่าวหาการประพฤติมิชอบทางวิชาการ กลายเป็นจุดสนใจของชุมชน AI เกา เจี้ยนหยาง นักวิจัยหลังปริญญาเอกที่สถาบันเทคโนโลยีแห่งสหพันธ์สวิสในซูริก (ETH Zurich) ได้โพสต์ข้อความชี้ให้เห็นว่า งานวิจัยของทีมวิจัยกูเกิลที่มีชื่อว่า “TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate” มีปัญหาอย่างรุนแรงในการอธิบายอัลกอริธึมการหาปริมาณเวกเตอร์ RaBitQ ที่มีอยู่แล้ว การเปรียบเทียบผลลัพธ์ทางทฤษฎี และการเปรียบเทียบการทดลอง ที่สำคัญกว่านั้นคือ กล่าวกันว่าข้อบกพร่องที่เกี่ยวข้องได้ถูกชี้แจงอย่างชัดเจนให้ผู้เขียนทราบก่อนส่งบทความแล้ว แต่กลับถูกเพิกเฉยอย่างจงใจ

TurboQuant ที่ก่อให้เกิดความปั่นป่วนในตลาด
งานวิจัย TurboQuant ของกูเกิลมีอิทธิพลเกินกว่าวงการวิชาการล้วนๆ ในช่วงไม่นานมานี้ บทความที่ได้รับการตีพิมพ์ในงานประชุมวิชาการระดับสูง ICLR 2026 นี้ ได้เสนออัลกอริธึมการบีบอัดที่อ้างว่าสามารถลดการใช้หน่วยความจำของแคช KV ในการอนุมานโมเดลภาษาขนาดใหญ่ได้อย่างน้อย 6 เท่า เพิ่มความเร็วได้สูงสุดถึง 8 เท่า และยังคงความแม่นยำไว้โดยไม่สูญเสีย
TurboQuant ถูกเปิดเผยครั้งแรกบนแพลตฟอร์ม preprint arXiv ในเดือนเมษายน 2025 และได้รับการตีพิมพ์ใน ICLR 2026 ในเดือนมกราคม 2026 ด้วยการแนะนำพิเศษบนบล็อกวิจัยของกูเกิลในวันที่ 24 มีนาคม 2026 เทคโนโลยีนี้ได้รับความสนใจอย่างมาก

(โพสต์โปรโมตของกูเกิลบนแพลตฟอร์ม X มีผู้เข้าชมนับสิบล้านครั้ง)
ในกระบวนการอนุมานโมเดลขนาดใหญ่ ทุกครั้งที่สร้างคำใหม่จำเป็นต้องทบทวนประวัติการสนทนาทั้งหมด (บริบท) ซึ่งข้อมูลส่วนนี้ถูกเก็บไว้ในแคช KV ดังนั้น การใช้หน่วยความจำของแคช KV มักกลายเป็นข้อจำกัดหลักที่จำกัดความเร็วและต้นทุนในการอนุมานโมเดลขนาดใหญ่ วิธีการบีบอัดแบบไม่สูญเสียประสิทธิภาพสูงที่ TurboQuant เสนอมีผลลัพธ์ที่โดดเด่น เนื่องจากสามารถลดทรัพยากรฮาร์ดแวร์ที่จำเป็นในการรันโมเดลขนาดใหญ่ได้อย่างมาก จึงสั่นคลอนความคาดหวังของตลาดต่อความต้องการชิปหน่วยความจำที่เพิ่มขึ้นอย่างรวดเร็วโดยตรง
ในวันที่กูเกิลเผยแพร่บล็อก หุ้นของบริษัทที่เกี่ยวข้องกับหน่วยความจำหลายแห่งในสหรัฐอเมริกาตกเป็นกลุ่ม ทำให้มูลค่าตลาดหายไปกว่า 900 พันล้านดอลลาร์ในวันเดียว

หลักการของเทคโนโลยีที่ได้รับการเผยแพร่อย่างกว้างขวางนี้คืออะไร? พูดสั้นๆ คือ มุ่งหมายที่จะแก้ปัญหาหลักของการบริโภคหน่วยความจำผ่านชุดวิธีการที่ประณีต
TurboQuant บรรลุเป้าหมายผ่านการบีบอัดสองขั้นตอน: ขั้นตอนแรกใช้กลไก “การหมุนแบบสุ่ม” และ PolarQuant เพื่อแมปเวกเตอร์มิติสูงไปยังพิกัดเชิงขั้ว บีบอัดเบื้องต้น; ขั้นตอนที่สองใช้การแปลง Johnson-Lindenstrauss แบบหาปริมาณ (QJL) โดยใช้พื้นที่เพียง 1 บิตเพื่อแก้ไขความคลาดเคลื่อนในการคำนวณผลคูณภายใน
อย่างไรก็ตาม ส่วนเทคโนโลยีหลักนี้เองที่กลายเป็นชนวนของการโต้เถียงทางวิชาการครั้งนี้
ดร. เกา เจี้ยนหยาง อ้างหลักฐานว่า กลไกหลักที่กูเกิลอ้างว่า “ปฏิวัติวงการ” นี้ไม่ใช่การคิดค้นครั้งแรกของพวกเขา ทีมของเขาได้เสนอแผนงานที่คล้ายกันอย่างสมบูรณ์เมื่อสองปีก่อน สิ่งที่น่าสงสัยยิ่งกว่านั้นคือ งานวิจัยของกูเกิลถูกกล่าวหาว่าจงใจ “หลีกเลี่ยง” และ “ลดความสำคัญ” ของงานก่อนหน้านี้
ผู้เขียน RaBitQ ตั้งคำถามอย่างเปิดเผย: วิธีการหลักของ TurboQuant มีตัวอย่างมาก่อนแล้ว
ชุดงานวิจัย RaBitQ ตีพิมพ์ในปี 2024 เสนอวิธีการหาปริมาณเวกเตอร์มิติสูง และพิสูจน์ทางทฤษฎีว่าบรรลุขอบเขตข้อผิดพลาดที่เหมาะสมที่สุดเชิงเส้นกำกับที่ให้ไว้โดยบทความงานประชุมระดับสูงด้านวิทยาการคอมพิวเตอร์เชิงทฤษฎี งานนี้และรุ่นขยายตีพิมพ์ในงานประชุมระดับสูง SIGMOD 2024 และ SIGMOD 2025 ตามลำดับ

หนึ่งในแนวคิดหลักของ RaBitQ คือ การใช้การหมุนแบบสุ่ม (random rotation / Johnson-Lindenstrauss transform) กับเวกเตอร์อินพุทก่อนการหาปริมาณ ใช้คุณลักษณะของการกระจายตัวของพิกัดหลังการหมุนเพื่อหาปริมาณเวกเตอร์ จึงบรรลุขอบเขตข้อผิดพลาดที่เหมาะสมที่สุดทางทฤษฎี
ในขณะที่แก่นหลักของวิธีการ TurboQuant ก็คือการใช้การหมุนแบบสุ่ม (Johnson-Lindenstrauss transform) กับเวกเตอร์อินพุทก่อนการหาปริมาณเช่นกัน — ซึ่งแม้แต่นักเขียน TurboQuant เองก็ได้อธิบายไว้ในการตอบรับการตรวจสอบของ ICLR

อย่างไรก็ตาม ข้อกล่าวหาชี้ให้เห็นว่า บทความ TurboQuant หลีกเลี่ยงความเชื่อมโยงโดยตรงระหว่างวิธีการของตนกับ RaBitQ อย่างจงใจตลอดทั้งบทความ แต่กลับอธิบาย RaBitQ ในเนื้อหาหลักว่าเป็นวิธีการหาปริมาณแบบผลคูณที่ใช้กริด (grid-based PQ) และในการอธิบายได้ละเลยขั้นตอนการหมุนแบบสุ่มซึ่งเป็นแก่นหลักของ RaBitQ จงใจทำให้ความสัมพันธ์ของการสืบทอดระหว่างทั้งสองคลุมเครือ
กล่าวกันว่า Majid Daliri ผู้เขียนคนที่สองของ TurboQuant ได้ติดต่อเกา เจี้ยนหยาง ตั้งแต่เดือนมกราคม 2025 เพื่อขอความช่วยเหลือในการดีบักโค้ด RaBitQ ที่เขาเขียนใหม่ด้วย Python ด้วยตนเอง ซึ่งแสดงให้เห็นว่าทีม TurboQuant มีความเข้าใจในรายละเอียดทางเทคนิคของ RaBitQ อย่างมาก
เมื่อเข้าใจและเคยปรึกษาผู้เขียนต้นฉบับมานานแล้ว ทำไมในบทความสุดท้ายจึงไม่มีการอ้างอิงที่เหมาะสมและการเปรียบเทียบที่客观?
หลังจากทีมของเกา เจี้ยนหยาง พบปัญหา ด้วยเจตนารมณ์ทางวิชาการที่เข้มงวด พวกเขาได้ติดต่อสื่อสารกับทีม TurboQuant ผ่านอีเมลหลายครั้งเป็นการส่วนตัวตั้งแต่เดือนพฤษภาคม 2025 ชี้แจงข้อผิดพลาดทางข้อเท็จจริงอย่างชัดเจน แต่กล่าวกันว่าทีม TurboQuant ปฏิเสธการแก้ไขด้วยเหตุผลที่ว่า “การหมุนแบบสุ่มได้กลายเป็นเทคโนโลยีมาตรฐานของสาขาแล้ว ไม่สามารถอ้างอิงทุกวิธีการที่ใช้มันได้” หลังจากนั้น บทความนี้ไม่เพียงแต่ได้รับการตีพิมพ์ใน ICLR 2026 เท่านั้น แต่ยังกลายเป็นจุดสนใจของทั่วโลก
ทีมของเกา เจี้ยนหยาง เชื่อว่าหากไม่แก้ไขการเล่าเรื่องทางวิชาการเช่นนี้ มันจะค่อยๆ กลายเป็น “ความจริง” ที่ยอมรับโดยปริยาย ดังนั้น ในที่สุดพวกเขาจึงได้เปิดเผยข้อกล่าวหาที่เป็นรูปธรรมหลายประการ
ข้อกล่าวหาสามประการที่เป็นรูปธรรม
เกา เจี้ยนหยาง ได้ระบุปัญหาหลักสามประการในบทความ:
ประการแรก การหลีกเลี่ยงความคล้ายคลึงทางเทคนิคอย่างเป็นระบบ
ข้อกล่าวหาระบุว่า TurboQuant ไม่เพียงแต่ไม่ได้อภิปรายความเชื่อมโยงเชิงโครงสร้างระหว่างวิธีการของตนกับ RaBitQ อย่างตรงไปตรงมา แต่กลับย้ายคำอธิบายที่ไม่สมบูรณ์ของ RaBitQ จากเนื้อหาหลักไปไว้ในภาคผนวก การเปลี่ยนแปลงนี้เกิดขึ้นแม้หลังจากที่ผู้ตรวจสอบได้ชี้แจงอย่างชัดเจนว่า “RaBitQ และรูปแบบแปรของมันคล้ายกับ TurboQuant เพราะต่างก็ใช้การฉายภาพแบบสุ่ม” และขอให้อภิปรายอย่างเพียงพอ
ผู้เขียน TurboQuant ตอบกลับผู้ตรวจสอบว่า: “การใช้การหมุนแบบสุ่มและการแปลง Johnson-Lindenstrauss เป็นเทคโนโลยีมาตรฐานของสาขานี้แล้ว เราไม่สามารถอ้างอิงทุกบทความที่ใช้วิธีการเหล่านี้ได้”
ทีมของเกา เจี้ยนหยาง เชื่อว่าการตอบสนองนี้เป็นการเบี่ยงเบนประเด็น: RaBitQ ในฐานะงานก่อนหน้าที่เฉพาะเจาะจงซึ่งเป็นผู้บุกเบิกในการรวมการหมุนแบบสุ่ม (Johnson-Lindenstrauss transform) กับการหาปริมาณเวกเตอร์ภายใต้การตั้งค่าปัญหาเดียวกัน และสร้างหลักประกันทางทฤษฎีที่เหมาะสมที่สุด ควรได้รับการอธิบายอย่างถูกต้องในบทความ และความเชื่อมโยงกับวิธีการ TurboQuant ก็ควรได้รับการอภิปรายอย่างเพียงพอ
ประการที่สอง อธิบายผลลัพธ์ทางทฤษฎีของ RaBitQ อย่างผิดพลาด
บทความ TurboQuant ระบุลักษณะหลักประกันทางทฤษฎีของ RaBitQ ว่า “ไม่เหมาะสมที่สุด (suboptimal)” และอ้างว่าเป็นเพราะ “การวิเคราะห์ที่หยาบ (loose analysis)” แต่ไม่ได้ให้การพิสูจน์ การเปรียบเทียบ หรือหลักฐานใดๆ
ความจริงคือ ในทฤษฎีบท 3.2 ของบทความรุ่นขยายของ RaBitQ (arXiv:2409.09913) ได้พิสูจน์อย่างเข้มงวดแล้วว่าขอบเขตข้อผิดพลาดของ RaBitQ บรรลุขอบเขตข้อผิดพลาดที่เหมาะสมที่สุดเชิงเส้นกำกับที่ให้ไว้โดยงานประชุมระดับสูงด้านวิทยาการคอมพิวเตอร์เชิงทฤษฎี (Alon-Klartag, FOCS 2017) เนื่องจากผลสำเร็จนี้ ทีมของเกา เจี้ยนหยาง เคยได้รับเชิญให้นำเสนอในงานสัมมนาของงานประชุมระดับสูงด้านวิทยาการคอมพิวเตอร์เชิงทฤษฎี FOCS
กล่าวกันว่าในเดือนพฤษภาคม 2025 ทีมของเกา เจี้ยนหยาง ได้มีการอภิปรายทางเทคนิคผ่านอีเมลหลายรอบกับ Majid Daliri ผู้เขียนคนที่สองของ TurboQuant ชี้แจงการตีความที่ผิดพลาดนี้ทีละข้อ Majid Daliri ก็ได้แจ้งอย่างชัดเจนว่าได้แจ้งให้ผู้เขียนร่วมทั้งหมดทราบแล้ว อย่างไรก็ตาม การระบุลักษณะที่ผิดพลาดนี้ไม่ได้รับการแก้ไขตลอดกระบวนการตรวจสอบบทความอย่างสมบูรณ์ การได้รับการตีพิมพ์ และการเผยแพร่ในวงกว้าง
ประการที่สาม จงใจสร้างเงื่อนไขการทดลองที่ไม่เป็นธรรม
บทความ TurboQuant ในการทดสอบความเร็วของ RaBitQ มีเงื่อนไขที่ไม่เป็นธรรมอย่างเป็นระบบสองประการที่ไม่ได้เปิดเผยอย่างชัดเจน: ประการแรก ไม่ได้ใช้การนำไปใช้จริงอย่างเป็นทางการของ RaBitQ ที่เปิดเผยซอร์สโค้ดใน C++ แต่ใช้รุ่น Python ที่ Majid Daliri แปลเอง ประการที่สอง จำกัด RaBitQ ให้ทำงานบน CPU แบบ single-core และปิด multi-threading ในขณะที่ TurboQuant เองใช้ GPU NVIDIA A100 ในการทดสอบ
Majid Daliri เองยอมรับสถานการณ์การจำกัดแบบ single-core ในอีเมลเดือนพฤษภาคม 2025 อย่างไรก็ตาม บทความยังคงนำเสนอข้อสรุปที่ได้ว่า “RaBitQ ช้ากว่า TurboQuant หลายอันดับขนาด” ให้ผู้อ่าน และไม่ได้เพิ่มคำอธิบายใดๆ
เลือกที่จะออกเสียงอย่างเปิดเผย
เกา เจี้ยนหยาง ระบุว่าหลังจากทีมของเขาพบว่า TurboQuant ส่งไปยัง ICLR 2026 ในเดือนพฤศจิกายน 2025 พวกเขาได้ติดต่อประธานคณะกรรมการโปรแกรม ICLR แต่ไม่ได้รับการตอบสนอง
หลังจากบทความได้รับการตีพิมพ์อย่างเป็นทางการในเดือนมกราคม 2026 กูเกิลเริ่มโปรโมตผ่านช่องทางอย่างเป็นทางการในวงกว้าง เนื้อหาที่เกี่ยวข้องมีผู้เข้าชมบนโซเชียลมีเดียถึงหลายสิบล้านครั้งอย่างรวดเร็ว
ในเดือนมีนาคม 2026 ทีมของเกา เจี้ยนหยาง ได้ส่งจดหมายอย่างเป็นทางการอีกครั้งถึงผู้เขียน TurboQuant ทุกคน ขอให้ชี้แจงและแก้ไข ปัจจุบันได้รับการตอบกลับจาก Amir Zandieh ผู้เขียนคนแรก ซึ่งสัญญาว่าจะแก้ไขปัญหาความเป็นธรรมสองประการของการทดสอบข้างต้นหลังจากงานประชุม ICLR จบลงอย่างเป็นทางการ แต่ปฏิเสธที่จะอภิปรายปัญหาความคล้ายคลึงทางเทคนิคใดๆ
เกา เจี้ยนหยาง ได้โพสต์ความคิดเห็นสาธารณะบนแพลตฟอร์ม ICLR OpenReview แล้ว และได้ส่งคำร้องเรียนอย่างเป็นทางการพร้อมหลักฐานครบถ้วนถึงประธานการประชุม ICLR ประธานคณะกรรมการโปรแกรม และประธานคณะกรรมการจริยธรรมและโค้ด พร้อมกันนี้ เขาระบุว่าจะเผยแพร่รายงานทางเทคนิคโดยละเอียดเกี่ยวกับ TurboQuant และ RaBitQ บน arXiv และสงวนสิทธิ์ในการแจ้งไปยังหน่วยงานที่เกี่ยวข้องเพิ่มเติม

เขาขียนท้ายบทความว่า: “บทความหนึ่งถูกกูเกิลผลักดันสู่สาธารณะด้วยการเปิดเผยหลายสิบล้านครั้ง ในระดับขนาดนี้ การเล่าเรื่องที่ผิดพลาดในบทความไม่จำเป็นต้องเผยแพร่เอง แค่ไม่ได้รับการแก้ไข ก็จะกลายเป็นฉันทามติโดยอัตโนมัติ”
ปัจจุบัน ข้อเรียกร้องของเกา เจี้ยนหยาง และคนอื่นๆ ได้รับการสนับสนุนจากหลายคน


ความคิดเห็นจำนวนมากชี้ให้เห็นว่าการกระทำที่คล้ายกันของกูเกิลในการวิจัย AI ไม่ใช่ครั้งแรก บางทีเรื่องนี้อาจต้องการคำอธิบายจากกูเกิลและ ICLR อย่างเป็นทางการ
เนื้อหาอ้างอิง
* https://openreview.net/forum?id=tO3ASKZlok
* https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/27752
