GLM-5 ได้รับการเปิดตัวอย่างเป็นทางการ โดยมีเป้าหมายตรงไปที่ Claude โดยมุ่งเน้นไปที่การแก้ไขงานวิศวกรรมระบบที่ซับซ้อนและงานเอเจนต์ระยะยาว ขนาดพารามิเตอร์ของโมเดลเพิ่มขึ้นอย่างมากจาก GLM-4.5 ที่ 355B (32B แอคทีฟ) เป็น 744B (40B แอคทีฟ) และปริมาณข้อมูลการฝึกก่อนก็เพิ่มขึ้นจาก 23T โทเค็นเป็น 28.5T โทเค็น

ในด้านเทคนิค GLM-5 ใช้สถาปัตยกรรม GlmMoeDsa ซึ่งผสานรวมโดยตรงเทคโนโลยี DSA Sparse Attention จาก DeepSeek และเทคโนโลยี MTP Multi-Token Prediction ทำให้สามารถลดต้นทุนการปรับใช้ได้อย่างมีนัยสำคัญ ในขณะที่ยังคงความสามารถในการประมวลผลบริบทยาวที่แข็งแกร่ง ทีมวิจัยยังได้สร้างโครงสร้างพื้นฐานการเรียนรู้เสริมแบบอะซิงโครนัสชื่อ “slime” ซึ่งแก้ไขปัญหาคอขวดด้านประสิทธิภาพในการฝึกการเรียนรู้เสริมของโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพ เพิ่มปริมาณการฝึก (throughput) ขึ้นอย่างมาก ทำให้การทำซ้ำหลังการฝึกที่ละเอียดและซับซ้อนยิ่งขึ้นเป็นไปได้

ผลการประเมินประสิทธิภาพ:
* ความสามารถในการให้เหตุผล: ในการทดสอบมาตรฐานการให้เหตุผล HLE GLM-5 ได้คะแนน 30.5 คะแนน ซึ่งสูงกว่า Claude Opus 4.5 ที่ 28.4 คะแนน แต่ยังห่างจาก GPT-5.2 ที่ 35.4 คะแนน หลังจากเปิดใช้งานฟังก์ชันการเรียกใช้เครื่องมือ คะแนน HLE ของมันเพิ่มขึ้นเป็น 50.4 คะแนน
* ความสามารถในการเขียนโปรแกรม: ในการทดสอบการเขียนโปรแกรม SWE-bench Verified GLM-5 บรรลุอัตราการผ่าน 77.8% ซึ่งอยู่ในระดับสูงสุดของโมเดลโอเพ่นซอร์ส
* งานบูรณาการและงานระยะยาว: ในการประเมินภายใน CC-Bench-V2 ประสิทธิภาพของ GLM-5 ในงาน front-end, back-end และงานระยะยาว ดีกว่า GLM-4.7 อย่างมีนัยสำคัญ และช่องว่างกับ Claude Opus 4.5 ลดลงอย่างเห็นได้ชัด
* ความสามารถในการวางแผนระยะยาว: การทดสอบ Vending Bench 2 ต้องการให้โมเดลจำลองธุรกิจตู้ขายสินค้าอัตโนมัติเสมือนเป็นเวลาหนึ่งปี GLM-5 ได้ยอดคงเหลือสุดท้าย 4432 ดอลลาร์ ซึ่งอยู่ในอันดับที่หนึ่งในบรรดาโมเดลโอเพ่นซอร์ส และเข้าใกล้ผลลัพธ์ของ Claude Opus 4.5 ที่ 4967 ดอลลาร์ ในขณะที่ DeepSeek-V3.2 ได้เพียง 1034 ดอลลาร์ในการทดสอบนี้

GLM-5 ยังมีความสามารถพิเศษ: สามารถสร้างเอกสาร Office ที่พร้อมใช้งานได้ทันที ผู้ใช้เพียงแค่ระบุความต้องการ โมเดลก็สามารถส่งออกไฟล์ .docx, .pdf หรือ .xlsx ที่มีรูปแบบสมบูรณ์ได้ เช่น เอกสารผลิตภัณฑ์ งบการเงิน แผนการสอน เป็นต้น โดยไม่จำเป็นต้องปรับรูปแบบในภายหลัง นี่เป็นครั้งแรกในโมเดลภาษาขนาดใหญ่โอเพ่นซอร์ส
ในด้านการปรับใช้ GLM-5 รองรับเฟรมเวิร์กการอนุมานหลักเช่น vLLM, SGLang น้ำหนักโมเดลได้เปิดเป็นโอเพ่นซอร์สบนแพลตฟอร์ม HuggingFace และ ModelScope พร้อมกันนี้ โมเดลยังให้การสนับสนุนระบบนิเวศชิปจีนอย่างกว้างขวาง รวมถึง Huawei Ascend, Moore Threads, Cambricon, Kunlunxin, Enflame, Hygon ผ่านการปรับปรุงเคอร์เนลและเทคโนโลยีการควอนไทซ์โมเดล ทำให้สามารถบรรลุความเร็วในการอนุมานที่สมเหตุสมผลบนแพลตฟอร์มเหล่านี้
ผู้ใช้ในระยะแรกให้ผลตอบรับในเชิงบวก มีนักพัฒนาที่ใช้มันสำหรับงานพัฒนา SwiftUI พบว่าประสิทธิภาพดีกว่าโมเดล minimax m2.1 อย่างเห็นได้ชัด ผู้ใช้อีกคนพบว่า GLM-5 คือโมเดลลึกลับที่ปรากฏบนแพลตฟอร์ม OpenRouter ก่อนหน้านี้โดยใช้รหัสชื่อ “Pony Alpha” ในการทดสอบการออกแบบฉาก voxel pagoda ผู้ใช้คิดว่าสไตล์การออกแบบของ GLM-5 ใกล้เคียงกับ Claude Opus 4.6 แต่ขาดองค์ประกอบรายละเอียดบางอย่างเช่น “ประตูโทริอิ”
ในฐานะตัวแทนของโมเดลโอเพ่นซอร์สจีน ซีรีส์ GLM ด้วยความสามารถในการเขียนโปรแกรมที่ยอดเยี่ยม ได้แสดงผลงานที่โดดเด่นในกระบวนการที่การประยุกต์ใช้โมเดลภาษาขนาดใหญ่พัฒนาจากการสนทนาไปสู่วิศวกรรมเอเจนต์ แผนวงเงินฟรีที่เปิดตัว และ Code Plan ที่ได้รับความสนใจอย่างมากภายใต้การกระตุ้นของ OpenClaw ล่าสุด ประสบความสำเร็จในการดึงดูดผู้ใช้ที่เป็นนักพัฒนาจำนวนมาก ด้วยการพัฒนาอย่างต่อเนื่องของระบบนิควิธีโมเดล ประสิทธิภาพในอนาคตของมันน่าจับตามอง
ติดตาม “鲸栖” Mini Program เพื่อรับข่าวสาร AI ล่าสุด
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/22959
