สถาปัตยกรรม MoE
-
Ali Qwen3.5-122B-A10B ทดสอบจริง: โมเดลโอเพ่นซอร์ส 122 พันล้านพารามิเตอร์ ประสิทธิภาพเหนือกว่า Qwen3-Max ต้นทุนต่ำกว่า
Qwen3.5-122B-A10B เป็นโมเดลโอเพนซอร์สในซีรีส์ Qwen3.5 Medium ของ Alibaba โดยมีพารามิเตอร์ทั้งหมด 122 พันล้านตัว ใช้สถาปัตยกรรม Sparse Mixture of Experts (MoE) ที่มีผู้เชี่ยวชาญ 256…
-
Ali Qwen 3.5-Plus เปิดตัวครั้งใหญ่: มัลติโมดัลแบบเนทีฟ, ประสิทธิภาพเหนือชั้น, ราคาจัดหนัก, โมเดลโอเพ่นซอร์สก้าวกระโดดระดับระเบิด
ช่วงก่อนหน้านี้ ผู้ผลิตโมเดลใหญ่ๆ ต่างทยอยอัปเดตผลิตภัณฑ์ มีฟังก์ชันมากมายจนตาลาย ในขณะที่ทุกคนคิดว่ากำลังจะถึงตรุษจีน วงการ AI คงไม่มีไพ่ใหม่มาเล่นแล้ว ทันใดนั้น Alibaba Tongyi Qi…
-
Baidu ERNIE 5.0: สมองหลายรูปแบบรวมหนึ่งด้วยพารามิเตอร์ล้านล้าน โครงสร้างดั้งเดิมแบบถดถอยอัตโนมัติพลิกโฉมกระบวนทัศน์การออกแบบ AI
เครซี จาก เอาเฟยซื่อ หลังจากเปิดตัวโมเดลมาเกือบ 3 เดือน รายงานทางเทคนิคของ Baidu ERNIE 5.0 ก็ได้รับการเผยแพร่ในที่สุด โมเดลพื้นฐานใช้สถาปัตยกรรม Ultra-Sparse MoE ที่เบาบางยิ่ง พารา…