โมเดลภาษาขนาดใหญ่
-
Qualcomm QuoKA: ไม่ต้องฝึกฝน ไม่ขึ้นกับฮาร์ดแวร์ ลด KV 88% เร่งการอนุมาน 5 เท่า ปฏิวัติประสิทธิภาพการเติมล่วงหน้าของ LLM
คำสำคัญ: แบบจำลองภาษาขนาดใหญ่, ความสนใจแบบเบาบาง, การเติมล่วงหน้าแบบแบ่งกลุ่ม, การเลือก KV, การเร่งการอนุมาน ไม่ต้องฝึกฝน ไม่ต้องพึ่งฮาร์ดแวร์เฉพาะ ใช้คู่ KV เพียง 12% ก็ได้ผลลัพธ์…
-
เอเจนต์วิวัฒนาการด้วยตนเองทำลายข้อจำกัดการขุดปัจจัยเชิงปริมาณ: กรอบ QuantaAlpha บรรลุผลตอบแทนรายปี 27.75%
ทีมจากมหาวิทยาลัยการเงินและเศรษฐศาสตร์เซี่ยงไฮ้ (SUFE) ส่งบทความ QbitAI | บัญชี WeChat สาธารณะ QbitAI ในระดับพื้นฐานของการเงินเชิงปริมาณ แฟคเตอร์อัลฟ่าโดยพื้นฐานแล้วคือตรรกะโค้ดที่…
-
การปรับปรุงการเตรียมข้อมูล LLM: การปฏิวัติกระบวนทัศน์จากกฎเกณฑ์สู่ความหมาย
ในระบบระดับองค์กร ทีมข้อมูลมักเผชิญกับภาวะกลืนไม่เข้าคายไม่ออก: การวนซ้ำของโมเดลพัฒนาอย่างรวดเร็ว แต่ “ท่อเก่า” ของการเตรียมข้อมูลกลับยิ่งหนักอึ้งมากขึ้น การทำความสะอาด…
-
นักวิชาการชาวจีน ซู เว่ยเจี๋ย ได้รับรางวัล COPSS 2026: สร้างรากฐานทางสถิติที่เข้มงวดให้กับโมเดลภาษาขนาดใหญ่ เป็นชาวจีนคนแรกที่ได้รับรางวัลนี้ในรอบ 14 ปี
หลังจากเว้นว่างไป 14 ปี รางวัล COPSS Presidents’ Award ที่ได้รับการขนานนามว่าเป็น “รางวัลโนเบลสาขาสถิติ” ก็มีผู้ได้รับรางวัลที่เป็นชาวจีนอีกครั้ง ในปี 2026 รางวัล…