โมเดลภาษาขนาดใหญ่
-
ยุคเอเจนต์จุดระเบิดตลาดหมื่นล้าน: โทเคนกลายเป็นสินค้าบริโภคหลักของโครงสร้างพื้นฐาน AI ใหม่ได้อย่างไร?
ยุคเอเจนต์จุดชนวนตลาดล้านล้านล้าน: โทเค็นกลายเป็นสินค้าบริโภคพื้นฐานใหม่ของโครงสร้างพื้นฐาน AI ได้อย่างไร? กุมภาพันธ์ 2026 อุตสาหกรรม AI ของจีนประสบการระเบิดครั้งสำคัญ: หุ้นของ Zhi…
-
จาก AlphaGo ถึง DeepSeek R1: แบบจำลองการให้เหตุผลกำลังปรับเปลี่ยนผลิตภาพ AI และอนาคตของมนุษย์อย่างไร
หากมองชีวิตเป็นเกม MMO แบบเปิดขนาดใหญ่ ณ เวลาที่เซิร์ฟเวอร์เกมเพิ่งอัปเดตครั้งใหญ่ กฎก็เปลี่ยนไป นับตั้งแต่ ChatGPT ปรากฏตัวอย่างน่าตื่นตาตื่นใจในปี 2022 โลกได้เปลี่ยนแปลงไปอย่างลึ…
-
Qualcomm QuoKA: ไม่ต้องฝึกฝน ไม่ขึ้นกับฮาร์ดแวร์ ลด KV 88% เร่งการอนุมาน 5 เท่า ปฏิวัติประสิทธิภาพการเติมล่วงหน้าของ LLM
คำสำคัญ: แบบจำลองภาษาขนาดใหญ่, ความสนใจแบบเบาบาง, การเติมล่วงหน้าแบบแบ่งกลุ่ม, การเลือก KV, การเร่งการอนุมาน ไม่ต้องฝึกฝน ไม่ต้องพึ่งฮาร์ดแวร์เฉพาะ ใช้คู่ KV เพียง 12% ก็ได้ผลลัพธ์…
-
เอเจนต์วิวัฒนาการด้วยตนเองทำลายข้อจำกัดการขุดปัจจัยเชิงปริมาณ: กรอบ QuantaAlpha บรรลุผลตอบแทนรายปี 27.75%
ทีมจากมหาวิทยาลัยการเงินและเศรษฐศาสตร์เซี่ยงไฮ้ (SUFE) ส่งบทความ QbitAI | บัญชี WeChat สาธารณะ QbitAI ในระดับพื้นฐานของการเงินเชิงปริมาณ แฟคเตอร์อัลฟ่าโดยพื้นฐานแล้วคือตรรกะโค้ดที่…
-
การปรับปรุงการเตรียมข้อมูล LLM: การปฏิวัติกระบวนทัศน์จากกฎเกณฑ์สู่ความหมาย
ในระบบระดับองค์กร ทีมข้อมูลมักเผชิญกับภาวะกลืนไม่เข้าคายไม่ออก: การวนซ้ำของโมเดลพัฒนาอย่างรวดเร็ว แต่ “ท่อเก่า” ของการเตรียมข้อมูลกลับยิ่งหนักอึ้งมากขึ้น การทำความสะอาด…
-
นักวิชาการชาวจีน ซู เว่ยเจี๋ย ได้รับรางวัล COPSS 2026: สร้างรากฐานทางสถิติที่เข้มงวดให้กับโมเดลภาษาขนาดใหญ่ เป็นชาวจีนคนแรกที่ได้รับรางวัลนี้ในรอบ 14 ปี
หลังจากเว้นว่างไป 14 ปี รางวัล COPSS Presidents’ Award ที่ได้รับการขนานนามว่าเป็น “รางวัลโนเบลสาขาสถิติ” ก็มีผู้ได้รับรางวัลที่เป็นชาวจีนอีกครั้ง ในปี 2026 รางวัล…