จากข้อมูลล่าสุดของ OpenRouter ในสัปดาห์ระหว่างวันที่ 2 ถึง 8 มีนาคม ปริมาณการเรียกใช้โมเดลภาษาขนาดใหญ่ของจีนในสัปดาห์นั้นพุ่งสูงถึง 4.19 ล้านล้านโทเค็น เพิ่มขึ้น 34.9% จากสัปดาห์ก่อนหน้า ในขณะเดียวกัน ปริมาณการเรียกใช้โมเดลภาษาขนาดใหญ่ของสหรัฐฯ อยู่ที่ 3.63 ล้านล้านโทเค็น ลดลง 8.5% จากสัปดาห์ก่อนหน้า นี่เป็นการที่โมเดลภาษาขนาดใหญ่ของจีนกลับมาขึ้นนำเป็นอันดับหนึ่งของโลกอีกครั้งอย่างแข็งแกร่ง หลังจากที่ปริมาณการเรียกใช้รายสัปดาห์ของโมเดลภาษาขนาดใหญ่จีนแซงหน้าสหรัฐฯ เป็นครั้งแรกในเดือนกุมภาพันธ์ปีนี้

ข้อมูลแสดงให้เห็นว่ากิจกรรมของโมเดลภาษาขนาดใหญ่จีนและสหรัฐฯ มีความแตกต่างกันอย่างชัดเจนในสัปดาห์ที่ผ่านมา ปริมาณการเรียกใช้โมเดลภาษาขนาดใหญ่จีนเพิ่มขึ้นอย่างรวดเร็ว ในขณะที่โมเดลภาษาขนาดใหญ่สหรัฐฯ แสดงแนวโน้มหดตัวในระยะสั้น

ย้อนกลับไปในเดือนกุมภาพันธ์ ปริมาณการเรียกใช้โมเดลภาษาขนาดใหญ่จีนได้แสดงให้เห็นถึงโมเมนตัมการเติบโตที่แข็งแกร่ง ในช่วงวันที่ 9 ถึง 15 กุมภาพันธ์ ปริมาณการเรียกใช้โมเดลภาษาขนาดใหญ่จีนทั้งหมดสูงถึง 4.12 ล้านล้านโทเค็น แซงหน้าสหรัฐฯ (2.94 ล้านล้านโทเค็น) เป็นครั้งแรก ในสัปดาห์ต่อมาคือวันที่ 16 ถึง 22 กุมภาพันธ์ ปริมาณการเรียกใช้โมเดลภาษาขนาดใหญ่จีนเพิ่มขึ้นเป็นสถิติใหม่ที่ 5.16 ล้านล้านโทเค็น เพิ่มขึ้น 127% ภายในสามสัปดาห์ ในช่วงเวลาเดียวกัน ปริมาณการเรียกใช้โมเดลภาษาขนาดใหญ่สหรัฐฯ ลดลงเหลือ 2.7 ล้านล้านโทเค็น ช่องว่างระหว่างสองประเทศขยายตัวขึ้นอย่างต่อเนื่อง ในสัปดาห์สุดท้ายของเดือนกุมภาพันธ์ ปริมาณการเรียกใช้โมเดลภาษาขนาดใหญ่จีนมีการปรับตัวลดลงในระยะหนึ่ง เมื่อเข้าสู่เดือนมีนาคม ด้วยการเชื่อมต่อโมเดลใหม่เข้ากับแอปพลิเคชันยอดนิยม ปริมาณการเรียกใช้โมเดลภาษาขนาดใหญ่จีนกลับมาอยู่ในระดับ 4 ล้านล้านโทเค็นอีกครั้ง
ในด้านการจัดอันดับเฉพาะ ใน 5 อันดับแรกของปริมาณการเรียกใช้โมเดลภาษาขนาดใหญ่ทั่วโลกในสัปดาห์ที่ผ่านมา ผลิตภัณฑ์จีนครองสามอันดับ MiniMax M2.5 แสดงผลงานที่มั่นคง ครองตำแหน่งอันดับหนึ่งของโลกต่อเนื่อง DeepSeek V3.2 รักษาแนวโน้มการเติบโต Step 3.5 Flash กลายเป็นม้ามืดของสัปดาห์ที่ผ่านมา และสามารถติดอันดับ 5 อันดับแรกของโลกได้สำเร็จ

จากมุมมองส่วนแบ่งการตลาด หลังจากที่ MiniMax เปิดตัวโมเดลหลายรุ่นในช่วงปลายเดือนมกราคม ส่วนแบ่งการตลาดของบริษัทมีการเติบโตแบบก้าวกระโดด ในสัปดาห์ระหว่างวันที่ 16 ถึง 22 กุมภาพันธ์ ส่วนแบ่งของบริษัทแซงหน้าบริษัท Google และกลายเป็นอันดับหนึ่งของโลก ในสัปดาห์ที่ผ่านมา MiniMax ยังคงรักษาผลงานอันดับสามของตลาด และยึดตำแหน่งในกลุ่มแรกของตลาดโมเดลภาษาขนาดใหญ่ทั่วโลกอย่างมั่นคง

ในสถานการณ์การใช้งานด้านการเขียนโปรแกรม (รวมถึงการสร้างโค้ด การดีบัก การพัฒนา) โมเดลสามอันดับแรกที่มีปริมาณการเรียกใช้สูงสุดในสัปดาห์ที่ผ่านมาคือ MiniMax M2.5, Kimi K2.5 และ Claude Opus 4.6 ตามลำดับ

เป็นที่น่าสังเกตว่า โมเดลภาษาขนาดใหญ่ของจีนในสัปดาห์ที่ผ่านมาไม่เพียงแต่มีผลงานโดดเด่นในตลาดภาษาจีนเท่านั้น แต่ปริมาณการเรียกใช้ในบริบทภาษาอังกฤษ ก็โดดเด่นไม่แพ้กัน โดยสามารถครองสามอันดับแรกของโลกในสถานการณ์ย่อยนี้ได้โดยตรง ซึ่งแสดงให้เห็นถึงอิทธิพลที่เพิ่มขึ้นของโมเดลภาษาขนาดใหญ่จีนในระบบนิเวศนักพัฒนาทั่วโลก

ในด้านการบริโภคโทเค็นตามความยาวคอนเท็กซ์ที่แตกต่างกัน มีความแตกต่างอย่างมีนัยสำคัญ:
* ในงานที่มีคอนเท็กซ์สั้น 1K-10K โทเค็น โมเดลหลักจากต่างประเทศ เช่น GPT-oss-120b, Gemini 2.5 Flash เป็นต้น มีความได้เปรียบ
* ในงานที่มีคอนเท็กซ์ปานกลางถึงยาว 10K-100K โทเค็น MiniMax M2.5 และ DeepSeek V3.2 เป็นตัวเลือกของผู้ใช้มากขึ้น
* ในงานที่มีคอนเท็กซ์ยาวกว่า 100K-1M โทเค็น MiniMax M2.5 มีความได้เปรียบอย่างชัดเจน

ในรายการความสามารถอื่นๆ:
* ในด้านการใช้เครื่องมือ MiniMax ยังคงนำโด่งอย่างชัดเจน
* ในด้านการสร้างภาพ Gemini 2.5 Flash Lite ได้รับความนิยมมากกว่า โมเดลภาษาขนาดใหญ่จีนที่ติดอันดับคือ Qwen 3 VL 235B
ในแอปพลิเคชันยอดนิยม OpenClaw โมเดลภาษาขนาดใหญ่จีนก็ครองตำแหน่งนำเช่นกัน โมเดลที่มีปริมาณการใช้งานสูงสุดใน OpenClaw ในเดือนนี้คือ Kimi K2.5 ตามด้วย Step 3.5 Flash และ MiniMax M2.5 โมเดลภาษาขนาดใหญ่จีนทั้งสามนี้มีปริมาณการเรียกใช้เกิน 1 ล้านล้านโทเค็น สร้างรูปแบบการแข่งขันสามเส้า

โดยรวมแล้ว ปัจจุบันโมเดลภาษาขนาดใหญ่จีนได้ก้าวนำในด้านปริมาณการเรียกใช้และความกว้างของการใช้งานจริงในบางส่วนแล้ว แสดงให้เห็นถึงสถานการณ์ที่ผู้ผลิตต่างๆ เช่น MiniMax, DeepSeek, Moonshot AI (Kimi), Step กำลังเบ่งบานแข่งกัน
ลิงก์อ้างอิง:
[1]https://openrouter.ai/rankings
[2]https://m.ithome.com/html/927345.htm
[3]https://x.com/jasonthomasmba/status/2030670237259944189
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/25208
