
1 กุมภาพันธ์
- 【โอเพ่นซอร์ส】 Alibaba Tongyi เปิดตัว Qwen3-Coder-Next
นี่คือโมเดลเอเจนต์สำหรับการเขียนโปรแกรม ใช้สถาปัตยกรรม MoE พารามิเตอร์รวม 80B โดยแต่ละครั้งที่ทำการอนุมานจะเปิดใช้งานพารามิเตอร์เพียง 3B เท่านั้น ในการทดสอบ SWE-Bench Verified มีอัตราการแก้ไขปัญหาสูงกว่า 70% บรรลุความสมดุลระหว่างประสิทธิภาพสูงและต้นทุนการคำนวณต่ำ เหมาะสำหรับสถานการณ์การพัฒนาแบบโลคัลที่ไวต่อทรัพยากรการคำนวณ
รายละเอียดเพิ่มเติม: https://qwen.ai/blog?id=qwen3-coder-next
2 กุมภาพันธ์
-
【ปิดซอร์ส】 Alibaba เปิดตัว wan2.6-r2v-flash
โมเดลนี้สามารถสร้างวิดีโอหลายมุมมองจากภาพลักษณ์ตัวละครในวิดีโออ้างอิงและรูปภาพ และรองรับการพากย์เสียงอัตโนมัติ
รายละเอียดเพิ่มเติม: https://help.aliyun.com/zh/model-studio/wan-video-to-video-api-reference -
【โอเพ่นซอร์ส】 StepFun เปิดตัว Step 3.5 Flash
นี่คือโมเดลฐานความเร็วสูงเฉพาะสำหรับเอเจนต์ที่มีพารามิเตอร์ 196 พันล้าน ใช้สถาปัตยกรรม MoE แบบเบาบาง พารามิเตอร์รวม 196 พันล้านแต่เปิดใช้งานเพียง 11 พันล้าน รองรับคอนเท็กซ์ยาวพิเศษ 256K ร่วมกับเทคโนโลยี MTP-3 ที่คิดค้นขึ้นเอง (ทำนายโทเค็น 3 ตัวในครั้งเดียว) ความเร็วในการอนุมานสูงสุดถึง 350 TPS ในขณะที่รักษาความสามารถในการให้เหตุผลทางคณิตศาสตร์ที่ซับซ้อนได้อย่างมั่นคง ก็ยังช่วยลดความล่าช้าในการตอบสนองของแอปพลิเคชันเอเจนต์ได้อย่างมีนัยสำคัญ
รายละเอียดเพิ่มเติม: https://static.stepfun.com/blog/step-3.5-flash/ -
【ปิดซอร์ส】 xAI เปิดตัว Grok Imagine 1.0
โมเดลนี้เข้าสู่แวดวงการสร้างวิดีโออย่างเป็นทางการ สามารถสร้างวิดีโอคุณภาพสูงได้ยาวสุด 10 วินาที ความละเอียด 720p จุดเด่นหลักอยู่ที่การใช้เทคโนโลยีการสร้างแบบจำลองร่วมระหว่างเสียงและวิดีโอขั้นสูง บรรลุการจัดตำแหน่งภาพและเสียงที่แม่นยำและการสังเคราะห์เสียงที่มีพลังในการแสดงอารมณ์
รายละเอียดเพิ่มเติม: https://x.ai/news/grok-imagine-api
3 กุมภาพันธ์
- 【โอเพ่นซอร์ส】 Zhipu AI เปิดตัว GLM-OCR
นี่คือโมเดล OCR แบบมัลติโมดัลสำหรับการทำความเข้าใจเอกสารที่ซับซ้อน ใช้สถาปัตยกรรมตัวเข้ารหัส-ตัวถอดรหัส GLM-V ด้วยการนำการสูญเสียจากการทำนายหลายโทเค็น (MTP) และการเรียนรู้แบบเสริมกำลังแบบเต็มงานที่เสถียรมาใช้ ทำให้ประสิทธิภาพการฝึก ความแม่นยำในการจดจำ และความสามารถในการปรับตัวทั่วไปดีขึ้น โมเดลนี้มีพารามิเตอร์เพียง 0.9B ได้อันดับ 1 ด้วยคะแนน 94.62 ใน OmniDocBench V1.5 รองรับการปรับใช้ vLLM, SGLang และ Ollama เหมาะสำหรับบริการที่มีการเข้าถึงพร้อมกันสูงและสถานการณ์การปรับใช้แบบเอ็ดจ์
รายละเอียดเพิ่มเติม: https://huggingface.co/zai-org/GLM-OCR
5 กุมภาพันธ์
-
【ปิดซอร์ส】 Anthropic เปิดตัว Claude Opus 4.6
นี่คือโมเดลที่ฉลาดที่สุดในปัจจุบัน ออกแบบมาเฉพาะสำหรับงานเอเจนต์ที่ซับซ้อนและการทำงานระยะยาว Opus 4.6 แนะนำให้ใช้โหมดการคิดแบบปรับตัวได้ โหมดการคิดด้วยตนเองถูกเลิกใช้แล้ว และไม่รองรับการเติมข้อความผู้ช่วยล่วงหน้า
รายละเอียดเพิ่มเติม: https://www.anthropic.com/news/claude-opus-4-6 -
【ปิดซอร์ส】 OpenAI เปิดตัว GPT-5.3-Codex
นี่คือโมเดลการเข้ารหัสสำหรับเอเจนต์ที่ทรงพลังที่สุดในปัจจุบัน โมเดลนี้รวมสแต็กการฝึกของ Codex และ GPT-5 เป็นครั้งแรก ผสานการสร้างโค้ดระดับยอดเยี่ยม การให้เหตุผล และปัญญาทั่วไปเข้าด้วยกัน ความเร็วเพิ่มขึ้นประมาณ 25% ทำสถิติสูงสุดในการทดสอบมาตรฐานสำคัญ บรรลุการก้าวกระโดดจากการสร้างโค้ดไปสู่เอเจนต์การเขียนโปรแกรมอัจฉริยะทั่วไปที่สามารถชี้นำเชิงรุกได้
รายละเอียดเพิ่มเติม: https://openai.com/zh-Hans-CN/index/introducing-gpt-5-3-codex/
7 กุมภาพันธ์
- 【ปิดซอร์ส】 Anthropic เปิดตัวรุ่นพรีวิววิจัย fast mode
โหมดนี้ใช้กับโมเดล Opus 4.6 บรรลุความเร็วในการสร้างโทเค็นเอาต์พุตที่เร็วกว่าอย่างมีนัยสำคัญผ่านพารามิเตอร์speedภายใต้ราคาขั้นสูง โหมดเร็วสามารถเพิ่มความเร็วได้สูงสุด 2.5 เท่า
รายละเอียดเพิ่มเติม: https://platform.claude.com/docs/en/build-with-claude/fast-mode
ติดตาม “Whale Habitat” Mini Program เพื่อรับข่าวสาร AI ล่าสุด
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/22993
