AI รายสัปดาห์: Alibaba Tongyi, StepFun, Zhipu AI, Anthropic, OpenAI และบริษัทยักษ์ใหญ่ปล่อยโมเดลใหม่อย่างหนาแน่น ครอบคลุมการเขียนโปรแกรม การสร้างวิดีโอ การทำความเข้าใจเอกสาร และแอปพลิเคชันเอเจนต์อัจฉริยะ

AI รายสัปดาห์: Alibaba Tongyi, StepFun, Zhipu AI, Anthropic, OpenAI และบริษัทยักษ์ใหญ่ปล่อยโมเดลใหม่อย่างหนาแน่น ครอบคลุมการเขียนโปรแกรม การสร้างวิดีโอ การทำความเข้าใจเอกสาร และแอปพลิเคชันเอเจนต์อัจฉริยะ

1 กุมภาพันธ์

  • 【โอเพ่นซอร์ส】 Alibaba Tongyi เปิดตัว Qwen3-Coder-Next
    นี่คือโมเดลเอเจนต์สำหรับการเขียนโปรแกรม ใช้สถาปัตยกรรม MoE พารามิเตอร์รวม 80B โดยแต่ละครั้งที่ทำการอนุมานจะเปิดใช้งานพารามิเตอร์เพียง 3B เท่านั้น ในการทดสอบ SWE-Bench Verified มีอัตราการแก้ไขปัญหาสูงกว่า 70% บรรลุความสมดุลระหว่างประสิทธิภาพสูงและต้นทุนการคำนวณต่ำ เหมาะสำหรับสถานการณ์การพัฒนาแบบโลคัลที่ไวต่อทรัพยากรการคำนวณ
    รายละเอียดเพิ่มเติม: https://qwen.ai/blog?id=qwen3-coder-next

2 กุมภาพันธ์

  • 【ปิดซอร์ส】 Alibaba เปิดตัว wan2.6-r2v-flash
    โมเดลนี้สามารถสร้างวิดีโอหลายมุมมองจากภาพลักษณ์ตัวละครในวิดีโออ้างอิงและรูปภาพ และรองรับการพากย์เสียงอัตโนมัติ
    รายละเอียดเพิ่มเติม: https://help.aliyun.com/zh/model-studio/wan-video-to-video-api-reference

  • 【โอเพ่นซอร์ส】 StepFun เปิดตัว Step 3.5 Flash
    นี่คือโมเดลฐานความเร็วสูงเฉพาะสำหรับเอเจนต์ที่มีพารามิเตอร์ 196 พันล้าน ใช้สถาปัตยกรรม MoE แบบเบาบาง พารามิเตอร์รวม 196 พันล้านแต่เปิดใช้งานเพียง 11 พันล้าน รองรับคอนเท็กซ์ยาวพิเศษ 256K ร่วมกับเทคโนโลยี MTP-3 ที่คิดค้นขึ้นเอง (ทำนายโทเค็น 3 ตัวในครั้งเดียว) ความเร็วในการอนุมานสูงสุดถึง 350 TPS ในขณะที่รักษาความสามารถในการให้เหตุผลทางคณิตศาสตร์ที่ซับซ้อนได้อย่างมั่นคง ก็ยังช่วยลดความล่าช้าในการตอบสนองของแอปพลิเคชันเอเจนต์ได้อย่างมีนัยสำคัญ
    รายละเอียดเพิ่มเติม: https://static.stepfun.com/blog/step-3.5-flash/

  • 【ปิดซอร์ส】 xAI เปิดตัว Grok Imagine 1.0
    โมเดลนี้เข้าสู่แวดวงการสร้างวิดีโออย่างเป็นทางการ สามารถสร้างวิดีโอคุณภาพสูงได้ยาวสุด 10 วินาที ความละเอียด 720p จุดเด่นหลักอยู่ที่การใช้เทคโนโลยีการสร้างแบบจำลองร่วมระหว่างเสียงและวิดีโอขั้นสูง บรรลุการจัดตำแหน่งภาพและเสียงที่แม่นยำและการสังเคราะห์เสียงที่มีพลังในการแสดงอารมณ์
    รายละเอียดเพิ่มเติม: https://x.ai/news/grok-imagine-api

3 กุมภาพันธ์

  • 【โอเพ่นซอร์ส】 Zhipu AI เปิดตัว GLM-OCR
    นี่คือโมเดล OCR แบบมัลติโมดัลสำหรับการทำความเข้าใจเอกสารที่ซับซ้อน ใช้สถาปัตยกรรมตัวเข้ารหัส-ตัวถอดรหัส GLM-V ด้วยการนำการสูญเสียจากการทำนายหลายโทเค็น (MTP) และการเรียนรู้แบบเสริมกำลังแบบเต็มงานที่เสถียรมาใช้ ทำให้ประสิทธิภาพการฝึก ความแม่นยำในการจดจำ และความสามารถในการปรับตัวทั่วไปดีขึ้น โมเดลนี้มีพารามิเตอร์เพียง 0.9B ได้อันดับ 1 ด้วยคะแนน 94.62 ใน OmniDocBench V1.5 รองรับการปรับใช้ vLLM, SGLang และ Ollama เหมาะสำหรับบริการที่มีการเข้าถึงพร้อมกันสูงและสถานการณ์การปรับใช้แบบเอ็ดจ์
    รายละเอียดเพิ่มเติม: https://huggingface.co/zai-org/GLM-OCR

5 กุมภาพันธ์

  • 【ปิดซอร์ส】 Anthropic เปิดตัว Claude Opus 4.6
    นี่คือโมเดลที่ฉลาดที่สุดในปัจจุบัน ออกแบบมาเฉพาะสำหรับงานเอเจนต์ที่ซับซ้อนและการทำงานระยะยาว Opus 4.6 แนะนำให้ใช้โหมดการคิดแบบปรับตัวได้ โหมดการคิดด้วยตนเองถูกเลิกใช้แล้ว และไม่รองรับการเติมข้อความผู้ช่วยล่วงหน้า
    รายละเอียดเพิ่มเติม: https://www.anthropic.com/news/claude-opus-4-6

  • 【ปิดซอร์ส】 OpenAI เปิดตัว GPT-5.3-Codex
    นี่คือโมเดลการเข้ารหัสสำหรับเอเจนต์ที่ทรงพลังที่สุดในปัจจุบัน โมเดลนี้รวมสแต็กการฝึกของ Codex และ GPT-5 เป็นครั้งแรก ผสานการสร้างโค้ดระดับยอดเยี่ยม การให้เหตุผล และปัญญาทั่วไปเข้าด้วยกัน ความเร็วเพิ่มขึ้นประมาณ 25% ทำสถิติสูงสุดในการทดสอบมาตรฐานสำคัญ บรรลุการก้าวกระโดดจากการสร้างโค้ดไปสู่เอเจนต์การเขียนโปรแกรมอัจฉริยะทั่วไปที่สามารถชี้นำเชิงรุกได้
    รายละเอียดเพิ่มเติม: https://openai.com/zh-Hans-CN/index/introducing-gpt-5-3-codex/

7 กุมภาพันธ์

  • 【ปิดซอร์ส】 Anthropic เปิดตัวรุ่นพรีวิววิจัย fast mode
    โหมดนี้ใช้กับโมเดล Opus 4.6 บรรลุความเร็วในการสร้างโทเค็นเอาต์พุตที่เร็วกว่าอย่างมีนัยสำคัญผ่านพารามิเตอร์ speed ภายใต้ราคาขั้นสูง โหมดเร็วสามารถเพิ่มความเร็วได้สูงสุด 2.5 เท่า
    รายละเอียดเพิ่มเติม: https://platform.claude.com/docs/en/build-with-claude/fast-mode

ติดตาม “Whale Habitat” Mini Program เพื่อรับข่าวสาร AI ล่าสุด


⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง

本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/22993

Like (0)
Previous 2026年2月9日 am9:12
Next 2026年2月9日 pm1:29

相关推荐