อัปเดตสำคัญของโมเดล AI ขนาดใหญ่ในเดือนกุมภาพันธ์: Alibaba, Stepfun, Zhipu AI และบริษัทยักษ์ใหญ่ประกาศเปิดตัวใหม่ พร้อมความก้าวหน้าครั้งสำคัญในการเขียนโปรแกรม วิดีโอ และการประมวลผลเอกสาร

ตกลง ในฐานะบรรณาธิการทางเทคนิคมืออาชีพ ฉันได้ทำความสะอาดและเขียนใหม่ส่วนต้นฉบับตามข้อกำหนดของคุณ ด้านล่างนี้คือเนื้อหาที่เขียนใหม่แล้ว โดยแสดงผลโดยตรงในรูปแบบ Markdown


อัปเดตสำคัญของโมเดล AI ขนาดใหญ่ในเดือนกุมภาพันธ์: Alibaba, Stepfun, Zhipu AI และบริษัทยักษ์ใหญ่ประกาศเปิดตัวใหม่ พร้อมความก้าวหน้าครั้งสำคัญในการเขียนโปรแกรม วิดีโอ และการประมวลผลเอกสาร

1 กุมภาพันธ์

  • 【โอเพ่นซอร์ส】อาลี (Alibaba) เปิดตัว Qwen3-Coder-Next
    อาลีเปิดตัวโมเดลเอเจนต์อัจฉริยะสำหรับการเขียนโปรแกรม Qwen3-Coder-Next โมเดลนี้ใช้สถาปัตยกรรม Mixture of Experts (MoE) โดยมีพารามิเตอร์ทั้งหมด 80 พันล้านตัว และเปิดใช้งานเพียง 3 พันล้านตัวต่อการอนุมานแต่ละครั้ง ในแบบทดสอบ SWE-Bench Verified อัตราการแก้ไขปัญหาของโมเดลนี้สูงกว่า 70% ซึ่งช่วยควบคุมต้นทุนการคำนวณได้อย่างมีประสิทธิภาพในขณะที่รักษาประสิทธิภาพสูง เหมาะสำหรับสถานการณ์การพัฒนาแบบโลคัลที่ไวต่อทรัพยากรการคำนวณ

    • บล็อกทางเทคนิค: https://qwen.ai/blog?id=qwen3-coder-next

2 กุมภาพันธ์

  • 【ปิดต้นทาง】อาลีเปิดตัว Wan2.6-r2v-flash
    อาลีเปิดตัวโมเดลสร้างวิดีโอ Wan2.6-r2v-flash โมเดลนี้สามารถสร้างวิดีโอหลายช็อตของตัวละครเฉพาะจากวิดีโออ้างอิงและภาพ และรองรับการพากย์เสียงอัตโนมัติ

    • เอกสารทางการ: https://help.aliyun.com/zh/model-studio/wan-video-to-video-api-reference
  • 【โอเพ่นซอร์ส】StepFun (阶跃星辰) เปิดตัว Step 3.5 Flash
    StepFun เปิดตัวโมเดลพื้นฐานความเร็วสูง Step 3.5 Flash ที่ออกแบบมาสำหรับเอเจนต์โดยเฉพาะ โมเดลนี้ใช้สถาปัตยกรรม Sparse Mixture of Experts (SMoE) โดยมีพารามิเตอร์ทั้งหมด 196 พันล้านตัว และเปิดใช้งานเพียง 11 พันล้านตัวต่อการอนุมานแต่ละครั้ง รองรับคอนเท็กซ์ยาวพิเศษ 256K ร่วมกับเทคโนโลยีการทำนายหลายโทเค็นในครั้งเดียวที่เป็นเอกลักษณ์ของบริษัท ความเร็วในการอนุมานสูงสุดถึง 350 TPS ซึ่งช่วยลดความล่าช้าในการตอบสนองของแอปพลิเคชันเอเจนต์ได้อย่างมีนัยสำคัญ ในขณะที่ยังคงความสามารถในการให้เหตุผลทางคณิตศาสตร์ที่ซับซ้อน

    • บล็อกทางการ: https://static.stepfun.com/blog/step-3.5-flash/
  • 【ปิดต้นทาง】xAI เปิดตัว Grok Imagine 1.0
    xAI เปิดตัวโมเดลสร้างวิดีโอ Grok Imagine 1.0 อย่างเป็นทางการ ก้าวเข้าสู่แวดวงการสร้างวิดีโอ โมเดลนี้สามารถสร้างวิดีโอได้ยาวสุด 10 วินาที ความละเอียดสูงถึง 720p จุดเด่นหลักอยู่ที่การใช้เทคโนโลยีการสร้างแบบจำลองร่วมกันของเสียงและวิดีโอ ซึ่งทำให้เกิดการจัดตำแหน่งภาพและเสียงที่แม่นยำและการสังเคราะห์เสียงที่แสดงออกได้ดี

    • ประกาศทางการ: https://x.ai/news/grok-imagine-api

3 กุมภาพันธ์

  • 【โอเพ่นซอร์ส】Zhipu AI (智谱 AI) เปิดตัว GLM-OCR
    Zhipu AI เปิดตัวโมเดล OCR แบบมัลติโมดัล GLM-OCR สำหรับการทำความเข้าใจเอกสารที่ซับซ้อน โมเดลนี้ใช้สถาปัตยกรรม Encoder-Decoder ของ GLM-V โดยการนำการสูญเสียจากการทำนายหลายโทเค็นและการเรียนรู้เสริมแบบเต็มงานที่เสถียรมาใช้ ช่วยเพิ่มประสิทธิภาพการฝึก ความแม่นยำในการจดจำ และความสามารถในการปรับใช้ทั่วไป โมเดลมีพารามิเตอร์เพียง 900 ล้านตัว อยู่ในอันดับที่หนึ่งในการทดสอบมาตรฐาน OmniDocBench V1.5 และรองรับการปรับใช้กับเฟรมเวิร์กการอนุมานหลักหลายชนิด เหมาะสำหรับบริการที่มีการร้องขอพร้อมกันสูงและสถานการณ์การคำนวณแบบเอ็ดจ์

    • หน้าโมเดล: https://huggingface.co/zai-org/GLM-OCR

5 กุมภาพันธ์

  • 【ปิดต้นทาง】Anthropic เปิดตัว Claude Opus 4.6
    Anthropic เปิดตัวโมเดลที่ฉลาดที่สุดของพวกเขา Claude Opus 4.6 ซึ่งออกแบบมาสำหรับงานเอเจนต์ที่ซับซ้อนและเวิร์กโฟลว์ระยะยาว รุ่นนี้แนะนำให้ใช้โหมดการคิดแบบปรับตัว โหมดการคิดด้วยตนเองถูกเลิกใช้แล้ว และไม่รองรับการเติมข้อความของผู้ช่วยล่วงหน้าอีกต่อไป

    • ข่าวทางการ: https://www.anthropic.com/news/claude-opus-4-6
  • 【ปิดต้นทาง】OpenAI เปิดตัว GPT-5.3-Codex
    OpenAI เปิดตัวโมเดลการเข้ารหัสเอเจนต์ที่ทรงพลังที่สุดของพวกเขา GPT-5.3-Codex โมเดลนี้เป็นการรวมสแต็กการฝึกของ Codex และ GPT-5 เป็นครั้งแรก ผสมผสานความสามารถในการสร้างโค้ด การให้เหตุผล และความฉลาดทั่วไประดับสูงสุด ความเร็วในการให้เหตุผลเพิ่มขึ้นประมาณ 25% ทำสถิติใหม่ในการทดสอบมาตรฐานสำคัญ และก้าวข้ามจากการสร้างโค้ดไปสู่เอเจนต์การเขียนโปรแกรมอัจฉริยะทั่วไปแบบชี้นำเชิงรุก

    • คำแนะนำทางการ: https://openai.com/zh-Hans-CN/index/introducing-gpt-5-3-codex/

7 กุมภาพันธ์

  • 【ปิดต้นทาง】Anthropic เปิดตัวรุ่นพรีวิววิจัย Fast Mode
    Anthropic เปิดตัวรุ่นพรีวิววิจัย Fast Mode สำหรับโมเดล Claude Opus 4.6 ผู้ใช้สามารถเปิดใช้งานโหมดนี้ผ่านพารามิเตอร์ speed เพื่อให้ได้ความเร็วในการสร้างโทเค็นผลลัพธ์ที่เร็วขึ้นอย่างเห็นได้ชัด ภายใต้ราคาขั้นสูง ความเร็วสามารถเพิ่มขึ้นได้สูงสุด 2.5 เท่า

    • เอกสารทางการ: https://platform.claude.com/docs/en/build-with-claude/fast-mode

11 กุมภาพันธ์

  • 【โอเพ่นซอร์ส】InclusionAI เปิดตัว Ring-2.5-1T
    ทีมงานภายใต้ Ant Group (กลุ่มแอนท์) InclusionAI เปิดตัว Ring-2.5-1T ซึ่งเป็นรุ่นอัปเกรดของโมเดล Ring-1T จุดเด่นหลักคือ “เร็ว ลึก ยาว”: ประสิทธิภาพการสร้างเพิ่มขึ้นมากกว่า 3 เท่า ต้นทุนการเข้าถึงหน่วยความจำลดลง 10 เท่า มีความสามารถในการคิดเชิงลึก และสามารถประมวลผลงานต่อเนื่องได้นานถึง 2 ชั่วโมง โมเดลนี้เปิดเป็นโอเพ่นซอร์สสมบูรณ์ภายใต้สัญญา MIT

    • หน้าโมเดล: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T

12 กุมภาพันธ์

  • 【ปิดต้นทาง】OpenAI เปิดตัว GPT-5.3-Codex-Spark
    OpenAI เปิดตัวโมเดลความเร็วสูงพิเศษ GPT-5.3-Codex-Spark ซึ่งเป็นโมเดลแรกที่ออกแบบมาสำหรับการเขียนโปรแกรมแบบเรียลไทม์โดยเฉพาะ โมเดลนี้ได้รับการปรับให้เหมาะสมกับฮาร์ดแวร์ Cerebras WSE-3 โดยมีความเร็วในการอนุมานเกิน 1000 โทเค็น/วินาที รองรับคอนเท็กซ์ 128K และลดความล่าช้าลงอย่างมากผ่าน WebSocket ในขณะที่รักษาความสามารถทางตรรกะที่แข็งแกร่งไว้ ก็ยังให้ความเร็วในการอนุมานที่ยอดเยี่ยม

    • คำแนะนำทางการ: https://openai.com/index/introducing-gpt-5-3-codex-spark/
  • 【โอเพ่นซอร์ส】MiniMax เปิดตัว MiniMax M2.5
    MiniMax เปิดตัวโมเดล M2.5 ซึ่งสืบทอดข้อได้เปรียบด้านการร้องขอพร้อมกันสูงของสถาปัตยกรรม Mixture of Experts และเพิ่มความสามารถในการให้เหตุผลทั่วไปและการประมวลผลข้อความยาวขึ้นอย่างมีนัยสำคัญ โมเดลนี้ได้รับการปรับให้เหมาะสมสำหรับการสนทนาหลายรอบและสถานการณ์ตรรกะที่ซับซ้อนโดยเฉพาะ โดยมีเป้าหมายเพื่อมอบโซลูชันที่ผสมผสานความฉลาดสูงและคุ้มค่าให้กับองค์กร

    • ข่าวทางการ: https://minimaxi.com/news/minimax-m25
  • 【โอเพ่นซอร์ส】Zhipu AI เปิดตัว GLM-5
    Zhipu AI เปิดตัวโมเดลฝึกฝนล่วงหน้ารุ่นใหม่ GLM-5 โมเดลนี้มีการปรับปรุงอย่างมากในด้านตรรกะทางคณิตศาสตร์ การเขียนโค้ด และความสามารถในการทำความเข้าใจแบบมัลติโมดัล รองรับคอนเท็กซ์ยาวพิเศษ มีประสิทธิภาพดีเยี่ยมในการปฏิบัติตามคำสั่งและการวางแผนงานที่ซับซ้อน และปรับให้เข้ากับเฟรมเวิร์กการอนุมานต่างๆ ได้ลึกซึ้งเพื่อลดอุปสรรคในการปรับใช้

    • บล็อกทางการ: https://z.ai/blog/glm-5
  • 【ปิดต้นทาง】ByteDance เปิดตัว Seedance 2.0
    ByteDance เปิดตัวโมเดลสร้างสรรค์วิดีโอ Seedance 2.0 รุ่นใหม่ โมเดลนี้ใช้สถาปัตยกรรมมัลติโมดัลแบบรวมหนึ่งเดียว รองรับอินพุตแบบผสมผสานระหว่างภาพ ข้อความ เสียง และวิดีโอ คุณภาพการสร้างอยู่ในระดับแนวหน้าของอุตสาหกรรม รองรับการสร้างวิดีโอยาว 15 วินาทีและเสียงสเตอริโอ ช่วยเพิ่มความสามารถในการควบคุมและความสม่ำเสมอสำหรับการสร้างสรรค์ระดับอุตสาหกรรมได้อย่างมาก

    • หน้าเว็บทางการ: https://seed.bytedance.com/seedance2_0

13 กุมภาพันธ์

  • 【ปิดต้นทาง】ByteDance เปิดตัว Seedream 5.0 Lite
    ByteDance เปิดตัวโมเดลสร้างสรรค์ภาพอัจฉริยะ Seedream 5.0 Lite โมเดลนี้ได้นำความสามารถ “การคิดเชิงลึก” และการเสริมกำลังการค้นหาแบบเรียลไทม์มาใช้ เพิ่มความแม่นยำในการจัดตำแหน่งภาพและข้อความและการปฏิบัติตามกฎทางกายภาพผ่านสถาปัตยกรรมมัลติโมดัลแบบรวมหนึ่งเดียว สามารถทำความเข้าใจคำสั่งที่คลุมเครือและสร้างสรรค์โดยผสมผสานข้อมูลที่มีความทันสมัย

    • หน้าเว็บทางการ: https://seed.bytedance.com/en/seedream5_0_lite

14 กุมภาพันธ์

  • 【ปิดต้นทาง】ByteDance เปิดตัวชุดโมเดล Doubao Seed2.0
    ByteDance เปิดตัวชุดโมเดล Doubao Seed2.0 ซึ่งประกอบด้วยโมเดลเอเจนต์ทั่วไปสามรุ่น (Pro, Lite, Mini) และโมเดลโค้ดเฉพาะทางหนึ่งรุ่น ชุดนี้ให้ความสำคัญกับการเพิ่มประสิทธิภาพความสามารถในการทำความเข้าใจภาพและมัลติโมดัล การวิเคราะห์เนื้อหาเอกสาร ตาราง และวิดีโอที่ซับซ้อนมีความแม่นยำมากขึ้น และเพิ่มความน่าเชื่อถือในการดำเนินการคำสั่งที่ซับซ้อนที่มีข้อจำกัดหลายอย่างและเชื่อมโยงยาวได้อย่างมาก

    • หน้าเว็บทางการ: https://seed.bytedance.com/

16 กุมภาพันธ์

【โอเพ่นซอร์ส】อาลีเปิดตัวโมเดลมัลติโมดัลล่าสุด Qwen3.5-Plus
อาลีเปิดตัวโมเดลล่าสุด Qwen3.5-Plus ซึ่งรองรับอินพุตแบบมัลติโมดัลทั้งข้อความ ภาพ และวิดีโอ โมเดลนี้มีประสิทธิภาพยอดเยี่ยมในงานต่างๆ เช่น การทำความเข้าใจภาษา การให้เหตุผลเชิงตรรกะ การสร้างโค้ด งานเอเจนต์ การทำความเข้าใจภาพและวิดีโอ การดำเนินการกับส่วนติดต่อผู้ใช้แบบกราฟิก (GUI) และรองรับการเรียกใช้เครื่องมือในตัว

  • รายละเอียดโมเดล: https://help.aliyun.com/zh/model-studio/text-generation
  • ทดลองใช้โดยตรง: https://nonelinear.com/static/models.html

【โอเพ่นซอร์ส】Ant Group เปิดตัวโมเดลทันทีประสิทธิภาพสูง Ling-2.5-1T
ทีมงาน InclusionAI ของ Ant Group เปิดตัว Ling-2.5-1T ซึ่งเป็นโมเดลทันทีที่ทรงพลังที่สุดในตระกูล Ling (百灵) จนถึงปัจจุบัน โมเดลนี้สร้างสมดุลระหว่างประสิทธิภาพและผลลัพธ์ โดยใช้โทเค็นประมาณหนึ่งในสี่เพื่อเข้าใกล้ระดับการให้เหตุผลของโมเดลคิดขั้นสูง และเปิดเป็นโอเพ่นซอร์สสมบูรณ์ภายใต้สัญญา MIT

  • รายละเอียดโมเดล: https://modelscope.cn/models/inclusionAI/Ling-2.5-1T

19 กุมภาพันธ์

【ปิดต้นทาง】Google เปิดตัวรุ่นพรีวิว Gemini 3.1 Pro
Google เปิดตัวรุ่นพรีวิว Gemini 3.1 Pro ซึ่งเป็นการอัปเดตล่าสุดของซีรีส์ Gemini 3 ใหม่ทั้งหมด รุ่นนี้ให้ความสามารถในการให้เหตุผลเชิงความคิดที่แข็งแกร่งขึ้น ประสิทธิภาพการใช้โทเค็นที่สูงขึ้น และประสบการณ์ที่ใกล้เคียงความเป็นจริงและสอดคล้องกับข้อเท็จจริงมากขึ้น โมเดลได้รับการปรับให้เหมาะสมเป็นพิเศษสำหรับความน่าเชื่อถือของพฤติกรรมวิศวกรรมซอฟต์แวร์ เวิร์กโฟลว์ของเอเจนต์ และการใช้เครื่องมือหลายขั้นตอน

  • คำแนะนำทางการ: https://ai.google.dev/gemini-api/docs/models/gemini-3.1-pro-preview?hl=zh-cn
  • ทดลองใช้ในประเทศจีน: https://nonelinear.com/static/models.html

20 กุมภาพันธ์

【โอเพ่นซอร์ส】อาลีเปิดตัวโมเดลสร้างโค้ดรุ่นใหม่ Qwen3-Coder-Next
อาลีเปิดตัว Qwen3-Coder-Next ซึ่งเป็นโมเดลสร้างโค้ดโอเพ่นซอร์สรุ่นใหม่ของซีรีส์ Qwen3 โมเดลนี้รองรับการโต้ตอบเครื่องมือหลายรอบ เพิ่มความสามารถในการทำความเข้าใจโค้ดระดับรีพอซิทอรีได้อย่างมีนัยสำคัญ และเพิ่มความสามารถในการปรับให้เข้ากับเครื่องมือการเขียนโปรแกรม AI ต่างๆ

  • รายละเอียดโมเดล: https://help.aliyun.com/zh/model-studio/qwen-coder

25 กุมภาพันธ์


⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง

本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/23611

Like (0)
Previous 10 hours ago
Next 6 hours ago

相关推荐