ตกลง ในฐานะบรรณาธิการทางเทคนิคมืออาชีพ ฉันได้ทำความสะอาดและเขียนใหม่ส่วนต้นฉบับตามข้อกำหนดของคุณ ด้านล่างนี้คือเนื้อหาที่เขียนใหม่แล้ว โดยแสดงผลโดยตรงในรูปแบบ Markdown

1 กุมภาพันธ์
- 【โอเพ่นซอร์ส】อาลี (Alibaba) เปิดตัว Qwen3-Coder-Next
อาลีเปิดตัวโมเดลเอเจนต์อัจฉริยะสำหรับการเขียนโปรแกรม Qwen3-Coder-Next โมเดลนี้ใช้สถาปัตยกรรม Mixture of Experts (MoE) โดยมีพารามิเตอร์ทั้งหมด 80 พันล้านตัว และเปิดใช้งานเพียง 3 พันล้านตัวต่อการอนุมานแต่ละครั้ง ในแบบทดสอบ SWE-Bench Verified อัตราการแก้ไขปัญหาของโมเดลนี้สูงกว่า 70% ซึ่งช่วยควบคุมต้นทุนการคำนวณได้อย่างมีประสิทธิภาพในขณะที่รักษาประสิทธิภาพสูง เหมาะสำหรับสถานการณ์การพัฒนาแบบโลคัลที่ไวต่อทรัพยากรการคำนวณ- บล็อกทางเทคนิค: https://qwen.ai/blog?id=qwen3-coder-next
2 กุมภาพันธ์
-
【ปิดต้นทาง】อาลีเปิดตัว Wan2.6-r2v-flash
อาลีเปิดตัวโมเดลสร้างวิดีโอ Wan2.6-r2v-flash โมเดลนี้สามารถสร้างวิดีโอหลายช็อตของตัวละครเฉพาะจากวิดีโออ้างอิงและภาพ และรองรับการพากย์เสียงอัตโนมัติ- เอกสารทางการ: https://help.aliyun.com/zh/model-studio/wan-video-to-video-api-reference
-
【โอเพ่นซอร์ส】StepFun (阶跃星辰) เปิดตัว Step 3.5 Flash
StepFun เปิดตัวโมเดลพื้นฐานความเร็วสูง Step 3.5 Flash ที่ออกแบบมาสำหรับเอเจนต์โดยเฉพาะ โมเดลนี้ใช้สถาปัตยกรรม Sparse Mixture of Experts (SMoE) โดยมีพารามิเตอร์ทั้งหมด 196 พันล้านตัว และเปิดใช้งานเพียง 11 พันล้านตัวต่อการอนุมานแต่ละครั้ง รองรับคอนเท็กซ์ยาวพิเศษ 256K ร่วมกับเทคโนโลยีการทำนายหลายโทเค็นในครั้งเดียวที่เป็นเอกลักษณ์ของบริษัท ความเร็วในการอนุมานสูงสุดถึง 350 TPS ซึ่งช่วยลดความล่าช้าในการตอบสนองของแอปพลิเคชันเอเจนต์ได้อย่างมีนัยสำคัญ ในขณะที่ยังคงความสามารถในการให้เหตุผลทางคณิตศาสตร์ที่ซับซ้อน- บล็อกทางการ: https://static.stepfun.com/blog/step-3.5-flash/
-
【ปิดต้นทาง】xAI เปิดตัว Grok Imagine 1.0
xAI เปิดตัวโมเดลสร้างวิดีโอ Grok Imagine 1.0 อย่างเป็นทางการ ก้าวเข้าสู่แวดวงการสร้างวิดีโอ โมเดลนี้สามารถสร้างวิดีโอได้ยาวสุด 10 วินาที ความละเอียดสูงถึง 720p จุดเด่นหลักอยู่ที่การใช้เทคโนโลยีการสร้างแบบจำลองร่วมกันของเสียงและวิดีโอ ซึ่งทำให้เกิดการจัดตำแหน่งภาพและเสียงที่แม่นยำและการสังเคราะห์เสียงที่แสดงออกได้ดี- ประกาศทางการ: https://x.ai/news/grok-imagine-api
3 กุมภาพันธ์
- 【โอเพ่นซอร์ส】Zhipu AI (智谱 AI) เปิดตัว GLM-OCR
Zhipu AI เปิดตัวโมเดล OCR แบบมัลติโมดัล GLM-OCR สำหรับการทำความเข้าใจเอกสารที่ซับซ้อน โมเดลนี้ใช้สถาปัตยกรรม Encoder-Decoder ของ GLM-V โดยการนำการสูญเสียจากการทำนายหลายโทเค็นและการเรียนรู้เสริมแบบเต็มงานที่เสถียรมาใช้ ช่วยเพิ่มประสิทธิภาพการฝึก ความแม่นยำในการจดจำ และความสามารถในการปรับใช้ทั่วไป โมเดลมีพารามิเตอร์เพียง 900 ล้านตัว อยู่ในอันดับที่หนึ่งในการทดสอบมาตรฐาน OmniDocBench V1.5 และรองรับการปรับใช้กับเฟรมเวิร์กการอนุมานหลักหลายชนิด เหมาะสำหรับบริการที่มีการร้องขอพร้อมกันสูงและสถานการณ์การคำนวณแบบเอ็ดจ์- หน้าโมเดล: https://huggingface.co/zai-org/GLM-OCR
5 กุมภาพันธ์
-
【ปิดต้นทาง】Anthropic เปิดตัว Claude Opus 4.6
Anthropic เปิดตัวโมเดลที่ฉลาดที่สุดของพวกเขา Claude Opus 4.6 ซึ่งออกแบบมาสำหรับงานเอเจนต์ที่ซับซ้อนและเวิร์กโฟลว์ระยะยาว รุ่นนี้แนะนำให้ใช้โหมดการคิดแบบปรับตัว โหมดการคิดด้วยตนเองถูกเลิกใช้แล้ว และไม่รองรับการเติมข้อความของผู้ช่วยล่วงหน้าอีกต่อไป- ข่าวทางการ: https://www.anthropic.com/news/claude-opus-4-6
-
【ปิดต้นทาง】OpenAI เปิดตัว GPT-5.3-Codex
OpenAI เปิดตัวโมเดลการเข้ารหัสเอเจนต์ที่ทรงพลังที่สุดของพวกเขา GPT-5.3-Codex โมเดลนี้เป็นการรวมสแต็กการฝึกของ Codex และ GPT-5 เป็นครั้งแรก ผสมผสานความสามารถในการสร้างโค้ด การให้เหตุผล และความฉลาดทั่วไประดับสูงสุด ความเร็วในการให้เหตุผลเพิ่มขึ้นประมาณ 25% ทำสถิติใหม่ในการทดสอบมาตรฐานสำคัญ และก้าวข้ามจากการสร้างโค้ดไปสู่เอเจนต์การเขียนโปรแกรมอัจฉริยะทั่วไปแบบชี้นำเชิงรุก- คำแนะนำทางการ: https://openai.com/zh-Hans-CN/index/introducing-gpt-5-3-codex/
7 กุมภาพันธ์
- 【ปิดต้นทาง】Anthropic เปิดตัวรุ่นพรีวิววิจัย Fast Mode
Anthropic เปิดตัวรุ่นพรีวิววิจัย Fast Mode สำหรับโมเดล Claude Opus 4.6 ผู้ใช้สามารถเปิดใช้งานโหมดนี้ผ่านพารามิเตอร์speedเพื่อให้ได้ความเร็วในการสร้างโทเค็นผลลัพธ์ที่เร็วขึ้นอย่างเห็นได้ชัด ภายใต้ราคาขั้นสูง ความเร็วสามารถเพิ่มขึ้นได้สูงสุด 2.5 เท่า- เอกสารทางการ: https://platform.claude.com/docs/en/build-with-claude/fast-mode
11 กุมภาพันธ์
- 【โอเพ่นซอร์ส】InclusionAI เปิดตัว Ring-2.5-1T
ทีมงานภายใต้ Ant Group (กลุ่มแอนท์) InclusionAI เปิดตัว Ring-2.5-1T ซึ่งเป็นรุ่นอัปเกรดของโมเดล Ring-1T จุดเด่นหลักคือ “เร็ว ลึก ยาว”: ประสิทธิภาพการสร้างเพิ่มขึ้นมากกว่า 3 เท่า ต้นทุนการเข้าถึงหน่วยความจำลดลง 10 เท่า มีความสามารถในการคิดเชิงลึก และสามารถประมวลผลงานต่อเนื่องได้นานถึง 2 ชั่วโมง โมเดลนี้เปิดเป็นโอเพ่นซอร์สสมบูรณ์ภายใต้สัญญา MIT- หน้าโมเดล: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
12 กุมภาพันธ์
-
【ปิดต้นทาง】OpenAI เปิดตัว GPT-5.3-Codex-Spark
OpenAI เปิดตัวโมเดลความเร็วสูงพิเศษ GPT-5.3-Codex-Spark ซึ่งเป็นโมเดลแรกที่ออกแบบมาสำหรับการเขียนโปรแกรมแบบเรียลไทม์โดยเฉพาะ โมเดลนี้ได้รับการปรับให้เหมาะสมกับฮาร์ดแวร์ Cerebras WSE-3 โดยมีความเร็วในการอนุมานเกิน 1000 โทเค็น/วินาที รองรับคอนเท็กซ์ 128K และลดความล่าช้าลงอย่างมากผ่าน WebSocket ในขณะที่รักษาความสามารถทางตรรกะที่แข็งแกร่งไว้ ก็ยังให้ความเร็วในการอนุมานที่ยอดเยี่ยม- คำแนะนำทางการ: https://openai.com/index/introducing-gpt-5-3-codex-spark/
-
【โอเพ่นซอร์ส】MiniMax เปิดตัว MiniMax M2.5
MiniMax เปิดตัวโมเดล M2.5 ซึ่งสืบทอดข้อได้เปรียบด้านการร้องขอพร้อมกันสูงของสถาปัตยกรรม Mixture of Experts และเพิ่มความสามารถในการให้เหตุผลทั่วไปและการประมวลผลข้อความยาวขึ้นอย่างมีนัยสำคัญ โมเดลนี้ได้รับการปรับให้เหมาะสมสำหรับการสนทนาหลายรอบและสถานการณ์ตรรกะที่ซับซ้อนโดยเฉพาะ โดยมีเป้าหมายเพื่อมอบโซลูชันที่ผสมผสานความฉลาดสูงและคุ้มค่าให้กับองค์กร- ข่าวทางการ: https://minimaxi.com/news/minimax-m25
-
【โอเพ่นซอร์ส】Zhipu AI เปิดตัว GLM-5
Zhipu AI เปิดตัวโมเดลฝึกฝนล่วงหน้ารุ่นใหม่ GLM-5 โมเดลนี้มีการปรับปรุงอย่างมากในด้านตรรกะทางคณิตศาสตร์ การเขียนโค้ด และความสามารถในการทำความเข้าใจแบบมัลติโมดัล รองรับคอนเท็กซ์ยาวพิเศษ มีประสิทธิภาพดีเยี่ยมในการปฏิบัติตามคำสั่งและการวางแผนงานที่ซับซ้อน และปรับให้เข้ากับเฟรมเวิร์กการอนุมานต่างๆ ได้ลึกซึ้งเพื่อลดอุปสรรคในการปรับใช้- บล็อกทางการ: https://z.ai/blog/glm-5
-
【ปิดต้นทาง】ByteDance เปิดตัว Seedance 2.0
ByteDance เปิดตัวโมเดลสร้างสรรค์วิดีโอ Seedance 2.0 รุ่นใหม่ โมเดลนี้ใช้สถาปัตยกรรมมัลติโมดัลแบบรวมหนึ่งเดียว รองรับอินพุตแบบผสมผสานระหว่างภาพ ข้อความ เสียง และวิดีโอ คุณภาพการสร้างอยู่ในระดับแนวหน้าของอุตสาหกรรม รองรับการสร้างวิดีโอยาว 15 วินาทีและเสียงสเตอริโอ ช่วยเพิ่มความสามารถในการควบคุมและความสม่ำเสมอสำหรับการสร้างสรรค์ระดับอุตสาหกรรมได้อย่างมาก- หน้าเว็บทางการ: https://seed.bytedance.com/seedance2_0
13 กุมภาพันธ์
- 【ปิดต้นทาง】ByteDance เปิดตัว Seedream 5.0 Lite
ByteDance เปิดตัวโมเดลสร้างสรรค์ภาพอัจฉริยะ Seedream 5.0 Lite โมเดลนี้ได้นำความสามารถ “การคิดเชิงลึก” และการเสริมกำลังการค้นหาแบบเรียลไทม์มาใช้ เพิ่มความแม่นยำในการจัดตำแหน่งภาพและข้อความและการปฏิบัติตามกฎทางกายภาพผ่านสถาปัตยกรรมมัลติโมดัลแบบรวมหนึ่งเดียว สามารถทำความเข้าใจคำสั่งที่คลุมเครือและสร้างสรรค์โดยผสมผสานข้อมูลที่มีความทันสมัย- หน้าเว็บทางการ: https://seed.bytedance.com/en/seedream5_0_lite
14 กุมภาพันธ์
- 【ปิดต้นทาง】ByteDance เปิดตัวชุดโมเดล Doubao Seed2.0
ByteDance เปิดตัวชุดโมเดล Doubao Seed2.0 ซึ่งประกอบด้วยโมเดลเอเจนต์ทั่วไปสามรุ่น (Pro, Lite, Mini) และโมเดลโค้ดเฉพาะทางหนึ่งรุ่น ชุดนี้ให้ความสำคัญกับการเพิ่มประสิทธิภาพความสามารถในการทำความเข้าใจภาพและมัลติโมดัล การวิเคราะห์เนื้อหาเอกสาร ตาราง และวิดีโอที่ซับซ้อนมีความแม่นยำมากขึ้น และเพิ่มความน่าเชื่อถือในการดำเนินการคำสั่งที่ซับซ้อนที่มีข้อจำกัดหลายอย่างและเชื่อมโยงยาวได้อย่างมาก- หน้าเว็บทางการ: https://seed.bytedance.com/
16 กุมภาพันธ์
【โอเพ่นซอร์ส】อาลีเปิดตัวโมเดลมัลติโมดัลล่าสุด Qwen3.5-Plus
อาลีเปิดตัวโมเดลล่าสุด Qwen3.5-Plus ซึ่งรองรับอินพุตแบบมัลติโมดัลทั้งข้อความ ภาพ และวิดีโอ โมเดลนี้มีประสิทธิภาพยอดเยี่ยมในงานต่างๆ เช่น การทำความเข้าใจภาษา การให้เหตุผลเชิงตรรกะ การสร้างโค้ด งานเอเจนต์ การทำความเข้าใจภาพและวิดีโอ การดำเนินการกับส่วนติดต่อผู้ใช้แบบกราฟิก (GUI) และรองรับการเรียกใช้เครื่องมือในตัว
- รายละเอียดโมเดล: https://help.aliyun.com/zh/model-studio/text-generation
- ทดลองใช้โดยตรง: https://nonelinear.com/static/models.html
【โอเพ่นซอร์ส】Ant Group เปิดตัวโมเดลทันทีประสิทธิภาพสูง Ling-2.5-1T
ทีมงาน InclusionAI ของ Ant Group เปิดตัว Ling-2.5-1T ซึ่งเป็นโมเดลทันทีที่ทรงพลังที่สุดในตระกูล Ling (百灵) จนถึงปัจจุบัน โมเดลนี้สร้างสมดุลระหว่างประสิทธิภาพและผลลัพธ์ โดยใช้โทเค็นประมาณหนึ่งในสี่เพื่อเข้าใกล้ระดับการให้เหตุผลของโมเดลคิดขั้นสูง และเปิดเป็นโอเพ่นซอร์สสมบูรณ์ภายใต้สัญญา MIT
- รายละเอียดโมเดล: https://modelscope.cn/models/inclusionAI/Ling-2.5-1T
19 กุมภาพันธ์
【ปิดต้นทาง】Google เปิดตัวรุ่นพรีวิว Gemini 3.1 Pro
Google เปิดตัวรุ่นพรีวิว Gemini 3.1 Pro ซึ่งเป็นการอัปเดตล่าสุดของซีรีส์ Gemini 3 ใหม่ทั้งหมด รุ่นนี้ให้ความสามารถในการให้เหตุผลเชิงความคิดที่แข็งแกร่งขึ้น ประสิทธิภาพการใช้โทเค็นที่สูงขึ้น และประสบการณ์ที่ใกล้เคียงความเป็นจริงและสอดคล้องกับข้อเท็จจริงมากขึ้น โมเดลได้รับการปรับให้เหมาะสมเป็นพิเศษสำหรับความน่าเชื่อถือของพฤติกรรมวิศวกรรมซอฟต์แวร์ เวิร์กโฟลว์ของเอเจนต์ และการใช้เครื่องมือหลายขั้นตอน
- คำแนะนำทางการ: https://ai.google.dev/gemini-api/docs/models/gemini-3.1-pro-preview?hl=zh-cn
- ทดลองใช้ในประเทศจีน: https://nonelinear.com/static/models.html
20 กุมภาพันธ์
【โอเพ่นซอร์ส】อาลีเปิดตัวโมเดลสร้างโค้ดรุ่นใหม่ Qwen3-Coder-Next
อาลีเปิดตัว Qwen3-Coder-Next ซึ่งเป็นโมเดลสร้างโค้ดโอเพ่นซอร์สรุ่นใหม่ของซีรีส์ Qwen3 โมเดลนี้รองรับการโต้ตอบเครื่องมือหลายรอบ เพิ่มความสามารถในการทำความเข้าใจโค้ดระดับรีพอซิทอรีได้อย่างมีนัยสำคัญ และเพิ่มความสามารถในการปรับให้เข้ากับเครื่องมือการเขียนโปรแกรม AI ต่างๆ
- รายละเอียดโมเดล: https://help.aliyun.com/zh/model-studio/qwen-coder
25 กุมภาพันธ์
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/23611
