ทีม Tongyi Qianwen ได้เปิดตัว Qwen3.6-27B ในวันที่ 22 เมษายน 2026 ซึ่งเป็นโมเดลโอเพ่นซอร์สตัวที่สองของซีรีส์ Qwen3.6 และเป็นเวอร์ชันโอเพ่นซอร์สเดียวของซีรีส์นี้ที่มีสถาปัตยกรรมแบบ Dense จนถึงปัจจุบัน น้ำหนักโมเดลได้ถูกอัปโหลดไปยัง Hugging Face และ ModelScope พร้อมทั้งสามารถทดลองใช้งานออนไลน์ผ่าน Qwen Studio ได้ และการเข้าถึงผ่าน API ของ Aliyun Bailian ก็จะเปิดให้บริการในเร็วๆ นี้

Qwen3.6-27B คืออะไร? แตกต่างจากรุ่นก่อนหน้าอย่างไร?
ตำแหน่งหลักของ Qwen3.6-27B คือ: บรรลุขีดความสามารถของเอเจนต์โค้ด ซึ่งก่อนหน้านี้ต้องใช้โมเดลขนาดหลายร้อยพารามิเตอร์ ด้วยขนาดพารามิเตอร์เพียง 27B ข้อมูลอย่างเป็นทางการแสดงให้เห็นว่า มันทำได้ดีกว่า Qwen3.5-397B-A17B อย่างครอบคลุมในการประเมินการเขียนโปรแกรมหลัก เช่น SWE-bench Verified, Terminal-Bench 2.0, SkillsBench โดยที่โมเดลหลังมีจำนวนพารามิเตอร์มากกว่าประมาณ 15 เท่า นี่เป็นการก้าวข้ามที่ชัดเจนในด้านประสิทธิภาพพารามิเตอร์ของซีรีส์ Qwen
เมื่อเทียบกับ Qwen3.5-27B รุ่นก่อนหน้าที่มีขนาดเดียวกัน Qwen3.6-27B ไม่ใช่การอัปเกรดที่ครอบคลุมทุกด้านอย่างเท่าเทียม แต่เป็นการพัฒนาที่เน้นทิศทางที่ชัดเจน: เอเจนต์โค้ด (Agentic Coding) และงานวิศวกรรมจริงคือจุดเน้นหลักของครั้งนี้ ในขณะที่ความสามารถด้านความรู้ทั่วไปโดยรวมอยู่ในระดับใกล้เคียงกัน

สถาปัตยกรรม Dense: การปรับใช้ตรงไปตรงมาและง่ายกว่า MoE
Qwen3.6-27B เป็นโมเดลแบบ Dense ซึ่งแตกต่างจาก Qwen3.6-35B-A3B (สถาปัตยกรรม MoE) ในซีรีส์เดียวกัน พารามิเตอร์ทั้งหมดของโมเดล Dense จะเข้าร่วมการคำนวณในทุกครั้งที่ทำการอนุมาน ไม่จำเป็นต้องกระจายงานแบบไดนามิกระหว่าง “โมดูลผู้เชี่ยวชาญ” หลายๆ ตัวเหมือนโมเดล MoE ทำให้การปรับใช้และการดีบั๊กตรงไปตรงมามากขึ้น เฟรมเวิร์กการอนุมานหลัก (เช่น vLLM, SGLang, llama.cpp) สามารถรองรับได้โดยตรง ซึ่งเป็นมิตรกับทีมที่ต้องการปรับใช้แบบส่วนตัวมากกว่า
ขนาดพารามิเตอร์ 27B ยังเป็นระดับที่ได้รับการปรับใช้อย่างกว้างขวางที่สุดในชุมชนโอเพ่นซอร์สในปัจจุบัน สภาพแวดล้อมการ์ดหลายใบระดับผู้บริโภค (เช่น การ์ด 24G สองใบ) สามารถรันเวอร์ชันควอนไทซ์ได้ นี่เป็นหนึ่งในเหตุผลทางปฏิบัติที่ทีมหลายทีมเลือกระหว่างสถาปัตยกรรม Dense และโมเดล MoE ที่ใหญ่กว่า
โหมดการคิดและการคงสภาพการคิด: ประวัติวิวัฒนาการของ “รวม → แยก → รวม”
Qwen3.6-27B รองรับ “โหมดการคิด” อีกครั้ง
ในยุค Qwen2.5 ความสามารถในการให้เหตุผลและความสามารถในการสนทนาถูกแบ่งออกเป็นโมเดลที่แยกจากกันโดยสิ้นเชิง: QwQ-32B รับผิดชอบการให้เหตุผลเชิงลึก ในขณะที่ซีรีส์ Qwen2.5-Instruct รับผิดชอบการสนทนาประจำวัน นักพัฒนาต้องสลับโมเดลตามประเภทของงาน Qwen3 (เมษายน 2025) เป็นครั้งแรกที่รวมสองโหมดนี้เข้าไว้ในโมเดลเดียวกัน โดยสามารถสลับระหว่างโหมดการให้เหตุผลและโหมดการสนทนาได้ด้วยคำสั่งพิเศษ /think และ /no_think โดยไม่ต้องเปลี่ยนโมเดล ซึ่งเป็นการก้าวหน้าทางวิศวกรรมที่มีความหมายในทางปฏิบัติ หมายความว่าความสามารถในการให้เหตุผลเชิงลึกและความสามารถในการสนทนาที่ลื่นไหลสามารถอยู่ร่วมกันในโมเดลเดียวกันได้โดยไม่รบกวนซึ่งกันและกัน
อย่างไรก็ตาม ในเดือนกรกฎาคม 2025 ทีม Qwen ได้เปิดตัวซีรีส์ Qwen3 Instruct ที่เน้นการให้เหตุผลล้วนๆ และไม่มีโหมดการคิด แต่ส่วนใหญ่เป็นเวอร์ชันสถาปัตยกรรม MoE
Qwen3.6 ยังคงสานต่อการที่โมเดล Dense รองรับทั้ง 2 โหมด คือโหมดคิดและไม่คิด พร้อมกันนี้ ได้เพิ่มกลไก การคงสภาพการคิด (Thinking Preservation) ขึ้นมา: ในสถานการณ์เอเจนต์ของการสนทนาหลายรอบ โมเดลสามารถเก็บรักษากระบวนการให้เหตุผลจากรอบก่อนหน้าไว้เพื่อใช้อ้างอิงในรอบต่อๆ ไปได้ แทนที่จะต้องให้เหตุผลใหม่ตั้งแต่ต้นทุกรอบ ซึ่งในสถานการณ์ต่างๆ เช่น การดีบั๊กโค้ด การแยกงานที่ซับซ้อนออกเป็นขั้นตอน สามารถลดการให้เหตุผลซ้ำซ้อน ล่าช้าในการตอบสนอง และการใช้โทเค็นได้อย่างเห็นได้ชัด
โมเดลรองรับคอนเท็กซ์ที่ยาวที่สุด 262,144 โทเค็น (ประมาณ 200,000 ตัวอักษร) และสามารถขยายได้ถึงประมาณ 1 ล้านโทเค็น ซึ่งเพียงพอที่จะบรรจุเนื้อหาของคลังโค้ดขนาดใหญ่ได้อย่างสมบูรณ์
มัลติโมดัลแบบเนทีฟ: ความเข้าใจที่เป็นเอกภาพสำหรับภาพ วิดีโอ และข้อความ
Qwen3.6-27B เป็นโมเดลมัลติโมดัลแบบเนทีฟ โมเดลเดียวกันรองรับการป้อนข้อมูลมัลติโมดัล เช่น ข้อความ รูปภาพ และแม้แต่วิดีโอ โดยไม่จำเป็นต้องจับคู่กับโมเดลวิทัศน์เพิ่มเติม รองรับงานต่างๆ เช่น การทำความเข้าใจเอกสาร การวิเคราะห์แผนภูมิ คำถาม-ตอบเกี่ยวกับภาพ การให้เหตุผลเชิงพื้นที่ เป็นต้น ความสามารถในการเข้าใจภาพยังรองรับทั้งโหมดคิดและไม่คิด ซึ่งสอดคล้องกับประสบการณ์การใช้งานด้านข้อความล้วน
ผลการประเมิน Qwen3.6: ความสามารถทั่วไปไม่เปลี่ยนแปลงอย่างเห็นได้ชัด แต่ระดับความสามารถของเอเจนต์เพิ่มขึ้นอย่างชัดเจน
จากข้อมูลการประเมิน Qwen3.6-27B มีประสิทธิภาพโดดเด่นในด้านการเขียนโปรแกรมและการให้เหตุผลทางคณิตศาสตร์ ด้านการเขียนโปรแกรม: LiveCodeBench 83.9 (อันดับที่ 13/112 จากทั้งหมด), SWE-bench Verified 77.2 (อันดับที่ 16/97), Terminal Bench 2.0 59.3 (อันดับที่ 14/36) ทั้งสามรายการทำได้ดีกว่า Qwen3.5-397B-A17B ซึ่งมีจำนวนพารามิเตอร์มากกว่า 15 เท่าอย่างครอบคลุม ด้านการให้เหตุผลทางคณิตศาสตร์ ได้คะแนน AIME 2026 94.1 ด้านความรู้ทั่วไป ได้คะแนน GPQA Diamond 87.8, MMLU Pro 86.2, C-Eval 91.4 ซึ่งเพิ่มขึ้นเล็กน้อยหรืออยู่ในระดับใกล้เคียงกับรุ่นก่อนหน้า
รายละเอียดดังแสดงในภาพต่อไปนี้:

เมื่อเปรียบเทียบกับคู่แข่งที่มีขนาดใกล้เคียงกัน ความสามารถโดยรวมอยู่ในระดับใกล้เคียงกับคู่แข่งหลัก แต่จุดเน้นของความสามารถแตกต่างกันไป
คะแนน HLE (การให้เหตุผลเชิงลึกของผู้เชี่ยวชาญระดับสูง) 24.0 ลดลงเล็กน้อยจาก 24.3 ของ Qwen3.5-27B ภายใต้เงื่อนไขเดียวกัน และยังคงมีช่องว่างเมื่อเทียบกับ 28.7 ของรุ่นก่อนหน้า 397B — ทิศทางความสามารถนี้ยังคงต้องได้รับการติดตามอย่างต่อเนื่องในเวอร์ชันต่อๆ ไป
Qwen 3.6-27B เป็นโอเพ่นซอร์สสมบูรณ์ สามารถใช้งานได้ฟรี
น้ำหนักโมเดลได้เผยแพร่สู่สาธารณะบน Hugging Face (Qwen/Qwen3.6-27B) และ ModelScope แล้ว รองรับการปรับใช้ด้วยตนเองผ่านเฟรมเวิร์กต่างๆ เช่น vLLM, SGLang แนะนำให้รักษาความยาวคอนเท็กซ์อย่างน้อย 128K โทเค็นขณะทำการอนุมาน เพื่อใช้ประโยชน์จากความสามารถในการให้เหตุผลของโหมดคิดได้อย่างเต็มที่ สามารถทดลองใช้งานออนไลน์ได้โดยตรงที่ Qwen Studio การเข้าถึงผ่าน API ของ Aliyun Bailian (ชื่อโมเดล qwen3.6-27b) กำลังอยู่ในระหว่างการเตรียมพร้อม และยังเข้ากันได้กับข้อกำหนดอินเทอร์เฟซทั้งสองแบบของ OpenAI และ Anthropic เพื่อความสะดวกในการเชื่อมต่อโดยตรงกับโครงการที่มีอยู่
แหล่งที่มาของข้อมูลในบทความนี้: บล็อกเผยแพร่อย่างเป็นทางการของ Qwen (22 เมษายน 2026) และฐานข้อมูลการประเมินของ DataLearner สำหรับแผนภูมิเปรียบเทียบคะแนนการประเมินและคู่แข่งแบบสมบูรณ์ โปรดดูที่หน้าวิเคราะห์การประเมิน Qwen3.6-27B
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/31545
