การวิเคราะห์เชิงลึกเกี่ยวกับสวิตช์ CPO ของ NVIDIA: ก้าวข้ามข้อจำกัดด้านพลังประมวลผล AI และนำการปฏิวัติการเชื่อมต่อโรงงาน AI ระดับกิกะวัตต์

การวิเคราะห์เชิงลึกเกี่ยวกับสวิตช์ CPO ของ NVIDIA: ก้าวข้ามข้อจำกัดด้านพลังประมวลผล AI และนำการปฏิวัติการเชื่อมต่อโรงงาน AI ระดับกิกะวัตต์

เมื่อวันที่ 3 กุมภาพันธ์ 2026 NVIDIA ได้จัดสัมมนาออนไลน์ในหัวข้อ “สวิตช์ CPO (Co-Packaged Silicon Photonics) สำหรับโรงงาน AI ระดับ Gigawatt” ซึ่งทำให้เทคโนโลยี CPO กลับมาอยู่ในตำแหน่งศูนย์กลางของโครงสร้างพื้นฐานด้านพลังการคำนวณ AI อีกครั้ง

การสัมมนาครั้งนี้ไม่ใช่เพียงการทบทวนเทคโนโลยีอย่างง่าย แต่เป็นแผนการอัปเกรดแบบบูรณาการ “พลังการคำนวณ-การเชื่อมต่อ” ที่ NVIDIA เสนอเพื่อแก้ไขจุดบกพร่องในอุตสาหกรรมสำหรับการฝึกฝนโมเดล AI ขนาดใหญ่และการอนุมานแบบเรียลไทม์ เมื่อรวมกับการเตรียมการก่อนหน้านี้ในงาน CES เกี่ยวกับการเชื่อมต่อ Scale-out ของสวิตช์อีเธอร์เน็ต Spectrum ในแพลตฟอร์ม Rubin ผ่าน CPO ยิ่งยืนยันถึงคุณค่าทางกลยุทธ์ของ CPO ในฐานะ “ฐานรากหลัก” สำหรับการขยายขอบเขตพลังการคำนวณ AI และยังบ่งชี้ว่าโครงสร้างการเชื่อมต่อของโรงงาน AI ระดับ Gigawatt ได้เข้าสู่ขั้นตอนการนำไปปฏิบัติจริงแล้ว

1. พื้นหลังหลัก: การระเบิดของพลังการคำนวณ AI ผลักดันให้เกิดความก้าวหน้าทางเทคโนโลยีการเชื่อมต่อ CPO กลายเป็นหนทางที่หลีกเลี่ยงไม่ได้

ปัจจุบัน อุตสาหกรรม AI กำลังก้าวข้ามจากการ “พัฒนาพลังการคำนวณแบบจุดเดียว” ไปสู่ “การปลดปล่อยพลังการคำนวณแบบคลัสเตอร์ขนาดใหญ่” GPT-4 มีพารามิเตอร์ถึง 1.8 ล้านล้าน คาดว่า GPT-5 จะเกิน 10 ล้านล้าน คลัสเตอร์ฝึกฝนโมเดลชั้นนำอย่าง Grok-3 ถึงระดับ GPU 200,000 ตัว ผู้ให้บริการคลาวด์ในประเทศจีนอย่าง Alibaba, Baidu ก็มีความสามารถรองรับคลัสเตอร์ 100,000 ตัวแล้ว คลัสเตอร์ฝึกฝน GPU 10,000 ตัวกลายเป็น “เส้นผ่านเกณฑ์” สำหรับผู้เล่นหลักในวงการ AIGC

ความต้องการพลังการคำนวณที่เติบโตแบบทวีคูณนี้ ไม่เพียงแต่สร้างความต้องการที่สูงขึ้นต่อประสิทธิภาพของ GPU เอง แต่ยังสร้างความท้าทายอย่างมากต่อโครงสร้างการเชื่อมต่อภายในศูนย์ข้อมูล — โมดูลออปติคัลแบบถอดได้แบบดั้งเดิมกำลังเข้าใกล้ขีดจำกัดทางกายภาพในด้านการใช้พลังงาน ความสมบูรณ์ของสัญญาณ และความหนาแน่นของ I/O กลายเป็น “คอขวด” ที่จำกัดการปลดปล่อยพลังการคำนวณ AI

โรงงาน AI ระดับ Gigawatt โดยพื้นฐานแล้วคือการทำให้คลัสเตอร์พลังการคำนวณ AI ขนาดใหญ่มากเป็นรูปธรรม ลักษณะหลักคือ “ความหนาแน่นสูง แบนด์วิดท์สูง ความหน่วงต่ำ การใช้พลังงานต่ำ” แต่โครงสร้างแบบแยกส่วนระหว่างสวิตช์และโมดูลออปติคัลแบบดั้งเดิม ไม่สามารถตอบสนองความต้องการหลักทั้งสี่นี้ได้อีกต่อไป

ข้อมูลแสดงให้เห็นว่า ที่อัตราการส่งข้อมูล 1.6 Tbps โมดูลออปติคัลแบบถอดได้แบบดั้งเดิมใช้พลังงานประมาณ 30W ในขณะที่โซลูชัน CPO สามารถลดการใช้พลังงานลงเหลือ 9W ได้อย่างมาก ซึ่งลดลง 70% ในขณะเดียวกัน การสูญเสียสัญญาณและความหน่วงของโครงสร้างแบบดั้งเดิม ก็ยากที่จะตอบสนองความต้องการระดับมิลลิวินาทีของการอนุมาน AI แบบเรียลไทม์

ในบริบทนี้ เทคโนโลยี Co-Packaged Silicon Photonics (CPO) ที่รวมเอ็นจิ้นออปติคัลและชิปสวิตช์ไว้ในแพ็คเกจเดียวกัน ทำให้เกิดนวัตกรรมโครงสร้าง “การรวมตัวของแสงและไฟฟ้า” กลายเป็นเส้นทางเทคโนโลยีที่แน่นอนในการก้าวข้าม “กำแพงแบนด์วิดท์” และ “กำแพงพลังงาน” ของพลังการคำนวณ AI นี่คือเหตุผลหลักที่ NVIDIA มุ่งเน้นเทคโนโลยี CPO อย่างต่อเนื่อง

2. การวิเคราะห์เทคโนโลยีเชิงลึก: ความก้าวหน้าหลักและตรรกะพื้นฐานของสวิตช์ CPO ของ NVIDIA

สวิตช์ CPO ที่ NVIDIA เปิดเผยเป็นพิเศษในการสัมมนาครั้งนี้ ไม่ใช่เพียงการรวมเทคโนโลยีอย่างง่าย แต่เป็นการออกแบบเฉพาะเชิงลึกตามระบบนิเวศ GPU และเทคโนโลยีชิปสวิตช์ของตัวเอง ความก้าวหน้าหลัก集中在สามมิติ

2.1 โครงสร้างเทคโนโลยีหลัก: MRM Micro-Ring Modulator + การแพ็คเกจ 3D บรรลุความก้าวหน้าทั้งด้านประสิทธิภาพและความหนาแน่น

การสนับสนุนเทคโนโลยีหลักของสวิตช์ CPO ของ NVIDIA คือ MRM (Micro-Ring Modulator) Silicon Photonic Engine ที่พัฒนาขึ้นเอง เทคโนโลยีนี้ผ่านความร่วมมือเชิงลึกกับ TSMC ได้แก้ไขปัญหาการผลิต MRM ในระดับการผลิตขนาดใหญ่ได้สำเร็จ รวมถึงการควบคุมความแม่นยำในการผลิต การบรรเทาความไวต่อความร้อน และความสม่ำเสมอของการมอดูเลตความเร็วสูง ซึ่งเป็นจุดบกพร่องสำคัญ บรรลุการผลิตขนาดใหญ่ที่เสถียรและทำซ้ำได้

ต่างจาก Mach-Zehnder Modulator (MZM) ที่ Broadcom ใช้ MRM Micro-Ring Modulator ของ NVIDIA มีข้อได้เปรียบหลักคือโครงสร้างกะทัดรัด ประสิทธิภาพการควบคุมความร้อนดีเยี่ยม ความยาวพื้นที่มอดูเลตน้อยกว่า 50μm ความผันผวนของประสิทธิภาพการมอดูเลตภายใต้อุณหภูมิแวดล้อม -40~85°C น้อยกว่า 5% สามารถสร้างช่องทางการเชื่อมต่อออปติคัลความหนาแน่นสูงมากในพื้นที่ทางกายภาพที่เล็กมาก

ในด้านสถาปัตยกรรมการแพ็คเกจ NVIDIA ใช้โซลูชันการแพ็คเกจ 3D โดยวางชิปอิเล็กทรอนิกส์ไว้เหนือชิปโฟโทนิกส์ ก่อให้เกิดโครงสร้างการรวมตัวแบบเฮเทอโรจีเนียสที่ตั้งฉากและกะทัดรัด ลดระยะทางทางกายภาพระหว่างเอ็นจิ้นออปติคัลและวงจรขับเคลื่อนชิปสวิตช์ลงอย่างมาก ลดการสูญเสียสัญญาณและความหน่วงได้อย่างมีประสิทธิภาพ

โดยเฉพาะ สวิตช์ CPO ซีรีส์ Quantum-X Photonics ของ NVIDIA ติดตั้งชิปสวิตช์ ASIC Quantum-X800 จำนวน 4 ชิ้นที่มี吞吐量สูงสุด 28.8T ความจุสวิตช์โดยรวมสูงถึง 115.2T; ชิป ASIC เดียวจับคู่กับเอ็นจิ้นออปติคัล 3.2T จำนวน 9 กลุ่ม แต่ละเอ็นจิ้นออปติคัลใช้ MRM Micro-Ring Modulator แบบ PAM4 200Gb/s สามารถประหยัดพลังงานได้ 3.5 เท่า ELS (External Light Source) เดียวสามารถรองรับ 32 ช่องจาก 576 ช่องส่งของสวิตช์ Quantum-X ให้แหล่งกำเนิดแสงที่เสถียรและกระจายตัวสำหรับเอ็นจิ้นออปติคัล CPO บรรลุความหนาแน่นแบนด์วิดท์สูง

2.2 การทำงานร่วมกันของระบบนิเวศ: NVLink + Spectrum-X Ethernet สร้างระบบการเชื่อมต่อพลังการคำนวณแบบ end-to-end

สวิตช์ CPO ที่ NVIDIA เปิดตัวในครั้งนี้ ไม่ใช่ผลิตภัณฑ์ฮาร์ดแวร์ที่แยกขาด แต่ทำงานร่วมกันอย่างลึกซึ้งกับเทคโนโลยีการเชื่อมต่อ NVLink และสวิตช์อีเธอร์เน็ต Spectrum-X ของตน สร้างระบบการเชื่อมต่อพลังการคำนวณแบบ end-to-end “GPU-สวิตช์-การเชื่อมต่อออปติคัล” นี่คือความสามารถในการแข่งขันหลักที่แตกต่างจากโซลูชัน CPO ของผู้ผลิตรายอื่น

ในการสัมมนาระบุชัดเจนว่า ศูนย์ข้อมูลสามารถบรรลุประสิทธิภาพการเชื่อมต่อระดับซูเปอร์คอมพิวเตอร์ผ่านการปรับใช้ร่วมกันของสวิตช์โฟโทนิกส์ NVLink และอีเธอร์เน็ต Spectrum-X ของ NVIDIA เพื่อตอบสนองความต้องการการจัดตารางพลังการคำนวณของโรงงาน AI ระดับ Gigawatt

ในนั้น NVLink ในฐานะเทคโนโลยีการเชื่อมต่อความเร็วสูงระหว่าง GPU ของ NVIDIA รับผิดชอบการสื่อสารความหน่วงต่ำ แบนด์วิดท์สูงระหว่าง GPU ภายในคลัสเตอร์เดียว ในขณะที่สวิตช์ CPO ผ่านอีเธอร์เน็ต Spectrum-X ทำให้เกิดการขยายแนวนอน Scale-out ระหว่างคลัสเตอร์ GPU หลายคลัสเตอร์ ทั้งสองทำงานร่วมกันสร้างสถาปัตยกรรมการเชื่อมต่อแบบ “รวมกลุ่มแนวตั้ง ขยายแนวนอน”

ก่อนหน้านี้ แพลตฟอร์ม Rubin ที่ NVIDIA นำเสนอเป็นพิเศษในงาน CES ได้ระบุชัดเจนว่าสวิตช์อีเธอร์เน็ต Spectrum จะเชื่อมต่อ Scale-out ผ่าน CPO การสัมมนาครั้งนี้ได้ขยายเส้นทางการนำไปปฏิบัติของสถาปัตยกรรมนี้ — สวิตช์ Spectrum-X Ethernet Photonics จะใช้โมดูล ELS เดียวกันกับ Quantum-X รุ่นชิป ASIC เดียวใช้โมดูล 16 ชิ้น รุ่นสี่ชิป ASIC ใช้โมดูล 64 ชิ้น เพื่อบรรลุการเชื่อมต่อความเร็วสูงระหว่างคลัสเตอร์

พร้อมกันนี้ ร่วมกับร่าง “AI Transport” ที่เผยแพร่โดย UEC (Ultra Ethernet Consortium) อีเธอร์เน็ต Spectrum-X ของ NVIDIA ได้แนะนำเทคโนโลยีหลายเส้นทาง การส่งซ้ำแบบเลือกได้ ฯลฯ ในชั้น MAC ทำให้เวลาเสร็จสิ้นโฟลว์การฝึก AI (JCT) ลดลงเหลือภายใน 1.2× ของ InfiniBand

2.3 การปรับปรุงการใช้พลังงานและการระบายความร้อน: การรับประกันหลักสำหรับสถานการณ์ระดับ Gigawatt

หนึ่งในจุดบกพร่องหลักของโรงงาน AI ระดับ Gigawatt คือการควบคุมการใช้พลังงานและการระบายความร้อน — การใช้พลังงานของสวิตช์แบบบ็อกซ์ 51.2T เครื่องเดียวเกิน 700W แล้ว ความหนาแน่นพลังงานต่อพื้นที่ 1U ถึง 6000W·m⁻² วิธีการระบายความร้อนด้วยลมแบบดั้งเดิมเกินขีดจำกัดแล้ว

สวิตช์ CPO ของ NVIDIA ผ่านสถาปัตยกรรม “การรวมตัวของแสงและไฟฟ้า” และการประยุกต์ใช้ MRM Micro-Ring Modulator บรรลุความก้าวหน้าที่สำคัญในการควบคุมการใช้พลังงาน: ตัวอย่างเช่น คลัสเตอร์ GB300 NVL72 ที่ใช้เทคโนโลยี CPO สามารถลดการใช้พลังงานของทรานซีฟเวอร์เครือข่าย 3 ชั้นลง 84% ลดการใช้พลังงานเครือข่ายทั้งหมดลง 23% บรรเทาความกดดันด้านพลังงานของโรงงาน AI ลงอย่างมาก

พร้อมกันนี้ การออกแบบแพ็คเกจของสวิตช์ CPO ของ NVIDIA ปรับให้เข้ากับเทคโนโลยีหล่อเย็นด้วยของเหลวได้อย่างเต็มที่ และหล่อเย็นด้วยของเหลวได้เปลี่ยนจาก “ตัวเลือก” เป็น “ข้อบังคับ” สำหรับศูนย์ข้อมูล AI — คลัสเตอร์ AI ใหม่ของ Meta ในปี 2025 ใช้ Cold Plate Liquid Cooling 100% ศูนย์กลาง “Eastern Data Western Computing” ของจีนกำหนดให้ PUE <1.15 หล่อเย็นด้วยของเหลวกลายเป็นเกณฑ์การประมูลสำหรับสวิตช์ 400G/800G

NVIDIA ผ่านความร่วมมือกับห่วงโซ่อุปทานทั้งต้นน้ำและปลายน้ำ ทำให้สวิตช์ CPO สามารถปรับใช้ได้อย่างราบรื่นกับโซลูชันหล่อเย็นด้วยของเหลวมาตรฐาน OCP Open Cooling ร่วมกับอุปกรณ์เช่น Optical Cold Plate, CDU เพิ่มประสิทธิภาพการระบายความร้อนให้ดียิ่งขึ้น เป็นการรับประกันหลักสำหรับการปรับใช้ในระดับของโรงงาน AI ระดับ Gigawatt

3. ความสัมพันธ์สำคัญ: การวิเคราะห์เชิงปริมาณของการอัปเกรดพลังการคำนวณ GPU และความจุของสวิตช์

ตัวนำหลักของพลังการคำนวณ AI คือ GPU และสวิตช์ในฐานะ “ศูนย์กลางการสื่อสาร” ของคลัสเตอร์ GPU ความต้องการความจุพอร์ตและแบนด์วิดท์มีความสัมพันธ์เชิงบวกอย่างเคร่งครัดกับพลังการคำนวณและจำนวนของ GPU การอัปเกรดร่วมกันของทั้งสองเป็นกุญแจสำคัญในการนำโรงงาน AI ระดับ Gigawatt ไปปฏิบัติ

รวมข้อมูลอุตสาหกรรมและโซลูชันเทคโนโลยีของ NVIDIA เราวิเคราะห์ผลกระทบหลักของพลังการคำนวณ GPU ต่อความจุของสวิตช์จากมุมมองเชิงปริมาณ

3.1 การเพิ่มพลังการคำนวณ GPU เดี่ยว ผลักดันการอัปเกรดอัตราพอร์ตสวิตช์โดยตรง

เมื่อกระบวนการผลิต GPU พัฒนาขึ้น พลังการคำนวณและแบนด์วิดท์หน่วยความจำของ GPU เดียวเพิ่มขึ้นอย่างต่อเนื่อง — แบนด์วิดท์หน่วยความจำของ GPU รุ่นล่าสุดของ NVIDIA เกิน 3TB/s แล้ว พลังการคำนวณต่อการ์ดสามารถถึงหลายร้อย TOPS และประสิทธิภาพการปลดปล่อยพลังการคำนวณของ GPU ขึ้นอยู่กับการสนับสนุนแบนด์วิดท์พอร์ตของสวิตช์เป็นอย่างมาก

สวิตช์ 400G แบบดั้งเดิมมีแบนด์วิดท์พอร์ตเดียวเพียง 600GB/s ไม่สามารถตอบสนองความต้องการการส่งแบนด์วิดท์หน่วยความจำของ GPU เครื่องเดียวได้อีกต่อไป กลายเป็นคอขวดพลังการคำนวณ ในขณะที่สวิตช์ CPO ของ NVIDIA รองรับอัตราพอร์ต 800G หรือแม้แต่ 1.6Tbps สามารถเพิ่มแบนด์วิดท์พอร์ตเดียวเป็นมากกว่า 200GB/s จับคู่ความต้องการแบนด์วิดท์หน่วยความจำของ GPU รุ่นใหม่ได้ดีขึ้น ส่งเสริมการปลดปล่อยพลังการคำนวณ

จากมุมมองเชิงปริมาณ อัตราส่วนที่เหมาะสมระหว่างแบนด์วิดท์หน่วยความจำ GPU เครื่องเดียวและแบนด์วิดท์พอร์ตสวิตช์ควรเป็น 1:1.2~1:1.5 นั่นคือเมื่อแบนด์วิดท์หน่วยความจำ GPU ถึง 3TB/s แบนด์วิดท์พอร์ตสวิตช์ต้องถึง 3.6TB/s~4.5TB/s สวิตช์ CPO ความจุ 115.2T ของ NVIDIA สามารถรองรับการสื่อสารความเร็วสูงของ GPU รุ่นใหม่ 30~32 เครื่องพร้อมกัน เพิ่มประสิทธิภาพการจัดตารางพลังการคำนวณของคลัสเตอร์ GPU

3.2 การขยายขนาดคลัสเตอร์ GPU ผลักดันให้ความจุสวิตช์เติบโตแบบทวีคูณ

แกนหลักของการฝึกโมเดล AI ขนาดใหญ่คือ “การคำนวณร่วมกันของ GPU หลายตัว” ยิ่งคลัสเตอร์มีขนาดใหญ่เท่าไร ความต้องการความจุสวิตช์ก็ยิ่งสูงขึ้น ปัจจุบัน คลัสเตอร์ GPU 10,000 ตัวกลายเป็นกระแสหลัก คลัสเตอร์ 200,000 ตัวค่อยๆ ถูกนำไปใช้ และอัตราการเติบโตของความจุสวิตช์เกินอัตราการเติบโตของขนาดคลัสเตอร์ GPU เนื่องจากเมื่อขนาดคลัสเตอร์ขยายตัว ลิงก์การสื่อสารระหว่าง GPU เพิ่มขึ้นแบบทวีคูณ ต้องการให้สวิตช์มีความหนาแน่นพอร์ตและความจุสวิตช์ที่สูงขึ้น

ตัวอย่างเช่น คลัสเตอร์ GPU 100,000 ตัว ใช้สวิตช์ 51.2T ร่วมกับเครือข่าย CLOS สามชั้น สามารถเชื่อมต่อการ์ด GPU 400G ได้ 132K ตัว หากใช้สวิตช์ CPO 115.2T ของ NVIDIA สามารถขยายขนาดคลัสเตอร์เป็นมากกว่า 200,000 ตัว พร้อมลดความหน่วงลงมากกว่า 30%

ข้อมูลแสดงให้เห็นว่า ทุกครั้งที่ขนาดคลัสเตอร์ GPU ขยาย 1 เท่า ความจุพอร์ตของสวิตช์ต้องขยาย 1.2~1.3 เท่า เพื่อรับประกันการสื่อสารความหน่วงต่ำภายในคลัสเตอร์ การประยุกต์ใช้เทคโนโลยี CPO ทำให้ความจุสวิตช์กระโดดจาก


⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง

本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/23025

Like (0)
Previous 2026年2月5日 pm11:55
Next 2026年2月6日 am7:15

相关推荐