Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

เวลา 2 นาฬิกาเช้าวันนี้ตามเวลาปักกิ่ง การประชุม GTC ของ Nvidia ได้เปิดฉากขึ้นอย่างเป็นทางการที่ซานโฮเซ รัฐแคลิฟอร์เนีย เจนซัน หวง ผู้ร่วมก่อตั้งและซีอีโอของ Nvidia กล่าวในสุนทรพจน์หลักว่า: “เราได้นิยามการคำนวณใหม่ เหมือนกับการปฏิวัติคอมพิวเตอร์ส่วนบุคคลและการปฏิวัติอินเทอร์เน็ต ตอนนี้เราอยู่ที่จุดเริ่มต้นของการเปลี่ยนแปลงแพลตฟอร์มรูปแบบใหม่”

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

เจนซัน หวง คาดการณ์ว่า ค่าใช้จ่ายของบริษัททั่วโลกในระบบ Blackwell และ Rubin จะแตะ 1 ล้านล้านดอลลาร์ระหว่างปี 2025 ถึง 2027 โดย 60% ของธุรกิจจะมาจากคลาวด์คอมพิวติ้งระดับไฮเปอร์สเกล การคาดการณ์นี้เพิ่มขึ้นเป็นสองเท่าจากที่คาดไว้ในเดือนตุลาคมปีที่แล้ว (5 แสนล้านดอลลาร์ภายในสิ้นปี 2026)

สาเหตุหลักที่ขับเคลื่อนการเติบโตของตลาดนี้คือ AI ได้พัฒนามาถึง “จุดเปลี่ยนของการอนุมาน (Inference)” หากก่อนหน้านี้จุดเน้นของอุตสาหกรรม AI คือ “การฝึกฝน” (Training) โมเดล ตอนนี้ได้เข้าสู่ขั้นตอน “การอนุมานและการสร้าง” (Inference and Generation) อย่างเต็มรูปแบบแล้ว ความต้องการพลังประมวลผลไม่ได้ถึงจุดสูงสุด แต่เพิ่งเริ่มปะทุเท่านั้น

Vera Rubin รุ่นใหม่เริ่มผลิตจำนวนมาก: เครื่องยนต์พลังประมวลผลสำหรับยุคเอเจนต์อัจฉริยะ

ผลิตภัณฑ์สำคัญของปีนี้ไม่ใช่ชิปเดี่ยว แต่เป็นระบบพลังประมวลผล AI ที่ซับซ้อนและใหญ่โต เจนซัน หวง กล่าวว่า Nvidia NVL72 ที่ใช้สถาปัตยกรรม Vera Rubin ใหม่ล่าสุดคือ “การเดิมพันครั้งใหญ่” มีเป้าหมายเพื่อรับมือกับความท้าทายสูงสุดในการแสวงหาประสิทธิภาพสูงสุดของงาน AI Inference

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

สถาปัตยกรรม NVL72 บรรลุประสิทธิภาพต่อโทเคนต่อวัตต์ที่เพิ่มขึ้น 50 เท่า ความเร็วที่เพิ่มขึ้นแซงหน้ากฎของมัวร์อย่างมาก จนได้รับฉายาว่า “ราชาแห่งโทเคน”

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

เจนซัน หวง ชี้ให้เห็นว่า ศูนย์ข้อมูลกำลังเปลี่ยนจากสถานที่เก็บไฟล์ไปเป็นโรงงานผลิตโทเคน การอนุมาน (Inference) คือโหลดงานหลัก และโทเคนได้กลายเป็นสินค้าดิจิทัลรูปแบบใหม่

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

Vera Rubin NVL72 ถูกอธิบายว่าเป็น “เครื่องยนต์ที่ให้พลังมหาศาลสำหรับยุค AI เอเจนต์อัจฉริยะ” ระบบนี้ประกอบด้วยชิปใหม่ 7 รุ่น มีเป้าหมายเพื่อสร้างโรงงาน AI ที่ใหญ่ที่สุดในโลก และได้รับการปรับให้เหมาะสมกับทุกขั้นตอน ตั้งแต่การฝึกก่อน (Pre-training) การฝึกหลัง (Post-training) ไปจนถึงการอนุมานของเอเจนต์อัจฉริยะ

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

รายละเอียดของแพลตฟอร์ม Vera Rubin ประกอบด้วย:
* Vera CPU
* Rubin GPU
* สวิตช์ NVLink 6
* ซูเปอร์การ์ดเน็ตเวิร์ก NVIDIA ConnectX 9
* BlueField4 DPU
* สวิตช์อีเธอร์เน็ต Spectrum-6
* Groq 3 LPU ที่บูรณาการใหม่

โดยเฉพาะอย่างยิ่ง ตู้ NVL72 ของ Vera Rubin บูรณาการ Rubin GPU 72 ตัวและ Vera CPU 36 ตัว เชื่อมต่อผ่าน NVLink 6 และติดตั้ง ConnectX-9 SuperNIC และ BlueField-4 DPU มันบรรลุประสิทธิภาพที่ก้าวล้ำ: เมื่อเทียบกับแพลตฟอร์ม NVIDIA Blackwell ใช้ GPU เพียงหนึ่งในสี่ของจำนวนเดิมในการฝึกโมเดล MiMoE ขนาดใหญ่ เพิ่มปริมาณงานการอนุมานต่อวัตต์ได้ 10 เท่า และลดต้นทุนต่อโทเคนเหลือหนึ่งในสิบ

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

NVL72 ออกแบบมาสำหรับโรงงาน AI ขนาดไฮเปอร์สเกลโดยเฉพาะ สามารถขยายขนาดได้อย่างราบรื่นด้วย Quantum-X800 InfiniBand และ Spectrum-X อีเธอร์เน็ต ทำให้รักษาอัตราการใช้ประโยชน์สูงในคลัสเตอร์ GPU ขนาดใหญ่ พร้อมทั้งลดเวลาในการฝึกและลดต้นทุนการเป็นเจ้าของโดยรวม

ขนาดใหญ่ขึ้น: Vera Rubin Ultra NVL576

ยังมีระบบที่ใหญ่โตกว่า นั่นคือ “NVIDIA Vera Rubin Ultra NVL576” มันนำเสนอโทโพโลยี NVLink แบบสองชั้นที่เชื่อมต่อถึงกันทั้งหมดแบบใหม่ ทำให้ระบบสามารถขยายในแนวตั้งได้สูงสุดถึง 576 GPU

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

Vera Rubin Ultra NVL576 เชื่อมต่อตู้ MGX NVL แบบสแตนด์อโลน 8 ตู้ (แต่ละตู้มี Rubin Ultra GPU 72 ตัว) เข้าด้วยกันผ่านการเชื่อมต่อแบบสายทองแดงและออปติคอลโดยตรง เพื่อสร้างโดเมน NVLink 576 GPU แบบรวมเป็นหนึ่งเดียว ระบบนี้สร้างขึ้นบนระบบนิเวศระดับตู้ MGX โดยมีเป้าหมายเพื่อให้สามารถผลิตจำนวนมากและนำไปใช้งานได้อย่างรวดเร็ว

เพื่อยืนยันโทโพโลยี NVLink ข้ามตู้ขนาดใหญ่นี้ Nvidia ได้สร้างระบบต้นแบบภายในชื่อ “Polyphe” ที่ใช้ GB200 เป็นพื้นฐาน

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

นอกจากนี้ Nvidia กำลังขยายการติดตั้งพลังประมวลผลไปสู่อวกาศ เจนซัน หวง ประกาศว่าบริษัทกำลังพัฒนาชิป/คอมพิวเตอร์ใหม่ชื่อ “Nvidia Vera Rubin Space-1” สำหรับศูนย์ข้อมูลในวงโคจร เพื่อแก้ไขความท้าทายทางวิศวกรรมเฉพาะในสภาพแวดล้อมอวกาศ เช่น การระบายความร้อน

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

Nvidia ระบุว่า ความเร็วในการนำสถาปัตยกรรม Vera Rubin ไปใช้งานเพิ่มขึ้นอย่างมีนัยสำคัญ ขณะนี้ได้เริ่มติดตั้งบน Microsoft Azure แล้ว ด้วยการเปิดตัว Vera Rubin จุดเปลี่ยนของ AI เอเจนต์อัจฉริยะได้มาถึงแล้ว โครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดในประวัติศาสตร์กำลังจะเริ่มต้นขึ้น

ชิป AI Inference ใหม่: LPU

ความสามารถอันทรงพลังของ Vera Rubin ไม่อาจขาด LPU ได้ LPU ออกแบบมาเพื่อเพิ่มประสิทธิภาพไปป์ไลน์การอนุมานโดยเฉพาะ การทำงานร่วมกับ GPU สามารถก้าวข้ามข้อจำกัดของเซิร์ฟเวอร์ GPU ล้วนในด้านการอนุมานความหน่วงต่ำ ประสิทธิภาพการถอดรหัสโทเคน และการใช้พลังงาน

NVIDIA Groq 3 LPX ที่เปิดตัวในการประชุม GTC ครั้งนี้ เป็นหมุดหมายสำคัญในสาขาการคำนวณแบบเร่ง มันมีเป้าหมายเพื่อแก้ไขความขัดแย้งหลักระหว่างความหน่วงต่ำและปริมาณงานสูงในการอนุมานโมเดลขนาดใหญ่ ซึ่งยากที่จะได้มาพร้อมกัน

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

สถาปัตยกรรม LPX ทำงานร่วมกับ Vera Rubin GPU ปรับให้เหมาะสมกับความหน่วงต่ำและการอนุมานบริบทยาวพิเศษที่ระบบเอเจนต์อัจฉริยะต้องการ ภายใต้สถาปัตยกรรมนี้ ปริมาณงานการอนุมานต่อเมกะวัตต์สามารถเพิ่มขึ้นสูงสุด 35 เท่า และนำศักยภาพรายได้สูงสุด 10 เท่าสำหรับโมเดลที่มีพารามิเตอร์ล้านล้าน

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

ตู้ LPX ใช้การออกแบบระบายความร้อนด้วยของเหลวทั้งหมด สร้างบนโครงสร้างพื้นฐาน MGX สามารถบูรณาการเข้ากับโรงงาน AI Vera Rubin รุ่นต่อไปได้อย่างราบรื่น ตู้เดียวประกอบด้วยโปรเซสเซอร์ LPU 256 ตัว ให้ SRAM บนชิป 128GB และแบนด์วิธการเชื่อมต่อในแนวตั้ง 640 TB/s เมื่อติดตั้งในระดับใหญ่ LPU จำนวนมากสามารถทำงานร่วมกันได้เหมือนโปรเซสเซอร์ยักษ์ตัวเดียว บรรลุการเร่งการอนุมานที่รวดเร็วและมีความแน่นอน

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

เมื่อติดตั้งร่วมกับระบบ Vera Rubin NVL72, Rubin GPU และ LPU จะคำนวณแต่ละเอาต์พุตโทเคนของทุกเลเยอร์ของโมเดล AI ร่วมกัน จึงเพิ่มประสิทธิภาพการถอดรหัสได้อย่างมีนัยสำคัญ สถาปัตยกรรม LPX ได้รับการปรับให้เหมาะสมสำหรับโมเดลพารามิเตอร์ล้านล้านและบริบทโทเคนล้านตัว ผ่านการออกแบบร่วมกับ Vera Rubin บรรลุความสมดุลที่ดีที่สุดระหว่างการใช้พลังงาน ความจำ และประสิทธิภาพการคำนวณ

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

ปัจจุบัน LPU ผลิตโดยซัมซุง สำหรับผลิตภัณฑ์รุ่นใหม่ในอนาคตอาจเปลี่ยนไปผลิตโดย TSMC นอกจากนี้ GPU ในอนาคต (สถาปัตยกรรม Feynman) อาจบูรณาการโปรเซสเซอร์ Groq ซึ่งคาดว่าจะช่วยเพิ่มประสิทธิภาพและลดต้นทุนได้

Nvidia Groq 3 LPX คาดว่าจะเปิดตัวอย่างเป็นทางการในครึ่งหลังของปีนี้

NemoClaw: เวอร์ชัน Nvidia ของ OpenClaw เปิดตัวแล้ว

OpenClaw ที่ได้รับความสนใจอย่างมากในช่วงที่ผ่านมา ถูกเปรียบเทียบโดยเจนซัน หวง ว่าเป็น “ระบบปฏิบัติการ” ในการประชุม GTC มันคือแพลตฟอร์มเอเจนต์อัจฉริยะที่สามารถเชื่อมต่อกับระบบคลาวด์ สามารถสร้างเอเจนต์อื่นๆ จัดการงาน และแยกย่อยปัญหาได้

อย่างไรก็ตาม AI เอเจนต์ที่ใช้ OpenClaw ในปัจจุบันมีช่องโหว่ด้านความปลอดภัยเมื่อสื่อสารกับระบบภายนอก NemoClaw ที่ Nvidia เปิดตัวให้การรับประกันความปลอดภัยระดับองค์กร ช่วยปกป้องข้อมูลสำคัญ

Nvidia เพิ่มการป้องกันความปลอดภัยหลายชั้นบนโครงสร้างพื้นฐานที่ผู้ก่อตั้ง OpenClaw สร้างขึ้น และกำหนดตำแหน่งให้เป็นโซลูชันความปลอดภัยระดับองค์กร เจนซัน หวง กล่าวว่า Nvidia ได้รวบรวมนักวิจัยด้านความปลอดภัยชั้นนำของโลก เพื่อปรับเปลี่ยน OpenClaw ให้สามารถติดตั้งในสภาพแวดล้อมภายในองค์กรได้อย่างปลอดภัย

เขาเน้นย้ำว่า ทุกองค์กรในปัจจุบันจำเป็นต้องมีกลยุทธ์ OpenClaw ของตัวเอง ในมุมมองของเจนซัน หวง, OpenClaw และระบบ Claw ในความหมายกว้าง ความสำคัญในอนาคตจะเทียบเท่ากับโครงสร้างพื้นฐานซอฟต์แวร์พื้นฐาน เช่น Linux, Kubernetes, HTML

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

ในด้านเทคนิค NemoClaw คือชุดเครื่องมือซอฟต์แวร์พื้นฐานที่ทำให้ OpenClaw ติดตั้งง่ายขึ้นและทำงานได้อย่างปลอดภัย ผ่าน NVIDIA Agent Toolkit ผู้ใช้สามารถติดตั้งและปรับให้เหมาะสม OpenClaw ด้วยคำสั่งเดียว และติดตั้ง OpenShell runtime โดยอัตโนมัติ

Runtime นี้ให้การสนับสนุนโมเดลโอเพ่นซอร์สและสภาพแวดล้อมแซนด์บ็อกซ์ที่แยกออกมา รับประกันว่า AI เอเจนต์อัจฉริยะจะอยู่ภายใต้ข้อจำกัดของนโยบายความปลอดภัย เครือข่าย และความเป็นส่วนตัวเสมอ เมื่อปฏิบัติงาน เรียกใช้เครื่องมือ หรือเข้าถึงเครือข่ายภายนอก

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

NemoClaw รองรับเอเจนต์อัจฉริยะหลายภาษา ในโหมดเอเจนต์เปิด มันสามารถเรียกใช้โมเดลโอเพ่นซอร์ส (รวมถึง NVIDIA Nemotron) ที่ทำงานบนระบบเฉพาะในเครื่องของผู้ใช้ ในขณะเดียวกันผ่านการกำหนดเส้นทางความเป็นส่วนตัว เอเจนต์ยังสามารถเข้าถึงโมเดลล้ำสมัยที่ทำงานบนคลาวด์ได้อย่างปลอดภัย

การผสมผสานระหว่างโมเดลในเครื่องและโมเดลบนคลาวด์ เป็นรากฐานสำหรับการเรียนรู้อย่างต่อเนื่องและการขยายขีดความสามารถของเอเจนต์ ทำให้สามารถทำงานที่ซับซ้อนมากขึ้นภายใต้กฎความเป็นส่วนตัวและความปลอดภัยที่กำหนดไว้

เจนซัน หวง ยังกล่าวถึงว่า หนึ่งในโมเดลที่ดีที่สุดสำหรับการติดตั้งร่วมกับ OpenClaw คือ Nemotron 3 Super ที่ Nvidia เปิดตัวเมื่อเร็วๆ นี้ นี่คือโมเดลภาษาขนาดใหญ่โอเพ่นซอร์สสำหรับสถานการณ์เอเจนต์อัจฉริยะ

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

Nemotron 3 Super ได้รับการปรับให้เหมาะสมสำหรับงานบริบทยาวโดยเฉพาะ ขนาดพารามิเตอร์ควบคุมที่ 120 พันล้าน เมื่อรวมกับเลเยอร์ความปลอดภัยที่ NemoClaw ให้ และข้อได้เปรียบด้านความเป็นส่วนตัวของโมเดลเอง Nvidia ได้แก้ไขปัญหาข้อจำกัดด้านความเป็นส่วนตัวที่สำคัญที่สุดเมื่อติดตั้งเอเจนต์ที่เอดจ์ได้เป็นพื้นฐาน

นอกจากนี้ NemoClaw ยังสามารถเรียกใช้เครื่องมือและเฟรมเวิร์กโอเพ่นซอร์สต่างๆ ในระบบนิเวศของ Nvidia ได้ เช่น cuDF, Nemotron Dynamo, cuOPT และไลบรารีอื่นๆ องค์ประกอบเหล่านี้ให้ความสามารถที่ทรงพลังยิ่งขึ้นแก่เอเจนต์ ทำให้มีประสิทธิภาพมากขึ้นเมื่อประมวลผลข้อมูล เพิ่มประสิทธิภาพการตัดสินใจ และปฏิบัติงานที่ซับซ้อน

นักพัฒนาสามารถเข้าถึง Agent Toolkit และ OpenShell ของ Nvidia ผ่านลิงก์ด้านล่างได้ตั้งแต่วันนี้ หรือสามารถใช้ OpenShell ร่วมกับ LangChain หรือดาวน์โหลดจาก GitHub และรันในเครื่องได้โดยตรง

Nvidia เปิดตัว Vera Rubin NVL72: จุดเปลี่ยนของ AI Inference มาถึงแล้ว ตลาดพลังการประมวลผลจะแตะระดับล้านล้านดอลลาร์

ที่อยู่ลิงก์: https://build.nvidia.com/

ผู้ใช้ระดับองค์กรสามารถสร้างและติดตั้ง AI เอเจนต์อัจฉริยะผ่านแพลตฟอร์มบริการคลาวด์ เช่น AWS, Google Cloud, Microsoft Azure เป็นต้น

AI เข้าสู่โลกกายภาพ

นอกจากเอเจนต์อัจฉริยะในโลกดิจิทัลแล้ว AI กำลังถูกนำไปใช้ในโลกกายภาพในระดับใหญ่เช่นกัน

Nvidia แสดงหุ่นยนต์ 110 ตัวในการประชุม GTC และประกาศว่า BYD, Hyundai, Nissan และ Ge


⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง

本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/26062

Like (0)
Previous 18 hours ago
Next 18 hours ago

相关推荐