ในการสัมภาษณ์เชิงลึกครั้งล่าสุด เจินซุน หวง ผู้ก่อตั้งและ CEO ของ NVIDIA ได้แสดงมุมมองที่ชัดเจนเกี่ยวกับข้อได้เปรียบทางเทคโนโลยีของบริษัทและโครงสร้างการแข่งขันในอุตสาหกรรม เขาให้ความเห็นอย่างตรงไปตรงมาต่อชิป AI พัฒนาเองของคู่แข่ง และอธิบายอย่างเป็นระบบเป็นครั้งแรกถึงความสามารถหลักที่โดดเด่นของ NVIDIA
ท้าชนอย่างเปิดเผย: ทำไมชิปพัฒนาเองถึงไม่ออกร่วมประลอง?
ในระหว่างการสัมภาษณ์ เจินซุน หวง กล่าวว่า ในการทดสอบมาตรฐานอ้างอิงที่ใช้วัดประสิทธิภาพการประมวลผล AI (เช่น MLPerf) ชิปที่พัฒนาขึ้นเอง เช่น TPU ของ Google และ Trainium ของ Amazon ไม่ได้เข้าร่วมแข่งขันอย่างเปิดเผย ในมุมมองของเขา สิ่งนี้สะท้อนโดยอ้อมว่าในศึกตัดสินสุดท้ายด้านพลังประมวลผล AI ยังไม่มีคู่แข่งที่มีความสามารถรอบด้านปรากฏตัวขึ้น

คูเมืองหลัก: ศิลปะการแปลง “จากอิเล็กตรอนสู่โทเค็น”
เมื่อถูกถามอย่างตรงประเด็นว่า “คูเมืองของ NVIDIA คืออะไร” เจินซุน หวง ได้เสนอโมเดลความคิดใหม่: อินพุตคืออิเล็กตรอน เอาต์พุตคือโทเค็น (หน่วยผลลัพธ์จากการคำนวณ AI) และ NVIDIA คือชั้นการแปลงที่ขาดไม่ได้ตรงกลาง

เขาเชื่อว่าการสร้างโทเค็นที่มีคุณค่าอย่างมีประสิทธิภาพและต้นทุนต่ำ เป็นทักษะที่ซับซ้อนซึ่งผสมผสานศิลปะ วิศวกรรม และวิทยาศาสตร์ระดับสูงสุด กระบวนการนี้ยากที่จะถูกทำซ้ำหรือทำให้ธรรมดาได้ง่ายๆ คูเมืองของ NVIDIA สร้างขึ้นบนระบบนิเวศที่ลึกซึ้งซึ่งเรียกว่า “เค้กห้าชั้น” กลยุทธ์คือ: ทำเฉพาะสิ่งที่จำเป็นต้องทำ และทำให้มันยากอย่างสุดขีด

ข้อได้เปรียบห่วงโซ่อุปทาน: การผูกพันธมิตรเชิงรุกและการให้ความรู้อุตสาหกรรม
เกี่ยวกับคำกล่าวที่ว่า “NVIDIA สร้างข้อได้เปรียบจากการผูกขาดห่วงโซ่อุปทานที่หายาก” เจินซุน หวง ยอมรับว่าสิ่งนี้สร้างกำแพงที่คู่แข่งยากจะก้าวข้ามในระยะสั้น เขาเน้นย้ำว่าข้อได้เปรียบนี้มาจาก การผูกพันธมิตรเชิงกลยุทธ์ที่มีวิสัยทัศน์
- วางแผนล่วงหน้า: ก่อนที่ AI จะระเบิดตัว NVIDIA ได้สื่อสารกับ CEO ของพันธมิตรในห่วงโซ่อุปทาน เช่น TSMC, Micron เพื่อร่วมกันวาดภาพขนาดมหึมาของอุตสาหกรรม AI ในอนาคต
- ชี้นำการลงทุน: เจินซุน หวง เปรียบเทียบงาน GTC ของตัวเองกับ “งานให้ความรู้” ซึ่งมีเป้าหมายให้ทั้งห่วงโซ่อุตสาหกรรมเห็นแนวโน้มชัดเจน เพื่อชี้นำทุนและทรัพยากรทั่วโลกให้ไหลสู่แวดวง AI

จุดคอขวดและความท้าทายระยะยาวที่แท้จริง
เมื่อถูกถามว่าจุดคอขวดด้านฮาร์ดแวร์ เช่น การแพ็คเกจ CoWoS, หน่วยความจำ HBM จะจำกัดการพัฒนา AI หรือไม่ เจินซุน หวง ดูค่อนข้างใจเย็น เขาคิดว่า ภายใต้สัญญาณความต้องการของตลาดที่ชัดเจน จุดคอขวดฮาร์ดแวร์ประเภทนี้สามารถแก้ไขได้ภายใน 2-3 ปีผ่านการขยายกำลังการผลิต NVIDIA ได้ช่วยพันธมิตรวางแผนเทคโนโลยีรุ่นต่อไป (เช่น ซิลิกอนโฟโตนิกส์) ล่วงหน้าแล้ว ผ่านการให้สิทธิ์เทคโนโลยีและการลงทุนโดยตรง

ในมุมมองของเขา ความท้าทายระยะยาวที่แท้จริงอยู่ที่โครงสร้างพื้นฐานปลายน้ำมากกว่า:
* พลังงาน: นโยบายพลังงานและอุปทานที่จำเป็นสำหรับการสร้างโรงงาน AI ขนาดใหญ่เป็นปัญหาที่ยากในระยะยาว
* บุคลากร: สิ่งที่ขาดแคลนจริงๆ ไม่ใช่เครื่องลิโธกราฟี แต่คือวิศวกรและช่างเทคนิคที่มีทักษะ (เช่น ช่างไฟฟ้า ช่างประปา) ที่สามารถสร้างและบำรุงรักษาศูนย์ข้อมูล AI ได้

กระบวนทัศน์ “การคำนวณแบบเร่ง” และการโจมตีลดมิติของระบบนิเวศ CUDA
สำหรับคำถามที่ว่า “ความสำเร็จของ Google TPU ในการฝึกโมเดล AI ชั้นนำหมายความว่า GPU สามารถถูกแทนที่ได้หรือไม่” เจินซุน หวง ปฏิเสธอย่างแข็งขัน เขาชี้ให้เห็นว่า ชิปเฉพาะทาง (ASIC) เช่น TPU เป็นเพียง “หน่วยประมวลผลเทนเซอร์” ในขณะที่ NVIDIA ทำงานในขอบเขตที่กว้างกว่าคือ “การคำนวณแบบเร่ง” ซึ่งครอบคลุมหลายด้าน เช่น การคำนวณทางวิทยาศาสตร์ การจำลองทางฟิสิกส์

อัลกอริทึม AI พัฒนาอย่างรวดเร็ว แพลตฟอร์ม CUDA ที่สามารถโปรแกรมได้สูงสามารถปรับตัวให้เข้ากับสถาปัตยกรรมใหม่ (เช่น MoE) ได้อย่างรวดเร็ว ในขณะที่ชิป ASIC ที่ถูกตรึงรูปแบบอาจเผชิญความเสี่ยงที่จะล้าสมัย ระบบนิเวศ CUDA เป็นสินทรัพย์หลักของ NVIDIA อนุญาตให้นักพัฒนา “เขียนครั้งเดียว ทำงานได้ทุกที่” ซึ่งมีมูลค่ามากกว่าฮาร์ดแวร์เดี่ยวๆ

เศรษฐศาสตร์ TCO: ทำไมการพัฒนาชิปเองอาจไม่คุ้มค่า
เจินซุน หวง วิเคราะห์จากตรรกะทางธุรกิจว่า การที่ลูกค้ารายใหญ่พัฒนาชิปใช้เองทั้งหมดอาจไม่คุ้มค่าเศรษฐกิจ เขาเสนอว่า โซลูชันของ NVIDIA มี ต้นทุนรวมในการเป็นเจ้าข้อ (TCO) ที่ต่ำที่สุดในโลก ภายในศูนย์ข้อมูลที่ใช้พลังงานเท่ากัน จำนวนโทเค็นที่ผลิตได้โดยใช้สถาปัตยกรรมของ NVIDIA สูงที่สุดในโลก

เขาท้าทายอีกครั้ง ยินดีต้อนรับคู่แข่งให้ร่วมแข่งขันบนเวทีเดียวกันในการทดสอบมาตรฐานอ้างอิงอย่างเปิดเผย เช่น MLPerf พร้อมทั้งชี้ให้เห็นว่า แม้แต่การว่าจ้าง Broadcom ในการออกแบบ ASIC อัตรากำไรขั้นต้นก็ยังสูงถึง 65% ซึ่งต่ำกว่าอัตรากำไรขั้นต้นของ NVIDIA เพียงประมาณ 5 เปอร์เซ็นต์เท่านั้น การละทิ้งระบบนิเวศที่เติบโตเต็มที่ทั้งหมดเพื่อประหยัดต้นทุนที่จำกัด ไม่ใช่การตัดสินใจที่ชาญฉลาดในเชิงธุรกิจ
ตอบกรณีพิเศษ Anthropic: ยอมรับการประเมินผิดพลาด แต่ไม่ใช่แนวโน้ม
เกี่ยวกับคำถามที่ว่า “ทำไม Anthropic ถึงเลือกเซ็นสัญญาสั่งซื้อ TPU/Trainium มูลค่ามหาศาลกับ Google และ Amazon” เจินซุน หวง กำหนดให้สิ่งนี้เป็น กรณีพิเศษหนึ่ง ไม่ใช่แนวโน้มของอุตสาหกรรม

เขาไม่บ่อยนักที่จะยอมรับความผิดพลาดด้านกลยุทธ์ครั้งหนึ่ง: ในตอนนั้นประเมินต่ำไปถึงอิทธิพลของวิธีการที่บริษัทคลาวด์ยักษ์ใหญ่ใช้เงินทุนจำนวนมหาศาลเพื่อ “ผูกมัด” บริษัทสตาร์ทอัพ AI ให้ใช้ชิปที่พัฒนาขึ้นเองของพวกเขา แต่เขาเน้นย้ำว่า การเติบโตของ TPU และ Trainium เกือบทั้งหมดขับเคลื่อนโดย Anthropic เพียงบริษัทเดียว และ “ในโลกนี้มี Anthropic เพียงแห่งเดียว”

ปรัชญาธุรกิจ: กำหนดขอบเขตชัดเจน ประสานงานเชิงลึก
เจินซุน หวง อธิบายปรัชญาธุรกิจของ NVIDIA: ไม่แข่งขันกับลูกค้า กำหนดขอบเขตของตัวเองให้ชัดเจน บริษัทมุ่งเน้นที่การสร้างแพลตฟอร์ม ผ่านการออกแบบประสานงานเชิงลึก (เช่น สถาปัตยกรรม Blackwell ที่ปรับให้เหมาะกับ MoE) เพื่อช่วยให้ลูกค้าผลักดันประสิทธิภาพของระบบไปถึงขีดจำกัด ซึ่งจะได้รับผลลัพธ์ที่เพิ่มขึ้นหลายเท่า สิ่งนี้เหนือกว่าการที่ลูกค้าพัฒนาเองอย่างมาก
| 
—|—
(หมายเหตุ: บทความนี้อ้างอิงจากเนื้อหาการสัมภาษณ์สาธารณะ ได้ลบข้อความเชิงการตลาดและข้อมูลชี้นำที่ไม่เกี่ยวข้องออกแล้ว)
ในช่วงครึ่งหลังของการสัมภาษณ์ ผู้ดำเนินรายการได้ตั้งสมมติฐานที่น่าสนใจมาก: เนื่องจาก NVIDIA มีทรัพยากรพลังประมวลผลที่ไม่มีใครเทียบได้ ทำไมไม่ลงมือเป็นผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกลโดยตรง?
คำตอบของเจินซุน หวง เผยให้เห็นปรัชญาธุรกิจของ NVIDIA: “ทำให้ได้มากที่สุดเท่าที่ทำได้ ในขณะเดียวกันก็ทำให้น้อยที่สุดเท่าที่ทำได้”

ในโลกนี้มีผู้ให้บริการคลาวด์มากมายอยู่แล้ว หาก NVIDIA ลงมือทำคลาวด์เอง นั่นคือการแข่งขันโดยตรงกับลูกค้าของตัวเอง (เช่น Amazon, Microsoft เป็นต้น) NVIDIA เลือกที่จะลงทุนใน “คลาวด์ AI ดั้งเดิม” เช่น CoreWeave ผ่านการรับรองและสนับสนุนทางการเงิน เพื่อให้ระบบนิเวศมีความหลากหลายมากขึ้น แทนที่จะลงไปสร้างศูนย์ข้อมูล ดึงสายไฟด้วยตัวเอง
เจินซุน หวง คิดว่า บริษัทที่มีสุขภาพดีควรมุ่งเน้นไปที่สิ่ง “ที่หากฉันไม่ทำ ก็ไม่มีใครทำได้” หาก NVIDIA ไม่พัฒนา NVLink ไม่ทุ่มเวลา 20 ปียืนหยัดพัฒน CUDA ไม่พัฒนาไลบรารีการคำนวณลิโธกราฟีอย่าง cuLitho เทคโนโลยีเหล่านี้อาจไม่มีวันปรากฏ

ลงทุน แต่ไม่ “คัดเลือกผู้ชนะ”
เมื่อเร็วๆ นี้ NVIDIA ได้ลงทุนครั้งใหญ่ในบริษัทต่างๆ เช่น OpenAI, Anthropic เกี่ยวกับเรื่องนี้ เจินซุน หวง กล่าวอย่างจริงจังว่า: “เราไม่เลือกผู้ชนะ” ด้านหนึ่ง นี่ไม่ใช่งานของ NVIDIA อีกด้านหนึ่ง เขาตระหนักดีถึงความไม่แน่นอนของการเริ่มต้นธุรกิจ
| 
—|—
เขาย้อนความจำไปถึงตอนที่ NVIDIA เพิ่งเริ่มต้น ทั่วโลกมีบริษัทชิปกราฟิกส์ 60 แห่ง และในตอนนั้น NVIDIA เป็นบริษัทที่มีสถาปัตยกรรม “แปลกประหลาด” ที่สุดด้วยซ้ำ กลยุทธ์ของ NVIDIA คือ: หากโลกต้องการให้บริษัท AI ที่ยอดเยี่ยมเหล่านี้ดำรงอยู่ และเงินลงทุนเสี่ยงไม่สามารถให้การสนับสนุนทางการเงินระดับหมื่นล้านได้ NVIDIA ก็จะลงมือ แต่จุดประสงค์คือเพื่อให้ทั้งระบบนิเวศ “รุ่งเรือง” ไม่ใช่เพื่อควบคุมพวกเขา

ทำสิ่งหนึ่งให้ดี แค่ CUDA ก็พอ
ในตอนท้ายของการสัมภาษณ์ ผู้ดำเนินรายการได้ตั้งคำถามเชิงวิพากษ์: ตอนนี้ NVIDIA มีทรัพยากรหนาแน่น ทำไมไม่พัฒนาสถาปัตยกรรมที่แตกต่างกันโดยสิ้นเชิงหลายแบบขนานกัน (เช่น ชิประดับเวเฟอร์หรือการแพ็คเกจขนาดยักษ์) เพื่อป้องกันการเปลี่ยนแปลงอย่างกะทันหันของสถาปัตยกรรม AI?
คำตอบของเจินซุน หวง แสดงให้เห็นถึงความมั่นใจและเหตุผลในฐานะสถาปนิกระดับสูงสุดของเขา
ซิมูเลเตอร์ได้ปฏิเสธทุกอย่างแล้ว
เขากล่าวตรงๆ ว่า NVIDIA มี “ระบบจำลอง” ที่ยอดเยี่ยมระดับโลก สามารถตรวจสอบสถาปัตยกรรมใดๆ ที่จินตนาการได้ในซิมูเลเตอร์ ผลการจำลองพิสูจน์ว่า ทางเลือกอื่นๆ เหล่านั้นมีประสิทธิภาพและประสิทธิผลที่แย่กว่า นั่นคือ ข้อมูลการตรวจสอบได้ปฏิเสธความเป็นไปได้เหล่านี้แล้ว

ผู้ดำเนินรายการถามอีกว่า หากกำลังการผลิตกระบวนการขั้นสูงของ TSMC ถึงขีดสุด NVIDIA จะกลับไปออกแบบชิปใหม่บนโหนดกระบวนการเก่าหรือไม่ เจินซุน หวง กล่าวว่า ค่าใช้จ่ายในการวิจัยและพัฒนา “ย้อนกลับ” แบบนี้สูงอย่างเหลือเชื่อ NVIDIA เลือกที่จะลงทุนอย่างต่อเนื่องในกระบวนการขั้นสูง รับมือกับแรงกดดันด้านกำลังการผลิตผ่านการแพ็คเกจขั้นสูงและการปรับปรุงการคำนวณเชิงตัวเลข
ขยาย Groq: ครองตลาดโทเค็น “พรีเมียม”
ก่อนหน้านี้ NVIDIA ได้รวม Groq ซึ่งเน้นการอนุมานความหน่วงต่ำ เข้ากับระบบนิเบศ CUDA แล้ว ภายหลังสิ่งนี้ มีความเข้าใจเชิงลึกของเจินซุน หวง เกี่ยวกับการ “แบ่งชั้น” ของตลาดอนุมาน: ก่อนหน้านี้โทเค็นอาจฟรี หรือราคาถูกมาก แต่ตอนนี้ หากความเร็วในการตอบสนองที่เร็วกว่าสามารถเพิ่มประสิทธิภาพของวิศว
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/th/archives/30916
