NVIDIA วางแผนที่จะปรับรูปแบบการสร้างเซิร์ฟเวอร์ AI ประสิทธิภาพสูงของทั้งอุตสาหกรรมใหม่ทั้งหมด ด้วยไลน์ผลิตภัณฑ์ “Vera Rubin” ซึ่งจะเข้าสู่การผลิตจำนวนมากในชื่อ VR200 ช่วงปลายปี 2026 แทนที่จะแค่ส่งมอบ CPU และ GPU ให้ผู้ผลิต OEM แบบเดิม NVIDIA จะส่งมอบ L10 compute tray แบบสำเร็จรูป ที่บรรจุชิ้นส่วนทั้งหมดมาให้แล้ว ได้แก่ ซีพียู “Vera”, ตัวเร่งความเร็ว “Rubin”, หน่วยความจำ, NIC 800G, ระบบจ่ายไฟ 110 kW และโครงสร้างพื้นฐานสำหรับการระบายความร้อนด้วยของเหลว — ทุกอย่างผ่านการตรวจสอบคุณภาพครบก่อนออกจากโรงงาน
อย่างไรก็ตาม รูปแบบใหม่นี้จะทำให้ผู้ผลิตระบบและ OEM หลายรายต้องเปลี่ยนบทบาท จากการออกแบบฮาร์ดแวร์หลักของเซิร์ฟเวอร์ ไปทำงานรอง เช่น ประกอบระดับแร็ก (rack-level assembly), การตั้งค่าระบบจ่ายไฟ, การติดตั้งชุดระบายความร้อนแบบ sidecar รวมถึงการรับรองขั้นสุดท้ายของระบบ
มีข่าวลือว่าชิป Rubin รุ่นท็อปอาจมี TDP สูงถึง 2.3 kW ต่อชิ้น ทำให้กำลังไฟระดับแร็กอาจพุ่งเกิน 250 kW ซึ่งทำให้การออกแบบระบบระบายความร้อนแบบเฉพาะทางโดยผู้ผลิตรายย่อยแทบเป็นไปไม่ได้ในเชิงเศรษฐศาสตร์ กลยุทธ์ของ NVIDIA จึงเน้นการทำมาตรฐานระบบระบายความร้อนและระบบจ่ายไฟให้สอดคล้องกันในสองระดับประสิทธิภาพ พร้อมเพิ่มความหนาแน่นของการเชื่อมต่อเครือข่าย (network I/O density) ซึ่งทั้งหมดนี้ทำให้การพัฒนาเลียนแบบโดยผู้ผลิตรายอื่นยิ่งทำได้ยากและแพงขึ้น
ผ่านการรวมการผลิตไว้กับพันธมิตรบางรายที่เลือกแล้ว NVIDIA จะสามารถลดรอบการพัฒนา เพิ่มผลผลิต (yield) และปรับปรุงความแน่นอนของสินค้าได้ แต่แนวทางนี้ก็ทำให้ OEM และผู้ให้บริการคลาวด์รายใหญ่มีทางเลือกน้อยลงในการสร้างความแตกต่างด้านฮาร์ดแวร์เหมือนในอดีต
ห่วงโซ่อุปทานทั้งหมดของตลาดเซิร์ฟเวอร์ AI ที่กำลังเติบโตอย่างมหาศาลจึงกำลังจะเปลี่ยนไป มูลค่าและกำไรอาจไหลไปสู่ผู้ผลิตชิ้นส่วนที่ผ่านการรับรอง และผู้ประกอบระบบรายใหญ่ที่รับงานประกอบจำนวนมาก แทนที่จะไปตกอยู่ที่ผู้ผลิต OEM ที่เคยมีพื้นที่ในการสร้างความแตกต่างด้านฮาร์ดแวร์มากกว่า ส่วนผู้ผลิตระบบระบายความร้อนและระบบจ่ายไฟที่ได้การรับรองจะเป็นกลุ่มที่ได้ประโยชน์ ในขณะที่ผู้ผลิตรายเล็กอาจแข่งขันได้ยากขึ้นมาก
ที่มา: TechPowerUp



