ณะ NVIDIA อวดพลังในงานด้วยโซลูชันศูนย์ข้อมูล AI ระดับยักษ์และระบบนิเวศ NVLink Fusion ที่ขยายตัวอย่างรวดเร็ว
คู่แข่งอย่าง AMD ก็ขึ้นเวทีในงาน OCP Global Summit 2025 ด้วยแนวทางที่แตกต่างออกไปเล็กน้อย
โดย Mark Papermaster CTO และรองประธานบริหารของ AMD ได้ขึ้นพูดในหัวข้อ
“A Fully Open and Collaborative AI Ecosystem” (ระบบนิเวศ AI ที่เปิดกว้างและร่วมมือกันอย่างเต็มรูปแบบ)
เขาย้ำว่าในยุคที่ AI พัฒนาอย่างรวดเร็วแบบก้าวกระโดด “ความเปิดกว้างและความร่วมมือ” ไม่ใช่แค่ข้อได้เปรียบอีกต่อไป แต่เป็น “สิ่งจำเป็น” ต่ออุตสาหกรรมนี้
ความคืบหน้าด้าน x86 และมุมมองต่อดีล NVIDIA–Intel
วันที่ 13 ตุลาคม 2025 ครบรอบ 1 ปีของ x86 Advisory Group ที่ก่อตั้งโดย AMD และ Intel
Papermaster เปิดเผยว่าตลอดปีที่ผ่านมา ทั้งสองบริษัทได้ร่วมมือกับผู้ให้บริการคลาวด์รายใหญ่ (hyperscale), ผู้ผลิตฮาร์ดแวร์ (OEM) และผู้พัฒนาระบบปฏิบัติการ (OS leaders) เพื่อผลักดันมาตรฐานร่วมในหลายด้าน เช่น
-
โมเดลการจัดการ Interrupt แบบใหม่
-
ส่วนขยาย ISA สำหรับงานเวกเตอร์และเมทริกซ์
-
ฟีเจอร์ด้านความปลอดภัยของหน่วยความจำ (Memory Safety)
เขายังชี้ว่า การประกาศความร่วมมือระหว่าง NVIDIA–Intel สะท้อนถึง “ขนาดของฐานผู้ใช้ x86 ที่มหาศาล” และความแข็งแกร่งของระบบนิเวศ
โดยกลุ่ม AI Advisory จะทำหน้าที่ให้แน่ใจว่า “โค้ดยังคงเข้าถึงได้อย่างเป็นสากล” ไม่เกิดการแตกแยกระหว่างผู้ผลิต
การขยายความร่วมมือแบบเปิด: ROCm และการเข้าร่วม ESUN
Papermaster กล่าวว่าทุกความก้าวหน้าที่ยิ่งใหญ่ของวงการไอทีมักเริ่มจาก “การเปิดให้ร่วมมือกัน”
เหมือนกับที่ Linux ปลดล็อกยุคซอฟต์แวร์สมัยใหม่
และมาตรฐานเปิดอย่าง TCP/IP หรือ HTTP ปูทางให้โลกอินเทอร์เน็ต
“AI ก็เช่นกัน” — เขากล่าว — “หากต้องการให้ก้าวทันนวัตกรรม จะต้องอาศัยระบบนิเวศที่เปิดกว้าง และนั่นคือบทบาทสำคัญของ OCP”
ในงานเดียวกัน AMD ยังประกาศเข้าร่วม ESUN (Ethernet for Scale-Up Networks)
ซึ่งเป็นโครงการที่สร้าง “จุดเชื่อมต่อกลาง” เพื่อให้ผู้ออกแบบระบบสามารถใช้โครงสร้าง Ethernet ร่วมกันได้
และเลือกโปรโตคอลขนส่ง (Transport Protocols) ที่เหมาะสมกับงานแต่ละประเภท
ผลลัพธ์คือระบบ Ethernet ที่แข็งแกร่งและหลากหลายยิ่งขึ้น
ROCm, UCIe, CXL, UA Link, UEC — รากฐานของระบบ AI แบบเปิด
Papermaster ระบุว่า AMD กำลังขับเคลื่อนระบบนิเวศ AI แบบเปิด ด้วยเทคโนโลยีต่อไปนี้:
-
ROCm: แพลตฟอร์ม AI Stack แบบเปิดที่รองรับ GPU Instinct
-
UCIe: มาตรฐานเปิดสำหรับการเชื่อมต่อชิปเลต (Chiplets)
-
CXL: สำหรับการขยายหน่วยความจำและ I/O
-
UA Link: สำหรับการเชื่อมต่อแบบ Scale-up
-
UEC (Ultra Ethernet Consortium): สำหรับการขยายระบบแบบ Scale-out
TechNews รายงานว่า ในปี 2025 AMD มุ่งเน้น “การเปิดโค้ด ROCm” และ “สร้างระบบนิเวศนักพัฒนาให้เติบโต”
โดยในปี 2026 ROCm จะครบรอบ 10 ปี ซึ่งจากเดิมถูกพัฒนาเพื่อใช้ใน HPC (High-Performance Computing)
ตอนนี้ได้กลายเป็นซอฟต์แวร์ระดับโปรดักชันที่ทำงานอยู่ใน ซูเปอร์คอมพิวเตอร์ที่ใหญ่ที่สุดในโลก แล้ว
เครือข่ายระดับแร็ก (Rack-Scale): การขยายทั้งแบบ Scale-Up และ Scale-Out
AMD ยังคงมุ่งผลักดันมาตรฐานเปิดสำหรับระบบเครือข่ายในศูนย์ข้อมูลระดับแร็ก
-
สำหรับ Scale-Out (การขยายระบบแนวนอน) AMD ทำงานร่วมกับ UEC เพื่อพัฒนา Ethernet ให้รองรับงาน AI และ HPC ขนาดใหญ่
-
สำหรับ Scale-Up (การเชื่อมต่อภายในระบบ) AMD เป็นผู้ร่วมก่อตั้ง UA Link Consortium โดยได้ “บริจาคเทคโนโลยี Infinity Fabric” ให้ใช้เป็นมาตรฐานกลาง
AMD ยังเผยว่าในระบบของตน จะเปิดทางเลือกให้ผู้ผลิตเลือกระหว่าง
-
UA Link แบบ native ที่เหมาะสำหรับการเชื่อมต่อ GPU ต่อ GPU โดยตรง
-
หรือใช้ UA Link บน Ethernet ผ่านสวิตช์ที่กำลังพัฒนาอยู่
Helios Rack: ตัวอย่างจริงของพลังมาตรฐานเปิด
Papermaster ปิดท้ายโดยยกตัวอย่าง Helios Rack — ระบบที่สะท้อนแนวคิด “เปิดมาตรฐานเชื่อมถึงกัน”
ภายในหนึ่งถาด (tray) ของ Helios Rack จะมีเทคโนโลยีมาตรฐานผสานกันมากมาย เช่น
-
EPYC CPU เชื่อมต่ออุปกรณ์ผ่าน PCIe 6.0
-
การขยายระบบด้วย CXL
-
การเชื่อมต่อ CPU–GPU ด้วย Infinity Fabric
-
GPU Instinct เชื่อมต่อกับ AI Network ผ่าน UA Link
-
ระบบบริหารจัดการ DCSCM ที่ทำให้โมดูลทั้งหมดทำงานร่วมกันได้อย่างยืดหยุ่น
สรุปสั้น ๆ คือ AMD กำลังเดินหน้าแนวทาง “เปิดกว้างและร่วมมือกันทุกระดับ”
ตั้งแต่โครงสร้างฮาร์ดแวร์ไปจนถึงซอฟต์แวร์ AI —
เพื่อตอบโจทย์โลกที่กำลังวิ่งเข้าสู่ยุค “AI Ecosystem แบบเปิดเต็มตัว
ที่มา: TrendForce