มุมมองของ AMD: “Agentic AI” แตกต่างจาก “Generative AI” (เช่น ChatGPT) ในแง่ของเวิร์กโหลดอย่างไร?
เวิร์กโหลดของ Generative AI เป็นงานที่เน้นการประมวลผลอย่างหนัก (compute-intensive) และเร่งความเร็วด้วย GPU โดยมีเป้าหมายเพื่อ “สร้างข้อมูลหรือการแทนข้อมูลใหม่” ตามพรอมป์จากผู้ใช้เป็นหลัก
ขณะที่ Agentic AI มีลักษณะการทำงานคล้าย “ฝูงผู้ใช้ดิจิทัลอัตโนมัติ” ที่สามารถวางแผน ให้เหตุผล และลงมือทำเพื่อบรรลุเป้าหมายได้ด้วยการกำกับดูแลที่จำกัด แทนที่จะเป็นการอินเฟอเรนซ์แบบครั้งเดียวจบ ระบบแบบ agentic จะทำงานเป็นลูปการตัดสินใจอย่างต่อเนื่อง ใช้เครื่องมือหลากหลาย และเชื่อมต่อข้อมูลจากหลายแหล่ง
การทำงานที่มีความไดนามิกและต่อเนื่องเช่นนี้ต้องอาศัยการประมวลผลแบบขนานขนาดใหญ่และการแลกเปลี่ยนข้อมูลตลอดเวลา จึงทำให้โครงสร้างพื้นฐานระดับแร็ก (rack-scale) ที่ผสาน CPU, GPU, เครือข่าย และหน่วยความจำอย่างแน่นแฟ้น มีความสำคัญอย่างยิ่ง เพื่อให้การเคลื่อนย้ายข้อมูลระหว่างหน่วยประมวลผลเป็นไปอย่างมีประสิทธิภาพ
เหตุใด AMD จึงมองว่า “บทบาทของ CPU สำคัญยิ่งขึ้นกว่าเดิม” ในยุค Agentic AI ที่ต้องการการประมวลผลซับซ้อนและการตัดสินใจอัตโนมัติ?
เมื่อ Agentic AI ขยายตัว จะมีเอเจนต์จำนวนมหาศาลเข้ามาใช้งานทรัพยากรคอมพิวต์พร้อมกัน ด้วยความเร็วที่ไม่เคยมีมาก่อน แต่ละเอเจนต์ต้องโต้ตอบกับแหล่งข้อมูล เครื่องมือ และเอเจนต์อื่น ๆ ส่งผลให้เกิดการทำงานที่ขับเคลื่อนด้วย CPU อย่างต่อเนื่อง
ในคลัสเตอร์ AI สมัยใหม่ CPU ทำหน้าที่เป็น “ตัวประสานและผู้ควบคุม” คอยป้อนข้อมูลให้ GPU สั่งรันเคอร์เนล และจัดตารางอินเฟอเรนซ์ เพื่อให้ตัวเร่งความเร็วทำงานได้เต็มประสิทธิภาพ CPU ที่มี IPC สูงและความถี่สูงช่วยยกระดับประสิทธิภาพทั้งคลัสเตอร์ ทำให้ทุกคาบการทำงานของ GPU สร้างคุณค่าได้จริง
กล่าวได้ว่า CPU ไม่ได้เป็นเพียงผู้เล่นสนับสนุนอีกต่อไป แต่เป็นชั้นควบคุมหลักที่ทำให้ทั้งระบบ “คิด ตัดสินใจ และลงมือทำ” ได้อย่างรวดเร็ว ยิ่งสมดุล CPU ดีเท่าไร ปริมาณงาน AI และประสิทธิภาพโดยรวมก็ยิ่งสูงขึ้นเท่านั้น
ในมุมมองของ AMD คอขวดด้านโครงสร้างพื้นฐานใดที่องค์กรส่วนใหญ่มักมองข้ามในการติดตั้งระบบ AI และ CPU โดยเฉพาะ EPYC ช่วยแก้ไขได้อย่างไร?
หลายองค์กรเลือกเซิร์ฟเวอร์ด้วยแนวคิดง่าย ๆ ว่า “หน่วยความจำยิ่งมากยิ่งดี” แต่ในความเป็นจริง การใส่ DIMM เต็มทุกสล็อตอาจสิ้นเปลืองงบประมาณโดยแทบไม่เพิ่มประสิทธิภาพ โดยเฉพาะเมื่อเวิร์กโหลดซับซ้อนขึ้นและระบบขยายไปถึงหลายร้อยคอร์ต่อซ็อกเก็ต
แนวคิดที่เหมาะสมคือการพิจารณา “หน่วยความจำต่อคอร์” เพราะเวิร์กโหลด AI แต่ละแบบต้องการหน่วยความจำไม่เท่ากัน จุดที่ดีที่สุดไม่ใช่มากที่สุด แต่คือปริมาณที่เหมาะกับงาน
ความยืดหยุ่นของแพลตฟอร์มจึงสำคัญ AMD EPYC เปิดโอกาสให้ลูกค้าปรับสเกลระบบให้เหมาะกับเวิร์กโหลดจริง ไม่ถูกบังคับให้ใช้หน่วยความจำต้นทุนสูงแต่ไร้ประสิทธิภาพ แพลตฟอร์ม EPYC 9004 และ 9005 รองรับหน่วยความจำ 12 แชนเนล ให้แบนด์วิดท์สูง บรรลุเป้าหมายด้านความจุโดยไม่เสียประสิทธิภาพ และเมื่อความเร็ว DDR5 เพิ่มขึ้นต่อเนื่อง สถาปัตยกรรม “Zen” ก็ยังพร้อมรองรับงานประสิทธิภาพสูงในอนาคต
คุณสมบัติใดของ AMD EPYC ที่เหมาะกับเวิร์กโหลดในยุค Agentic AI?
เวิร์กโหลด AI ที่ซับซ้อนต้องการ 2 ปัจจัยหลักเพื่ออินเฟอเรนซ์ที่มีประสิทธิภาพสูงสุด ได้แก่ ความจุหน่วยความจำสูงเพื่อลดคอขวด และความถี่คอร์สูงเพื่อให้ไปป์ไลน์ AI ไหลลื่น โดยเฉพาะเมื่อองค์กรหันไปใช้เวิร์กโหลดแบบ agentic และแบบผสมที่ต้องเรียกใช้หลายโมเดล เข้าถึงหน่วยความจำขนาดใหญ่ และประสานงาน I/O ปริมาณมาก
AMD EPYC โดดเด่นด้วยการผสาน “ประสิทธิภาพสูง แบนด์วิดท์หน่วยความจำสูง และการสเกลที่ยอดเยี่ยม”
-
ออกแบบเพื่อ AI Inference: รองรับคอร์ ‘Zen 5’ และ ‘Zen 5c’ สูงสุด 192 คอร์ พร้อม datapath 512-บิต และ AVX-512 ช่วยให้รันอินเฟอเรนซ์แบบขนานได้จำนวนมากบน CPU
-
รองรับงาน AI และงานองค์กรพร้อมกัน: EPYC รุ่นที่ 5 ให้ประสิทธิภาพ integer สูงสุดสำหรับงานองค์กร พร้อมรองรับอินเฟอเรนซ์ของโมเดล AI หลากหลายขนาดในโครงสร้างพื้นฐานเดียว
-
ประมวลผลและ I/O รวดเร็ว: IPC เพิ่มขึ้น 37% สำหรับงาน ML/HPC หนุนด้วย DDR5-6400 และ PCIe® Gen 5 เพื่อการเคลื่อนย้ายข้อมูลความเร็วสูง
สำหรับระบบ AI ขนาดเล็ก EPYC ให้ความคุ้มค่าต่อราคาอย่างยอดเยี่ยม ส่วนระบบขนาดใหญ่ช่วยดึง throughput สูงสุดจากเวิร์กโหลด AI
AMD มองการสเกล AI อย่างไร และบทบาทของ CPU ในระบบแบบครบวงจรคืออะไร?
การสเกล AI ไม่ใช่เรื่องของชิปชนิดเดียว แต่คือระบบครบวงจรที่ CPU, GPU และเครือข่ายทำงานร่วมกันอย่างสมดุล CPU มีบทบาทสำคัญในการเข้าถึงทรัพยากร การใช้งานให้คุ้มค่า ความใกล้ชิดของข้อมูล และแบนด์วิดท์หน่วยความจำ
AMD EPYC มอบ TCO และประสิทธิภาพพลังงานระดับผู้นำ พร้อมเทคโนโลยีเปิดอย่าง UALink, Ultra Ethernet Consortium และซอฟต์แวร์ ROCm™ ช่วยประสานทรัพยากร CPU-GPU-เครือข่าย เพื่อ throughput สูงและประสิทธิภาพพลังงานที่ดีกว่า
EPYC กับอนาคตของ Agentic AI
EPYC ถูกออกแบบมาสำหรับการประมวลผลแบบ heterogeneous ที่ AI การวิเคราะห์ และงานองค์กรหลอมรวมกัน EPYC รุ่นที่ 5 บนสถาปัตยกรรม “Zen 5” รวมคอร์ประสิทธิภาพสูง ความถี่และแบนด์วิดท์ชั้นนำ พร้อมเอนจินเวกเตอร์ 512-บิต และ AVX-512 เร่ง inference และ reasoning บน CPU
แพลตฟอร์มยังรองรับ I/O และหน่วยความจำขนาดใหญ่ เช่น PCIe® Gen 6, CXL™ และ Infinity Fabric™ พร้อมระบบจัดการพลังงานขั้นสูง ช่วยให้ศูนย์ข้อมูลสเกล AI ได้โดยไม่เพิ่มการใช้พลังงานตามสัดส่วน
ทั้งหมดนี้ถูกรวมไว้ในระบบแร็ก AI แบบเปิด “Helios” ที่ผสาน EPYC, AMD Instinct™ GPU และ Pensando™ Networking บนมาตรฐาน Open Rack เพื่อสมรรถนะ แบนด์วิดท์ และประสิทธิภาพพลังงานที่เหมาะกับงาน agentic และ Mixture-of-Experts
ความท้าทายเฉพาะของ APAC/ประเทศไทยในการวางโครงสร้างพื้นฐาน AI
ความท้าทายหลักไม่ใช่แค่พลังประมวลผล แต่คือ “การสเกล” องค์กรต้องรับมือกับข้อมูลที่กระจัดกระจาย ระบบเดิม และระดับความพร้อมด้าน AI ที่แตกต่างกัน ขณะเดียวกันยังต้องคำนึงถึงพลังงาน สิ่งแวดล้อม และต้นทุน
AMD นำเสนอพอร์ตโฟลิโอ AI แบบครบวงจร บนแพลตฟอร์มและมาตรฐานเปิด ช่วยให้ลูกค้ามีอิสระในการเลือก ผสานระบบได้ง่าย และก้าวจากการทดลองสู่การใช้งานจริงได้เร็ว ออกแบบระบบที่พอดีกับงาน พร้อมรองรับอนาคต และสร้างผลลัพธ์ได้จริงในโลกการใช้งานจริง



