Intel และ Google ประกาศความร่วมมือระยะยาวด้านชิปและโครงสร้างพื้นฐาน AI
Intel และ Google ประกาศความร่วมมือหลายปี โดย Google จะยังคงใช้แพลตฟอร์ม Intel Xeon สำหรับโครงสร้างพื้นฐาน AI และคลาวด์ยุคถัดไป ซึ่งจะไม่ใช่แค่ซีพียู Xeon รุ่นใหม่เท่านั้น แต่ยังรวมถึงชิป IPU (Infrastructure Processing Unit) แบบปรับแต่งที่ทั้งสองบริษัทพัฒนาร่วมกัน
ความเคลื่อนไหวนี้เกิดขึ้นท่ามกลางแนวโน้มที่ผู้ให้บริการคลาวด์หันไปใช้ชิปแบบกำหนดเองที่ใช้สถาปัตยกรรม Arm มากขึ้นสำหรับงาน AI
Lip-Bu Tan ซีอีโอของ Intel ระบุว่า การขยายระบบ AI ไม่ได้ต้องการแค่ตัวเร่งความเร็ว (accelerators) เท่านั้น แต่ต้องมีระบบที่สมดุล โดย CPU และ IPU เป็นองค์ประกอบสำคัญในการมอบประสิทธิภาพ ความยืดหยุ่น และความคุ้มค่าที่งาน AI สมัยใหม่ต้องการ
ปัจจุบัน Google ใช้ Intel Xeon 5 และ Xeon 6 สำหรับงานหลากหลาย เช่น การควบคุมการเทรน AI ขนาดใหญ่ งาน inference ที่ต้องการความหน่วงต่ำ และงานประมวลผลทั่วไป โดย Xeon ยังเป็นหัวใจของอินสแตนซ์อย่าง C4 และ N4
แม้ว่า Google จะมีชิป Arm แบบพัฒนาขึ้นเองอย่าง Axion ที่ช่วยควบคุมต้นทุนและเพิ่มประสิทธิภาพได้ดี แต่หลายงานในดาต้าเซ็นเตอร์ยังต้องพึ่งพา x86 ทั้งในด้านความเข้ากันได้ย้อนหลัง และประสิทธิภาพ single-thread ที่ Xeon ทำได้ดีกว่า ซึ่งแนวโน้มนี้จะยังคงอยู่ต่อไปอีกหลายปี
เพื่อเพิ่มประสิทธิภาพในระดับ hyperscale Google จะร่วมพัฒนา IPU กับ Intel เพื่อช่วยแยกภาระงานด้านเครือข่าย การจัดเก็บข้อมูล และความปลอดภัยออกจาก CPU หลัก ทำให้ระบบโดยรวมมีประสิทธิภาพมากขึ้น
Amin Vahdat จาก Google ระบุว่า CPU และชิปเร่งโครงสร้างพื้นฐานยังคงเป็นแกนหลักของระบบ AI ตั้งแต่การจัดการการเทรนไปจนถึงการใช้งานจริง
ในขณะเดียวกัน รายงานจาก Counterpoint Research ระบุว่า เซิร์ฟเวอร์ AI ที่ใช้ชิปแบบกำหนดเองถึง 90% จะใช้สถาปัตยกรรม Arm เหลือเพียงประมาณ 10% สำหรับ x86 และ RISC-V อย่างไรก็ตาม ความร่วมมือครั้งนี้แสดงให้เห็นว่า Xeon ยังมีบทบาทสำคัญในงาน AI ระดับสูง
Intel Xeon เป็นรากฐานของโครงสร้างพื้นฐานคลาวด์มาตั้งแต่ยุค 2000 และยังคงมีบทบาทสำคัญในดาต้าเซ็นเตอร์ของ Google ต่อไปในอนาคต แม้การแข่งขันจากสถาปัตยกรรมอื่นจะรุนแรงขึ้นก็ตาม
ที่มา: Tom's Hardware



