Qualcomm เปิดตัวโซลูชัน AI200 และ AI250 – ยกระดับการประมวลผล AI สำหรับศูนย์ข้อมูล ด้วยประสิทธิภาพระดับแร็กและหน่วยความจำล้ำยุค
ไฮไลต์สำคัญ
-
Qualcomm AI200 และ AI250 มอบประสิทธิภาพระดับ rack-scale และความจุหน่วยความจำที่เหนือกว่า เพื่อรองรับการประมวลผล AI แบบสร้างสรรค์ (Generative AI) ในศูนย์ข้อมูล ด้วยต้นทุนต่อประสิทธิภาพ (TCO) ที่ดีที่สุดในอุตสาหกรรม
-
AI250 เปิดตัวด้วยสถาปัตยกรรมหน่วยความจำแบบใหม่ (near-memory computing) ซึ่งเพิ่มประสิทธิภาพแบนด์วิดท์หน่วยความจำได้มากกว่า 10 เท่า พร้อมลดการใช้พลังงานอย่างมหาศาล
-
ทั้งสองโซลูชันมาพร้อมซอฟต์แวร์สแต็กครบชุด รองรับเฟรมเวิร์ก AI ชั้นนำ ทำให้ธุรกิจและนักพัฒนาสามารถนำโมเดล AI มาใช้งานได้อย่างปลอดภัย ยืดหยุ่น และปรับขนาดได้ง่ายในศูนย์ข้อมูล
-
ทั้งหมดนี้เป็นส่วนหนึ่งของแผนการพัฒนา Data Center AI Inference Roadmap แบบต่อเนื่องทุกปีของ Qualcomm
รายละเอียดผลิตภัณฑ์
Qualcomm Technologies, Inc. ประกาศเปิดตัวโซลูชัน AI inference รุ่นใหม่ล่าสุดสำหรับศูนย์ข้อมูล ได้แก่
Qualcomm® AI200 และ AI250 — ชิปเร่งความเร็ว (Accelerator Cards) และระบบแร็กครบชุด
โดยอาศัยความเชี่ยวชาญด้านหน่วยประมวลผล NPU (Neural Processing Unit) ที่ Qualcomm เป็นผู้นำในอุตสาหกรรม โซลูชันใหม่นี้ออกแบบมาเพื่อมอบ ประสิทธิภาพต่อราคาและพลังงานสูงสุด (performance per dollar per watt) สำหรับการประมวลผล AI ขนาดใหญ่และโมเดล Generative AI ทุกรูปแบบ
Qualcomm AI200
-
ออกแบบมาเพื่อการประมวลผล AI ในระดับแร็กโดยเฉพาะ
-
เน้นต้นทุนรวมที่ต่ำ (Low TCO) และประสิทธิภาพสูงสุดสำหรับโมเดล LLM (Large Language Model) และ LMM (Large Multimodal Model)
-
รองรับหน่วยความจำ LPDDR ขนาด 768 GB ต่อการ์ด ซึ่งให้ความจุสูงและต้นทุนต่ำ
-
รองรับการปรับขนาดระบบได้อย่างยืดหยุ่น เหมาะกับงาน AI หลากหลายประเภท
Qualcomm AI250
-
มาพร้อม สถาปัตยกรรมหน่วยความจำแบบใกล้หน่วยประมวลผล (Near-Memory Computing)
-
ให้ประสิทธิภาพหน่วยความจำเพิ่มขึ้นกว่า 10 เท่า พร้อมลดการใช้พลังงานลงอย่างมาก
-
ช่วยให้สามารถทำงานแบบ Disaggregated AI Inference — แยกส่วนประมวลผลเพื่อใช้ฮาร์ดแวร์อย่างคุ้มค่าสูงสุด
-
ตอบโจทย์องค์กรที่ต้องการทั้งสมรรถนะ ความยืดหยุ่น และต้นทุนที่เหมาะสม
เทคโนโลยีในระดับแร็ก
ทั้ง AI200 และ AI250 รองรับ
-
ระบบระบายความร้อนด้วยของเหลว (Direct Liquid Cooling) เพื่อประสิทธิภาพความร้อนสูงสุด
-
PCIe สำหรับขยายการประมวลผล (scale-up)
-
Ethernet สำหรับการเชื่อมต่อระหว่างแร็ก (scale-out)
-
Confidential Computing เพื่อความปลอดภัยของงาน AI
-
กำลังไฟรวมต่อแร็กสูงสุด 160 kW
คำกล่าวจาก Qualcomm
“ด้วย AI200 และ AI250 เรากำลังนิยามใหม่ให้กับคำว่า ‘Rack-Scale AI Inference’ อย่างแท้จริง”
— Durga Malladi, รองประธานอาวุโสและผู้จัดการทั่วไป, Edge Solutions & Data Center, Qualcomm Technologies, Inc.
เขากล่าวเพิ่มเติมว่า โซลูชันนี้จะช่วยให้ลูกค้าสามารถใช้งาน Generative AI ด้วยต้นทุนที่ต่ำที่สุดในตลาด โดยยังคงความยืดหยุ่น ความปลอดภัย และความง่ายในการผสานเข้ากับระบบศูนย์ข้อมูลสมัยใหม่
ซอฟต์แวร์ AI ระดับ Hyperscaler
Qualcomm พัฒนาซอฟต์แวร์สแต็กครบวงจร ตั้งแต่ระดับแอปพลิเคชันจนถึงระดับระบบ เพื่อรองรับงาน AI inference โดยเฉพาะ
-
รองรับเฟรมเวิร์ก Machine Learning ชั้นนำ, Inference Engines, และ Generative AI Frameworks
-
รองรับเทคนิคการปรับแต่งโมเดลขนาดใหญ่ เช่น Disaggregated Serving
-
รองรับการนำโมเดลจาก Hugging Face มาใช้งานได้ด้วยคลิกเดียว ผ่าน Efficient Transformers Library และ Qualcomm AI Inference Suite
-
มีเครื่องมือ ไลบรารี API และบริการพร้อมใช้งานครบชุด เพื่อให้ธุรกิจสามารถนำ AI ไปใช้งานจริงได้ทันที
การวางจำหน่าย
-
Qualcomm AI200 จะเปิดให้ใช้งานเชิงพาณิชย์ในปี 2026
-
Qualcomm AI250 จะตามมาในปี 2027
โดย Qualcomm ยืนยันว่าจะเดินหน้าแผนพัฒนา Data Center AI Roadmap แบบต่อเนื่องทุกปี มุ่งสู่เป้าหมายความเป็นผู้นำในด้าน ประสิทธิภาพการประมวลผล AI, การใช้พลังงานอย่างมีประสิทธิภาพ, และ ต้นทุนรวมที่ดีที่สุดในอุตสาหกรรม (TCO)
ที่มา: Qualcomm



