บทความโดย Alexey Navolokin ผู้จัดการทั่วไปประจำภูมิภาคเอเชียแปซิฟิก (APAC) - AMD
รัฐบาลและภาคอุตสาหกรรมทั่วโลกกำลังเร่งเครื่องเพื่อชิงความได้เปรียบด้านปัญญาประดิษฐ์ (AI) สำหรับหลาย ๆ ประเทศ แรงขับเคลื่อนนี้เกิดขึ้นในช่วงเวลาที่ต้องเผชิญกับความเป็นจริงทางประชากรศาสตร์ที่เร่งด่วน ไม่ว่าจะเป็น สังคมผู้สูงอายุ การหดตัวของกำลังแรงงาน และความจำเป็นเร่งด่วนในการปฏิรูปผลิตผล ซึ่งเราไม่สามารถปล่อยให้ตัวเองล้าหลังได้ และการผงาดขึ้นของ Agentic AI (AI ที่มีความคิดเชิงตัวแทนและกระทำการเองได้) คือคำมั่นสัญญาที่จะเข้ามาเร่งกระบวนการเปลี่ยนแปลงนี้ให้เร็วยิ่งขึ้น
สิ่งที่ทำให้ Agentic AI แตกต่างจากโมเดล AI แบบดั้งเดิมคือ มันไม่ได้ทำหน้าที่เพียงแค่ตอบคำถาม แต่สามารถคิดหาเหตุผล วางแผน และลงมือทำข้ามระบบต่าง ๆ ได้ เช่น แทนที่จะทำเพียงแค่ตอบคำถามแนะนำสถานที่ท่องเที่ยว ระบบ Agentic AI จะสามารถจองตั๋วเครื่องบิน อัปเดตปฏิทินงาน ส่งการแจ้งเตือน และแม้กระทั่งปรับเปลี่ยนแผนการเดินทางตามสภาพอากาศหรือเหตุล่าช้าได้ทันที โดยที่เราไม่ต้องป้อนคำสั่งในแต่ละขั้นตอน สิ่งนี้ถือเป็นการเปลี่ยนผ่านจากการตอบสนองของ AI แบบตั้งรับไปสู่ระบบเชิงรุกที่ทำงานร่วมกับมนุษย์เสมือนเพื่อนร่วมงาน การเติบโตของ Agentic AI จะต้องการพลังการประมวลผลที่มหาศาลกว่าเดิมมาก ไม่ใช่แค่สำหรับงานเดียว แต่สำหรับกระบวนการทำงานที่ต่อเนื่องยาวนาน ที่ต้องอาศัยการคิดวิเคราะห์ การวางแผน และการปรับตัวอยู่ตลอดเวลา
เมื่อเทคโนโลยี Agentic AI พัฒนาขึ้นและมีการนำไปใช้งานเป็นวงกว้าง ก็เปรียบเสมือนการเพิ่มผู้ใช้งานเสมือนจริง (virtual users) นับพันล้านรายเข้าสู่โครงข่ายการประมวลผล คำถามสำคัญสำหรับทุกประเทศ รวมถึงประเทศไทย คือ โครงสร้างพื้นฐานด้าน AI ของประเทศมีความพร้อมที่จะรองรับขนาดของการใช้งาน และความซับซ้อนระดับนี้แล้วหรือยัง
AI ไม่ได้แค่เรื่องของ GPU
ในการสนทนาเรื่อง AI เรามักได้ยินแต่เรื่องของหน่วยประมวลผลกราฟิก (GPU) ประสิทธิภาพสูง โดยเฉพาะสำหรับการเทรนและการรันโมเดลขนาดใหญ่ แต่ในความเป็นจริง หน่วยประมวลผลกลาง (CPU) มีความสำคัญไม่แพ้กันในฐานะผู้อยู่เบื้องหลังการขับเคลื่อนระบบ AI โดยทำหน้าที่จัดการงานสำคัญต่าง ๆ เช่น การเคลื่อนย้ายข้อมูล การจัดการหน่วยความจำ การประสานงานของเธรด และการบริหารจัดการเวิร์กโหลดงานของ GPU
ในความเป็นจริง เวิร์กโหลดงาน AI จำนวนมาก รวมถึงโมเดลภาษาที่มีพารามิเตอร์สูงสุดถึง 1.3 หมื่นล้านพารามิเตอร์, ระบบจดจำภาพ, การตรวจจับการฉ้อโกง และระบบแนะนำสินค้า สามารถรันเวิร์กโหลกได้อย่างมีประสิทธิภาพบนเซิร์ฟเวอร์ที่ใช้ CPU เพียงอย่างเดียว โดยเฉพาะเมื่อขับเคลื่อนด้วย CPU ประสิทธิภาพสูงเช่นโปรเซสเซอร์ AMD EPYC™ 9005 Series
เมื่อโมเดล AI วิวัฒนาการไปสู่สถาปัตยกรรมแบบแยกส่วนมากขึ้น (modular architectures) เช่น ระบบ mixture-of-experts ที่ได้รับความนิยมจาก DeepSeek และผู้พัฒนารายอื่น ๆ ความต้องการในการจัดสรรทรัพยากรอย่างชาญฉลาดก็ยิ่งเพิ่มขึ้น CPU จำเป็นต้องมีชุดคำสั่งต่อรอบสัญญาณนาฬิกา (IPC) ที่สูง มีระบบ input/output (I/O) ที่รวดเร็ว และมีความสามารถในการจัดการงานหลายอย่างพร้อมกันได้อย่างแม่นยำ
สิ่งที่สำคัญไม่แพ้กันคือ "การเชื่อมต่อ" ซึ่งเปรียบเสมือน “กาว” ที่ยึดโยงระบบ AI สมัยใหม่เข้าด้วยกัน อุปกรณ์เครือข่ายขั้นสูง เช่น คอนโทรลเลอร์อินเทอร์เฟซเครือข่ายอัจฉริยะ (smart NICs) ช่วยกำหนดเส้นทางข้อมูลอย่างมีประสิทธิภาพและปลอดภัยระหว่างชิ้นส่วนต่าง ๆ ช่วยลดภาระจาก GPU และลดความหน่วง การเชื่อมต่อระหว่างกันที่มีความเร็วสูงที่มีความหน่วงต่ำช่วยให้ข้อมูลไหลเวียนข้ามระบบได้อย่างราบรื่น ในขณะที่โครงสร้างแบบ Scalable Fabric ช่วยเชื่อมต่อโหนดต่าง ๆ เข้าด้วยกันเป็นคลัสเตอร์ AI แบบกระจายตัวที่ทรงพลัง
ในยุคของ Agentic AI การออกแบบระบบแบบผสมผสาน (heterogeneous system design) กลายเป็นสิ่งจำเป็น โครงสร้างพื้นฐาน AI ต้องก้าวข้ามให้ไกลกว่าแค่พลังการประมวลผลดิบ ๆ ไปสู่การบูรณาการ CPU, GPU, เครือข่าย และหน่วยความจำ เข้าด้วยกันอย่างยืดหยุ่นและขยายขนาดได้ ระบบที่ถูกสร้างขึ้นในลักษณะนี้จะสามารถมอบความเร็ว การประสานงาน และปริมาณงาน (throughput) ที่จำเป็นเพื่อรองรับการโต้ตอบแบบเรียลไทม์ที่รวดเร็วของเอเจนต์อัจฉริยะนับพันล้านตัว และเมื่อการใช้งานขยายตัวขึ้น การปรับแต่งเพื่อเพิ่มประสิทธิภาพตู้แร็ค (rack-level optimization) ซึ่งมีการออกแบบการประมวลผล การจัดเก็บข้อมูล และเครือข่ายร่วมกันอย่างแน่นแฟ้น จะเป็นกุญแจสำคัญในการส่งมอบประสิทธิภาพและความคุ้มค่าสู่ยุคถัดไป
ทำไม "การเป็นระบบเปิด" (Openness) ถึงสำคัญในสนามแข่ง AI
เมื่อระบบ AI มีความซับซ้อนและมีการใช้งานมากขึ้น "การเป็นระบบเปิด" ทั้งในด้านซอฟต์แวร์ ฮาร์ดแวร์ และการออกแบบระบบ จะกลายเป็นความจำเป็นเชิงกลยุทธ์ ระบบนิเวศแบบปิดจะมีความเสี่ยงต่อการถูกผูกขาด (vendor lock-in) ซึ่งเป็นการจำกัดความยืดหยุ่น และขัดขวางนวัตกรรมในช่วงเวลาที่การปรับตัวคือกุญแจสำคัญของการขยายสเกลด้าน AI
นี่คือเหตุผลที่ชุดซอฟต์แวร์แบบเปิดอย่าง AMD ROCm™ มีความจำเป็น ROCm มอบอิสระให้นักพัฒนาและนักวิจัยในการสร้าง ปรับแต่ง และใช้งานโมเดล AI ในสภาพแวดล้อมที่หลากหลาย รองรับเฟรมเวิร์กยอดนิยมอย่าง PyTorch และ TensorFlow รวมถึงมีเครื่องมือขั้นสูงสำหรับการปรับจูนประสิทธิภาพ และการพอร์ตข้ามฮาร์ดแวร์ได้ ทั้งหมดนี้อยู่บนพื้นฐานโอเพนซอร์ส ในบริบทของความมุ่งมั่นของประเทศไทยที่ต้องการจะส่งเสริมนวัตกรรมทั้งในภาคการศึกษา สตาร์ทอัพ และอุตสาหกรรม ซอฟต์แวร์ AI แบบเปิดจะช่วยให้เข้าถึงเทคโนโลยีได้กว้างขวางขึ้น พัฒนาต่อยอดได้เร็วขึ้น และลดอุปสรรคในการเข้าสู่ตลาด
ในทำนองเดียวกัน การเป็นระบบเปิดในระดับฮาร์ดแวร์และระบบก็สำคัญไม่แพ้กัน เมื่อการประมวลผล AI พัฒนาไปสู่การใช้งานแบบผสมผสานในสเกลใหญ่ สถาปัตยกรรมระดับตู้แร็ค (rack-scale) จะกลายเป็นรากฐานสำคัญ มาตรฐานเปิดเช่น Open Compute Project (OCP) จะรองรับการออกแบบระบบแบบโมดูลาร์ ในขณะที่ความร่วมมือใหม่ ๆ อย่าง Ultra Accelerator Link (UALink) จะมุ่งเป้าไปที่การสร้างการเชื่อมต่อแบนด์วิดท์สูงแบบเปิดระหว่างตัวเร่งความเร็ว AI ข้ามเซิร์ฟเวอร์ ในขณะเดียวกัน Ultra Ethernet Consortium (UEC) ก็กำลังกำหนดมาตรฐานเครือข่ายยุคใหม่ที่สร้างขึ้นมาเพื่อ AI โดยเฉพาะ เพื่อให้สามารถเคลื่อนย้ายข้อมูลด้วยความหน่วงต่ำและปริมาณงานสูงผ่านระบบแบบกระจายศูนย์
ความคิดริเริ่มแบบเปิดกว้างเหล่านี้จะช่วยให้ผู้ให้บริการคลาวด์และดาต้าเซ็นเตอร์สามารถสร้างโครงสร้างพื้นฐานที่ยืดหยุ่นและทำงานร่วมกันได้ เพื่อก้าวให้ทันการเติบโตอย่างก้าวกระโดดของ AI สำหรับประเทศไทย การเปิดรับระบบนิเวศแบบเปิดจะช่วยให้ประเทศได้รับประโยชน์จากนวัตกรรมระดับโลก พร้อมกับสร้างจุดเด่นของตนเองในระดับท้องถิ่น ช่วยให้รัฐบาลและภาคธุรกิจสามารถสร้างโครงสร้างพื้นฐานที่มีประสิทธิภาพ ประหยัดพลังงาน และตอบโจทย์ความต้องการภายในประเทศ โดยไม่ถูกจำกัดด้วยข้อจำกัดเฉพาะของผู้ค้ารายใดรายหนึ่ง
ในยุคสมัยที่กำลังจะมาถึงซึ่งจะถูกกำหนดโดย multi-agent AI การเป็นระบบเปิดจะไม่ใช่แค่ปรัชญา แต่เป็นเงื่อนไขจำเป็นสำหรับการขยายสเกล ความเป็นอธิปไตยทางเทคโนโลยี และความเป็นผู้นำที่ยั่งยืน
มองไปข้างหน้าสู่ปี 2026
ในขณะที่ Agentic AI เข้ามาเปลี่ยนโฉมวิธีการทำสิ่งต่างๆ จุดโฟกัสของเราต้องขยายไปมากกว่าแค่ GPU เพื่อให้ครอบคลุมไปถึง CPU, การเชื่อมต่อความเร็วสูง และระบบเครือข่ายอัจฉริยะ ซึ่งทั้งหมดล้วนสำคัญเท่าเทียมกันในการจัดการการตัดสินใจที่ซับซ้อนและเรียลไทม์ของ AI Agent ในสเกลใหญ่ สิ่งที่สำคัญพอ ๆ กันคือระบบนิเวศแบบเปิด ทั้งซอฟต์แวร์เปิดเช่น ROCm, มาตรฐานอุตสาหกรรมสำหรับการออกแบบตู้แร็คและความร่วมมือกับ UALink และ UEC ที่ช่วยให้เกิดความยืดหยุ่น นวัตกรรมที่เร็วขึ้น และการทำงานร่วมกันได้ตั้งแต่อุปกรณ์ปลายทาง (edge) ไปจนถึงคลาวด์
นี่คือเหตุผลที่ AMD ผลักดันวิสัยทัศน์ด้วย “Helios” ซึ่งเป็นตู้แร็คดีไซน์อ้างอิงในยุคถัดไปสำหรับโครงสร้างพื้นฐาน AI ที่จะเปิดตัวในปี 2026 ออกแบบมาเพื่อผสานรวมการประมวลผลประสิทธิภาพสูง ซอฟต์แวร์แบบเปิด และสถาปัตยกรรมที่ขยายสเกลได้ เพื่อตอบสนองความต้องการของ Agentic AI
สำหรับประเทศไทย การสร้างโครงสร้างพื้นฐานแบบเปิดที่ผสานรวมและขยายสเกลได้เช่นนี้ เป็นมากกว่าแค่ทางเลือกทางเทคโนโลยี แต่มันคือรากฐานเชิงกลยุทธ์สำหรับความสามารถในการแข่งขันของชาติ ซึ่งประเทศไทยได้เริ่มปูทางไว้แล้วผ่านความสำเร็จของ "LANTA" ซูเปอร์คอมพิวเตอร์อันดับ 1 ของอาเซียนจาก สวทช. ที่เลือกใช้ความยืดหยุ่นของโปรเซสเซอร์ AMD EPYC™ รองรับงานที่หลากหลายตั้งแต่ AI ไปจนถึงการแพทย์แม่นยำ ส่งผลให้เกิดผลลัพธ์จริง เช่น การลดเวลาพยากรณ์ฝุ่น PM2.5 เหลือเพียง 45 นาที และลดค่าไฟฟ้าได้ถึง 30% ด้วยเทคโนโลยีระบายความร้อนด้วยของเหลว สิ่งนี้พิสูจน์ให้เห็นว่าโครงสร้างพื้นฐานของไทยนั้นทรงพลังและยั่งยืน พร้อมรับมือกับความต้องการในปี 2026 และจะเป็นกุญแจสำคัญในการปลดล็อกการเติบโตและนวัตกรรมของประเทศต่อไป ในขณะที่ประเทศต้องรับมือกับความต้องการด้านระบบอัตโนมัติที่เพิ่มขึ้นและความทะเยอทะยานด้าน AI ในระดับภูมิภาค โครงสร้างพื้นฐาน AI ที่พร้อมสำหรับอนาคตจะเป็นสิ่งจำเป็นในการปลดล็อกการเติบโตอย่างยั่งยืน รวมถึงด้านนวัตกรรม และความยืดหยุ่นของประเทศ



