Google ได้เปิดตัวเทคโนโลยีบีบอัดหน่วยความจำ AI ใหม่ชื่อ “TurboQuant” แบบไม่ทันตั้งตัวเมื่อวันที่ 25 โดยอ้างว่าสามารถลดการใช้หน่วยความจำของโมเดล AI ระหว่างการประมวลผล (inference) ได้สูงสุดถึง 6 เท่า เพิ่มความเร็วได้ถึง 8 เท่า และยังคง “ความแม่นยำเท่าเดิม”
หลังข่าวเผยแพร่ออกมา หุ้นของผู้ผลิตชิปหน่วยความจำรายใหญ่ปรับตัวลดลงทันที โดยนักลงทุนกังวลว่าเทคโนโลยีนี้อาจทำให้ความต้องการ DRAM ลดลง
Google ระบุว่า TurboQuant เป็นอัลกอริทึมที่สามารถลดการใช้หน่วยความจำของ AI ได้อย่างมากโดยไม่กระทบต่อประสิทธิภาพ ปกติแล้วโมเดล AI จะต้องใช้ Key-Value Cache (KV Cache) ในระหว่างการทำงาน ซึ่งจะขยายตัวอย่างรวดเร็วเมื่อมีการประมวลผลข้อมูล และยิ่ง context ยาว ก็ยิ่งใช้หน่วยความจำมากขึ้น
TurboQuant ใช้เทคนิค “vector quantization” เพื่อบีบอัด KV Cache โดย Google ได้พัฒนาเทคโนโลยีสำคัญ 2 อย่างเพื่อรักษาความแม่นยำ ได้แก่
- “PolarQuant” อัลกอริทึมสำหรับการ quantization
- “QJL” อัลกอริทึมสำหรับปรับแต่งการฝึก (training optimization)
ทีมวิจัยมีแผนจะนำเสนอผลงานนี้อย่างเป็นทางการในงาน ICLR 2026 ในเดือนหน้า
ข้อมูลจาก Google ระบุว่า TurboQuant ไม่ต้องการการ pre-train หรือ fine-tune เพิ่มเติม และสามารถบีบอัด KV Cache ลงเหลือเพียง 3 บิต จากเดิม 32 บิต ทำให้ใช้หน่วยความจำน้อยลงสูงสุด 6 เท่า เพิ่มความเร็วในการประมวลผลได้ถึง 8 เท่า โดยไม่มีการสูญเสียความแม่นยำ
หลังจากข่าวนี้ออกมา หุ้นของบริษัทหน่วยความจำรายใหญ่ปรับตัวลดลง ได้แก่
- Samsung ลดลง 4.8%
- SK hynix ลดลง 5.9%
- Micron ลดลง 3.4%
แม้ว่าวอลล์สตรีทจะมองว่าเทคโนโลยีบีบอัดขั้นสูงเป็นเพียงการบรรเทาคอขวดในระยะสั้น และไม่น่าจะเปลี่ยนแนวโน้มความต้องการ DRAM และ NAND ในระยะยาว แต่ตลาดยังคงกังวลว่าเทคโนโลยีของ Google อาจทำให้ความต้องการ DRAM ชะลอตัวลง
เรียกได้ว่าแม้แต่ผู้ผลิต DRAM รายใหญ่ก็คงไม่คาดคิดว่า Google จะปล่อย “เทคโนโลยีระดับนี้” ออกมาได้
ที่มา: HKEPC



