ความต้องการ AI ที่พุ่งสูงอย่างต่อเนื่องกำลังกดดันให้ราคาหน่วยความจำปรับตัวขึ้นอย่างรุนแรง และกำลังเปลี่ยนโครงสร้างกำไรของอุตสาหกรรมเซมิคอนดักเตอร์โดยรวม รายงานจากสื่อเกาหลี Hankyung ระบุว่า ธุรกิจหน่วยความจำของ Samsung Electronics และ SK hynix มีแนวโน้มจะมีอัตรากำไรขั้นต้น (Gross Margin) แซงหน้า TSMC ในไตรมาส 4 ปี 2025 ซึ่งจะเป็นครั้งแรกนับตั้งแต่ไตรมาส 4 ปี 2018 หรือในรอบกว่า 7 ปี ที่ธุรกิจหน่วยความจำทำกำไรได้สูงกว่าธุรกิจโรงงานผลิตชิป (Foundry)
แหล่งข่าวในรายงานระบุว่า ธุรกิจหน่วยความจำของ Samsung Electronics และ SK hynix คาดว่าจะทำอัตรากำไรขั้นต้นได้ราว 63%–67% ในไตรมาส 4 ซึ่งสูงกว่าคำแนะนำอย่างเป็นทางการของ TSMC ที่ระดับประมาณ 60%
รายงานยังชี้ว่า Micron ผู้ผลิตหน่วยความจำรายใหญ่อันดับ 3 ของโลก ประกาศเมื่อวันที่ 17 ว่า อัตรากำไรขั้นต้นของบริษัทในไตรมาสแรกปีงบประมาณ 2026 (กันยายน–พฤศจิกายน) อยู่ที่ 56% และคาดว่าจะเพิ่มขึ้นเป็น 67% ในไตรมาสถัดไป (ธันวาคม–กุมภาพันธ์) ซึ่งบ่งชี้ว่า Micron เองก็มีแนวโน้มจะแซง TSMC ในด้านความสามารถทำกำไรได้ตั้งแต่ไตรมาสแรกของปีหน้า
รายงานอธิบายว่า ปัจจัยหลักระยะสั้นที่ผลักดันตลาดหน่วยความจำคือการปรับขึ้นของราคาอย่างรวดเร็ว เนื่องจากผู้ผลิตหน่วยความจำรายใหญ่ทั้งสามรายได้นำกำลังการผลิต DRAM ประมาณ 18%–28% ไปใช้กับ HBM ซึ่งเป็นหน่วยความจำแบบซ้อนชั้น 8–16 ได (die) ส่งผลให้ซัพพลายของหน่วยความจำทั่วไปตึงตัว และทำให้ราคา DRAM มาตรฐานปรับขึ้นมากกว่า 30% เมื่อเทียบแบบไตรมาสต่อไตรมาส
จากการฝึกสอนสู่การใช้งานจริง: หน่วยความจำกลายเป็นหัวใจสำคัญ
รายงานระบุเพิ่มเติมว่า การที่อัตรากำไรของหน่วยความจำกำลังจะแซงหน้า Foundry มีสาเหตุสำคัญมาจากอุตสาหกรรม AI ที่กำลังเปลี่ยนผ่านจากช่วง “Training” ไปสู่ “Inference” ซึ่งเป็นช่วงที่ต้องอาศัยการจัดเก็บและเรียกใช้ข้อมูลอย่างรวดเร็ว โดย Inference คือการนำความรู้ที่ได้จากการฝึกสอนมาใช้แก้ปัญหาจริง ทำให้ต้องพึ่งพาหน่วยความจำอย่าง HBM เพื่อเก็บข้อมูลและป้อนข้อมูลให้ GPU อย่างต่อเนื่อง
ขณะเดียวกัน ความต้องการหน่วยความจำทั่วไปที่เน้นประหยัดพลังงานก็เพิ่มขึ้นอย่างรวดเร็ว แม้ว่าประสิทธิภาพจะด้อยกว่า HBM ก็ตาม ในช่วงเริ่มต้นของงาน Inference มักใช้ DRAM ทั่วไป เช่น GDDR7 และ LPDDR5X ส่วน HBM จะถูกสงวนไว้สำหรับงาน Inference ที่มีความเข้มข้นสูง ตัวอย่างที่เห็นได้ชัดคือ NVIDIA ที่เลือกใช้ GDDR7 ในตัวเร่ง AI ที่เน้นงาน Inference
สุดท้าย รายงานระบุว่าบริษัทหน่วยความจำเตรียมต่อยอด “ยุคหน่วยความจำเป็นศูนย์กลาง” ด้วยการพัฒนาผลิตภัณฑ์ประสิทธิภาพสูงสำหรับ AI โดยเฉพาะ เช่น เทคโนโลยี Processing-in-Memory (PIM) ที่ให้หน่วยความจำรับภาระการประมวลผลบางส่วนแทน GPU รวมถึงเทคโนโลยีอย่าง Vertical Channel Transistor (VCT) DRAM และ 3D DRAM ซึ่งเพิ่มความหนาแน่นของข้อมูลโดยจัดเก็บข้อมูลได้มากขึ้นในพื้นที่ที่เล็กลง และคาดว่าจะเริ่มเข้าสู่ตลาดในอนาคตอันใกล้
ที่มา: TrendForce



