SOCAMM2 คือหน่วยความจำ LPDDR5X แบบถอดเปลี่ยนได้ ออกแบบมาเพื่อรองรับเวิร์กโหลด AI inference ที่ต้องการแบนด์วิดท์สูงและประหยัดพลังงานในศูนย์ข้อมูลยุคใหม่
Samsung เปิดตัว SOCAMM2 (Small Outline Compression Attached Memory Module) โมดูลหน่วยความจำแบบ LPDDR สำหรับศูนย์ข้อมูล AI เพื่อตอบโจทย์การเปลี่ยนผ่านของเวิร์กโหลด AI จากการฝึกโมเดลขนาดใหญ่ไปสู่การทำ inference อย่างต่อเนื่อง ซึ่งทำให้ประสิทธิภาพด้านพลังงานและการจัดการความร้อนกลายเป็นปัจจัยสำคัญไม่แพ้พลังประมวลผล
SOCAMM2 ถูกพัฒนาบนพื้นฐาน LPDDR5X DRAM ของ Samsung แต่แตกต่างจาก LPDDR แบบเดิมที่บัดกรีติดเมนบอร์ด ด้วยการออกแบบให้เป็นโมดูลที่สามารถถอดเปลี่ยนได้ ช่วยผสานข้อดีของ LPDDR ที่ใช้พลังงานต่ำเข้ากับความยืดหยุ่นแบบหน่วยความจำเซิร์ฟเวอร์ โดย Samsung ระบุว่าขณะนี้ได้เริ่มส่งตัวอย่างให้ลูกค้าแล้ว
เหตุผลที่ SOCAMM2 ถูกพัฒนาขึ้น
- เวิร์กโหลด AI เปลี่ยนจากการฝึกโมเดลไปสู่ inference ต่อเนื่อง ทำให้การใช้พลังงานต่อประสิทธิภาพมีความสำคัญมากขึ้น
- ศูนย์ข้อมูล AI เผชิญข้อจำกัดด้านพลังงาน ความร้อน และต้นทุนรวมของระบบ
- หน่วยความจำแบบ RDIMM แม้ยังจำเป็น แต่ไม่เหมาะกับเซิร์ฟเวอร์ AI ที่ต้องการความหน่วงต่ำและประสิทธิภาพพลังงานสูง
จุดเด่นทางเทคนิคของ SOCAMM2
- ใช้ LPDDR5X ให้แบนด์วิดท์มากกว่า RDIMM มากกว่าสองเท่า
- ใช้พลังงานน้อยกว่าหน่วยความจำ RDIMM มากกว่า 55%
- รักษา throughput สูงได้อย่างเสถียรภายใต้เวิร์กโหลด AI หนัก
- ออกแบบเป็นโมดูลถอดเปลี่ยนได้ ไม่ต้องบัดกรีติดบอร์ด
ประโยชน์ต่อการออกแบบและการดูแลระบบ
- สามารถอัปเกรดหรือเปลี่ยนหน่วยความจำได้โดยไม่ต้องแก้ไขเมนบอร์ด ลด downtime และลด TCO
- ใช้พลังงานต่ำ ช่วยลดภาระระบบระบายความร้อนในศูนย์ข้อมูล AI ความหนาแน่นสูง
- การจัดวางแบบแนวนอนช่วยใช้พื้นที่ระบบได้คุ้มค่า และเพิ่มความยืดหยุ่นในการออกแบบ airflow
- รองรับทั้งระบบระบายความร้อนด้วยอากาศและของเหลว
ความร่วมมือกับ NVIDIA และการผลักดันมาตรฐาน
Samsung ระบุว่ากำลังทำงานร่วมกับ NVIDIA อย่างใกล้ชิด เพื่อปรับแต่ง SOCAMM2 ให้เหมาะกับโครงสร้างพื้นฐาน AI ที่เร่งด้วย GPU โดยเน้นการตอบสนองที่รวดเร็วและประสิทธิภาพพลังงานสำหรับแพลตฟอร์ม inference ยุคใหม่
นอกจากนี้ อุตสาหกรรมยังได้เริ่มกระบวนการจัดทำมาตรฐานสำหรับหน่วยความจำเซิร์ฟเวอร์ที่ใช้ LPDDR โดย Samsung มีส่วนร่วมกับพันธมิตรหลักเพื่อกำหนดแนวทางการออกแบบให้สามารถนำไปใช้งานร่วมกันได้ในอนาคต
SOCAMM2 ถูกวางตำแหน่งเป็นก้าวสำคัญในการนำเทคโนโลยี LPDDR เข้าสู่เซิร์ฟเวอร์กระแสหลักสำหรับ AI infrastructure โดยผสานแบนด์วิดท์สูง พลังงานต่ำ และความยืดหยุ่นเชิงระบบ เพื่อรองรับการเติบโตของเวิร์กโหลด AI ที่ซับซ้อน และปูทางไปสู่ศูนย์ข้อมูลยุคใหม่ที่กะทัดรัดและประหยัดพลังงานมากขึ้น
ที่มา: Samsung Semiconductor Blog
Leave a Reply