eta เปิดโรดแมปชิป AI ตระกูล MTIA ลุยเปิดตัว 4 รุ่นรวดภายใน 2 ปี
Meta เปิดเผยทิศทางและกลยุทธ์การพัฒนาชิปประมวลผล AI ของตนเองในตระกูล MTIA (Meta Training and Inference Accelerator) ซึ่งพัฒนาร่วมกับ Broadcom โดยประกาศแผนเดินหน้าเปิดตัวชิปรุ่นใหม่ถึง 4 เจเนอเรชัน ได้แก่ MTIA 300, 400, 450 และ 500 ภายในกรอบเวลาเพียง 2 ปี (2026-2027) เพื่อรองรับการเติบโตอย่างก้าวกระโดดของโมเดล Generative AI (GenAI) และรักษาต้นทุนโครงสร้างพื้นฐานในการให้บริการผู้ใช้งานหลายพันล้านคน
กลยุทธ์หลักของ Meta คือการใช้แนวทาง “Iterative Approach” หรือการพัฒนาแบบค่อยเป็นค่อยไปแต่ทำด้วยความรวดเร็ว (High Velocity) โดยออกแบบชิปให้เป็นโมดูลาร์ (Modular chiplets) ที่สามารถปรับปรุงและนำเทคโนโลยีใหม่มาใช้ได้ทันที แทนที่จะใช้เวลานานเพื่อพัฒนาชิปเพียงรุ่นเดียว ซึ่งสอดคล้องกับธรรมชาติของโมเดล AI ที่มีการเปลี่ยนแปลงสถาปัตยกรรมอย่างรวดเร็ว
สรุปไทม์ไลน์และสเปกชิป MTIA ทั้ง 4 รุ่น
- MTIA 300 (พื้นฐานที่คุ้มค่า): เริ่มต้นจากการออกแบบเพื่อรองรับโมเดล Ranking & Recommendation (R&R) ซึ่งเป็นเวิร์กโหลดหลักของ Meta ก่อนยุค GenAI ชิปรุ่นนี้โดดเด่นเรื่องระบบสื่อสารผ่านชิปเล็ตเครือข่าย (NIC chiplets) ในตัว และปัจจุบันเข้าสู่กระบวนการผลิตเพื่อใช้สำหรับงานฝึกฝนโมเดล (R&R training) แล้ว
- MTIA 400 (ประสิทธิภาพเทียบชั้นชิปเชิงพาณิชย์): พัฒนาต่อยอดเพื่อรองรับทั้ง R&R และ GenAI อย่างเต็มรูปแบบ โดยเพิ่มขีดความสามารถ FP8 FLOPS สูงขึ้น 400% และแบนด์วิดท์ HBM สูงขึ้น 51% เมื่อเทียบกับรุ่น 300 ปัจจุบันทดสอบในห้องปฏิบัติการเสร็จสิ้นและเตรียมติดตั้งในศูนย์ข้อมูล
- MTIA 450 (ก้าวกระโดดสำหรับ GenAI Inference): ออกแบบมาเพื่อรับมือความต้องการด้าน GenAI Inference โดยเฉพาะ เพิ่มแบนด์วิดท์ HBM เป็นสองเท่าจากรุ่น 400 เพื่อเร่งกระบวนการ Decode และรองรับสถาปัตยกรรมแบบ Mixture-of-Experts (MoE) รวมถึงเร่งความเร็วการคำนวณ Attention และ FFN เตรียมเดินสายผลิตเพื่อใช้งานจริงต้นปี 2027
- MTIA 500 (ลดต้นทุน เพิ่มประสิทธิภาพ): ต่อยอดการรองรับ GenAI Inference ให้คุ้มค่ายิ่งขึ้น โดยเพิ่มแบนด์วิดท์ HBM อีก 50% และความจุ HBM สูงสุด 80% จากรุ่น 450 ใช้การจัดเรียงชิปเล็ตประมวลผลแบบ 2×2 เตรียมติดตั้งเพื่อใช้งานจริงภายในปี 2027

กลยุทธ์การพัฒนา MTIA ของ Meta
Meta ระบุว่าความสำเร็จของชิป MTIA ท่ามกลางสมรภูมิการแข่งขันที่ดุเดือด เกิดจากการยึดมั่นใน 3 กลยุทธ์หลัก ได้แก่
- High Velocity (การพัฒนาความเร็วสูง): ความสามารถในการเข็นชิปรุ่นใหม่ออกมาทุกๆ 6 เดือน เพื่อปรับตัวให้ทันเทคนิค AI ใหม่ๆ และดึงเทคโนโลยีการผลิตล่าสุดมาใช้ โดยอาศัยการออกแบบระบบแบบใช้ซ้ำได้ตั้งแต่ระดับชิปเล็ต โครงเครื่อง แร็คเซิร์ฟเวอร์ ไปจนถึงเครือข่าย ทำให้สามารถนำชิปรุ่นใหม่ไปสวมแทนในพื้นที่ศูนย์ข้อมูลเดิมได้ทันที
- Inference First (เน้นการอนุมานเป็นหลัก): สวนทางกับตลาด GPU ทั่วไปที่มักเน้นการฝึกฝนโมเดล (Pre-training) ขนาดใหญ่ Meta เลือกออกแบบชิปรุ่น 450 และ 500 ให้รองรับงาน GenAI Inference เป็นอันดับแรก เพื่อความคุ้มค่าสูงสุดในการให้บริการจริง ก่อนจะขยายไปรองรับงานฝึกฝนโมเดลในภายหลัง
- Frictionless Adoption (การปรับใช้อย่างไร้รอยต่อ): ชิป MTIA สร้างขึ้นบนมาตรฐานอุตสาหกรรมอย่าง PyTorch, vLLM, Triton และ Open Compute Project (OCP) ตั้งแต่ต้น ทำให้นักพัฒนาไม่ต้องเขียนโค้ดใหม่เพื่อปรับแต่งโมเดลให้เข้ากับ MTIA โดยเฉพาะ สามารถดึงทรัพยากรจากฝั่ง GPU มาใช้ร่วมกันได้ทันที

ที่มา: Meta AI Blog
Leave a Reply