Nvidia เปิดตัวสถาปัตยกรรม Rubin ในงาน CES 2026 มุ่งเน้นเพิ่มประสิทธิภาพการประมวลผล Agentic AI

Jensen Huang Nvidia CES 2026

Nvidia เปิดตัว Rubin ปฏิวัติสถาปัตยกรรมชิป AI: ก้าวสำคัญสู่ยุค Agentic AI และโครงสร้างพื้นฐานระดับล้านล้าน


Jensen Huang ประธานเจ้าหน้าที่บริหารของ Nvidia ประกาศเปิดตัวสถาปัตยกรรมคอมพิวเตอร์รุ่นใหม่ล่าสุดภายใต้ชื่อ “Rubin” ในงาน CES 2026 โดยระบุว่าเทคโนโลยีนี้เข้าสู่กระบวนการผลิต (Full Production) แล้ว เพื่อรองรับความต้องการที่เพิ่มขึ้นอย่างรวดเร็วของโมเดล AI ขนาดใหญ่และการคำนวณแบบ Agentic Reasoning

Rubin CES 2026

Technical Specifications สถาปัตยกรรม Rubin ถูกออกแบบมาเพื่อแก้ปัญหาคอขวดด้านหน่วยความจำและการรับส่งข้อมูล โดยมีตัวเลขเปรียบเทียบกับสถาปัตยกรรม Blackwell รุ่นก่อนหน้าดังนี้

  • Floating Point Performance: Rubin ให้ประสิทธิภาพในงาน Inference สูงกว่าเดิม 5 เท่า และงาน Training สูงกว่าเดิม 3.5 เท่า โดยทำความเร็วสูงสุดได้ที่ 50 Petaflops บนรูปแบบข้อมูล NVFP4
  • Transistor Count: ตัวชิป Rubin GPU มีทรานซิสเตอร์รวม 336 พันล้านตัว (เพิ่มขึ้น 1.6 เท่าจาก Blackwell)
  • Energy Efficiency: ประสิทธิภาพการประมวลผลต่อวัตต์ (Inference compute per watt) เพิ่มขึ้นถึง 8 เท่า
  • Memory Bandwidth: ใช้หน่วยความจำ HBM4 ขนาด 288GB ต่อ GPU ให้ Bandwidth รวมสูงถึง 22 TB/s (เพิ่มขึ้น 2.8 เท่าจาก HBM3e ในรุ่นก่อน)

องค์ประกอบของระบบนิเวศชิป (The Six-Chip Architecture) แพลตฟอร์ม Rubin ประกอบด้วยชิปหลัก 6 ตัวที่ทำงานประสานกันในระดับระบบ เพื่อรองรับเวิร์กโหลด AI ที่ซับซ้อน

  • Rubin GPU: ชิปประมวลผลหลักสำหรับงาน AI Output Generation
  • Vera CPU: ชิปประมวลผลกลางรุ่นใหม่ ใช้คอร์ Olympus (Arm-based) จำนวน 88 คอร์ ออกแบบมาเพื่อควบคุมตรรกะและการคิดวิเคราะห์ (Reasoning)
  • Rubin CPX: หน่วยประมวลผลเสริมที่ใช้หน่วยความจำ GDDR7 (128GB) เพื่อรองรับงาน Context Retrieval และ Context Window ขนาดใหญ่ (สูงสุด 1 ล้าน Token+)
  • NVLink 6 Switch: ระบบเชื่อมต่อรุ่นที่ 6 ให้ Bandwidth ระหว่าง GPU สูงถึง 3.6 TB/s
  • ConnectX-9 SuperNIC: ระบบเน็ตเวิร์กที่รองรับความเร็วสูงสุด 1.6 Tb/s ต่อ GPU
  • BlueField-4 DPU: ชิปประมวลผลด้านข้อมูลที่ทำหน้าที่จัดการ Cybersecurity, Storage และ Offload งานจาก CPU หลัก

Nvidia ได้เปิดตัว Inference Context Memory Storage Platform ซึ่งเป็นเลเยอร์การจัดเก็บข้อมูลใหม่ที่เชื่อมต่อภายนอก (External Storage Tier) ออกแบบมาเพื่อจัดการกับ KV Cache โดยเฉพาะ ช่วยให้โมเดลภาษาขนาดใหญ่ (LLM) สามารถประมวลผลงานระยะยาว (Long-term tasks) ได้อย่างมีประสิทธิภาพมากขึ้น โดยไม่ทำให้หน่วยความจำหลักของ GPU เต็ม

แพลตฟอร์มการใช้งาน (Deployment Platforms)

  • Vera Rubin NVL72: ระบบตู้ Rack ที่ประกอบด้วย 72 Rubin GPUs และ 36 Vera CPUs เชื่อมต่อกันเป็นคอมพิวเตอร์เครื่องเดียว ให้ Bandwidth รวมในตู้สูงถึง 260 TB/s
  • Vera Rubin NVL144 CPX: ออกแบบมาเพื่อรองรับงาน Inference ที่มี Context มหาศาล โดยการรวมชิป Rubin และ Rubin CPX เข้าด้วยกัน

Nvidia ยืนยันว่าพันธมิตรรายใหญ่ ได้แก่ OpenAI, Anthropic, และ AWS ได้เริ่มต้นกระบวนการจัดหาเพื่อนำ Rubin ไปใช้ในศูนย์ข้อมูลแล้ว ขณะที่โครงการซูเปอร์คอมพิวเตอร์ Doudna ของ Lawrence Berkeley National Lab จะเป็นหนึ่งในกลุ่มแรกที่ใช้งานสถาปัตยกรรมนี้ในการวิจัยทางวิทยาศาสตร์ โดย Jensen Huang ประเมินว่าตลาดโครงสร้างพื้นฐาน AI จะมีการใช้จ่ายรวมกว่า 3-4 ล้านล้านดอลลาร์ ในอีก 5 ปีข้างหน้า

ที่มา – TechCrunch

About modify 6591 Articles
สามารถนำบทความไปเผยแพร่ได้อย่างอิสระ โดยกล่าวถึงแหล่งที่มา เป็นลิงค์กลับมายังบทความนั้นๆ บทความอาจมีการพิมพ์ตกเรื่องภาษาไปบ้าง ต้องขออภัย พยามจะพิมพ์ผิดให้น้อยที่สุด (ทำเว็บคนเดียวไม่มีคนตรวจทาน) บทความที่สอนเรื่องต่างๆ กรุณาอ่านบทความให้เข้าใจก่อนโพสต์ถาม ติดตรงไหนสามารถถามได้ที่โพสต์นั้นๆ

Be the first to comment

Leave a Reply

Your email address will not be published.