Alibaba ปล่อย Qwen 2.5-Max โมเดล AI MoE ความสามารถพอกับ DeepSeek-V3, GPT-4o ปิดให้ใช้งานผ่าน API
Alibaba Cloud เปิดตัว Qwen2.5-Max โมเดลขนาดใหญ่แบบ Mixture-of-Experts (MoE) ที่ได้รับการฝึกด้วยข้อมูลมากกว่า 20 ล้านล้านโทเคน พร้อมปรับแต่งด้วยเทคนิค Supervised Fine-Tuning (SFT) และ Reinforcement Lea…