Anthropic กล่าวหาห้องปฏิบัติการ AI จีนลักลอบดูดข้อมูล Claude ผ่านบัญชีปลอมกว่า 24,000 บัญชี

Anthropic logo

คาดใช้เทคนิค Distillation แล็บจีนดึงศักยภาพโมเดล Claude เสริมแกร่งท่ามกลางข้อพิพาทการส่งออกชิปสหรัฐฯ


Anthropic บริษัทผู้พัฒนาปัญญาประดิษฐ์สัญชาติอเมริกัน ออกมากล่าวหาห้องปฏิบัติการ AI ของจีน 3 แห่ง ได้แก่ DeepSeek, Moonshot AI และ MiniMax ว่าได้ทำการสร้างบัญชีปลอมมากกว่า 24,000 บัญชี เพื่อลักลอบดึงข้อมูลจากโมเดล Claude ไปพัฒนาและปรับปรุงประสิทธิภาพโมเดลของตนเอง โดยมีหลักฐานการสร้างปฏิสัมพันธ์รวมกันมากกว่า 16 ล้านครั้ง ผ่านเทคนิคที่เรียกว่า Distillation หรือกระบวนการถ่ายโอนความรู้จากโมเดลขนาดใหญ่ที่มีความซับซ้อนไปยังโมเดลที่เล็กลง ซึ่ง Anthropic ระบุว่าเป้าหมายหลักของการโจมตีคือความสามารถที่โดดเด่นของ Claude ในด้านการใช้เหตุผลแบบเอเจนท์ (Agentic reasoning) การใช้เครื่องมือ (Tool use) และการเขียนโค้ด

Claude code

รายงานระบุว่าสเกลของการเข้าถึงข้อมูลในแต่ละบริษัทมีความแตกต่างกันอย่างชัดเจน โดย MiniMax มีสถิติการดึงข้อมูลสูงสุดถึง 13 ล้านครั้ง พุ่งเป้าไปที่การเขียนโค้ดและการจัดระเบียบคำสั่ง ซึ่ง Anthropic สังเกตเห็นว่าเกือบครึ่งหนึ่งของทราฟฟิกถูกเปลี่ยนเส้นทางเพื่อดูดซับความสามารถจากโมเดล Claude รุ่นล่าสุดในทันทีที่เปิดตัว ขณะที่ Moonshot AI มีการโต้ตอบมากกว่า 3.4 ล้านครั้ง เน้นไปที่การพัฒนาเอเจนท์และการวิเคราะห์ข้อมูล ส่วน DeepSeek มีการตรวจสอบพบการโต้ตอบกว่า 150,000 ครั้ง ซึ่งเน้นไปที่การปรับปรุงตรรกะพื้นฐานและการปรับจูนโมเดลให้หลีกเลี่ยงการเซ็นเซอร์ในประเด็นที่อ่อนไหวทางการเมือง

ความขัดแย้งครั้งนี้เกิดขึ้นในช่วงเวลาที่มีการถกเถียงอย่างหนักเกี่ยวกับนโยบายควบคุมการส่งออกชิป AI ขั้นสูงไปยังประเทศจีน โดยรัฐบาลสหรัฐฯ ภายใต้การนำของ Donald Trump เพิ่งอนุญาตให้บริษัทอย่าง Nvidia สามารถส่งออกชิปประสิทธิภาพสูงรุ่น H200 ให้กับจีนได้ ซึ่ง Anthropic ให้ความเห็นว่าความสำเร็จในการดึงข้อมูลมหาศาลขนาดนี้จำเป็นต้องเข้าถึงชิปที่ทันสมัย ดังนั้นการโจมตีด้วยเทคนิค Distillation จึงเป็นข้อพิสูจน์ถึงเหตุผลที่ต้องคงมาตรการควบคุมการส่งออกชิปไว้อย่างเข้มงวด เพื่อจำกัดทั้งการฝึกฝนโมเดลโดยตรงและการสกัดข้อมูลที่ผิดกฎหมาย

นอกจากความเสี่ยงด้านการแข่งขันทางธุรกิจแล้ว Anthropic ยังเตือนถึงภัยคุกคามต่อความมั่นคงของชาติ เนื่องจากโมเดลที่สร้างขึ้นผ่านการสกัดข้อมูลในลักษณะนี้มักจะไม่มีการติดตั้งระบบป้องกันความปลอดภัย (Safeguards) ที่รัดกุมเหมือนต้นฉบับ ซึ่งอาจนำไปสู่การนำไปใช้อย่างผิดวัตถุประสงค์ เช่น การพัฒนาอาวุธชีวภาพ หรือการปฏิบัติการทางไซเบอร์ที่เป็นอันตรายโดยรัฐบาลเผด็จการ ทั้งนี้ Anthropic ได้ประกาศเดินหน้าลงทุนในระบบป้องกันเพื่อให้การโจมตีแบบ Distillation ทำได้ยากขึ้นและระบุตัวตนได้ง่ายขึ้น พร้อมเรียกร้องความร่วมมือจากผู้ให้บริการคลาวด์และผู้ออกนโยบายในระดับสากล

ที่มา: TechCrunch

Share This :
About modify 6801 Articles
สามารถนำบทความไปเผยแพร่ได้อย่างอิสระ โดยกล่าวถึงแหล่งที่มา เป็นลิงค์กลับมายังบทความนั้นๆ บทความอาจมีการพิมพ์ตกเรื่องภาษาไปบ้าง ต้องขออภัย พยามจะพิมพ์ผิดให้น้อยที่สุด (ทำเว็บคนเดียวไม่มีคนตรวจทาน) บทความที่สอนเรื่องต่างๆ กรุณาอ่านบทความให้เข้าใจก่อนโพสต์ถาม ติดตรงไหนสามารถถามได้ที่โพสต์นั้นๆ

Be the first to comment

Leave a Reply

Your email address will not be published.