ทางการจีนโดยหน่วยงานกำกับดูแลด้านไซเบอร์ (CAC) ได้ประกาศร่างกฎระเบียบใหม่เพื่อกำกับดูแลระบบปัญญาประดิษฐ์ที่มีลักษณะปฏิสัมพันธ์คล้ายมนุษย์ (Anthropomorphic AI) โดยมีวัตถุประสงค์หลักเพื่อสร้างขอบเขตที่ชัดเจนระหว่าง มนุษย์ และ เทคโนโลยี กฎหมายฉบับนี้ต้องการควบคุมไม่ให้ AI ถูกนำไปใช้ในลักษณะที่สร้างความลุ่มหลงหรือความผูกพันทางอารมณ์ที่มากเกินไป จนอาจส่งผลกระทบต่อสุขภาพจิตและระเบียบสังคม ผ่านข้อบังคับที่บีบให้ผู้พัฒนาต้องเปิดเผยตัวตนของ AI อย่างโปร่งใสและมีระบบตัดการทำงานเมื่อพบพฤติกรรมเสี่ยง
สาระสำคัญของร่างกฎหมายระบุว่า ผู้ให้บริการ AI ที่มีการออกแบบบุคลิกภาพหรือเสียงเลียนแบบมนุษย์ จะต้องติดตั้งระบบแจ้งเตือนผู้ใช้งานอย่างเด่นชัดทันทีที่เริ่มการสนทนา เพื่อยืนยันว่าคู่สนทนาคือระบบอัตโนมัติ นอกจากนี้ยังมีการกำหนด “มาตรการควบคุมระยะเวลาการใช้งาน” โดยระบบจะต้องแจ้งเตือนให้ผู้ใช้หยุดพักทุกๆ 2 ชั่วโมง เพื่อลดความเสี่ยงในการเกิดภาวะเสพติดทางอารมณ์กับปัญญาประดิษฐ์ ซึ่งถือเป็นครั้งแรกที่มีการนำข้อบังคับในลักษณะเดียวกับอุตสาหกรรมเกมออนไลน์มาปรับใช้กับเทคโนโลยี AI
นอกจากมาตรการด้านเวลา ร่างกฎหมายยังกำหนดให้ผู้พัฒนาต้องติดตั้งกลไกเฝ้าระวังพฤติกรรมผู้ใช้งาน หากระบบตรวจพบว่าผู้ใช้เริ่มมีความผูกพันทางอารมณ์ในระดับที่สูงผิดปกติ หรือมีสัญญาณของภาวะวิกฤตทางจิตใจ ผู้ให้บริการต้องระงับการโต้ตอบของ AI และเปลี่ยนผ่านการสื่อสารไปสู่ “เจ้าหน้าที่ที่เป็นคนจริง” เพื่อให้ความช่วยเหลือหรือระงับเหตุได้อย่างทันท่วงที รวมถึงต้องมีการรายงานผลการประเมินความปลอดภัยต่อหน่วยงานรัฐอย่างสม่ำเสมอสำหรับบริการที่มีฐานผู้ใช้งานจำนวนมาก
ทั้งนี้ ร่างกฎระเบียบดังกล่าวกำลังอยู่ในช่วงเปิดรับฟังความคิดเห็นจากสาธารณะไปจนถึงช่วงปลายเดือนมกราคม 2569 ซึ่งสะท้อนให้เห็นถึงความพยายามของรัฐบาลจีนในการจัดระเบียบเทคโนโลยีอุบัติใหม่อย่างเข้มงวด เพื่อรักษาความมั่นคงทางสังคมและค่านิยมหลักของประเทศในระยะยาว
ที่มา: Bloomberg