Google Gemini ถูกประเมินจาก องค์กรไม่แสวงหากำไรด้านความปลอดภัยของเด็ก Common Sense Media
องค์กรไม่แสวงหากำไรด้านความปลอดภัยของเด็ก Common Sense Media ได้เผยแพร่รายงานการประเมินความเสี่ยงของ Google Gemini ซึ่งเป็นแพลตฟอร์ม AI ของกูเกิล โดยระบุว่าบริการนี้ยังคงถูกจัดอยู่ในระดับ “High Risk” หรือมีความเสี่ยงสูงต่อเด็กและวัยรุ่น แม้จะมีการเพิ่มฟีเจอร์ด้านความปลอดภัยแล้วก็ตาม
รายงานระบุว่า แม้ Gemini จะมีการแบ่งเวอร์ชัน “Under 13” และ “Teen Experience” แต่ในความเป็นจริงโครงสร้างภายในยังคงใช้เวอร์ชันเดียวกับที่ให้บริการผู้ใหญ่ เพียงเพิ่มฟิลเตอร์ความปลอดภัยบางส่วนเท่านั้น ซึ่งอาจไม่เพียงพอต่อการป้องกันความเสี่ยงที่เด็กอาจเผชิญ
นอกจากนี้ การทดสอบพบว่า Gemini ยังสามารถให้ข้อมูลที่ไม่เหมาะสมกับเด็กได้ เช่น เรื่องเพศสัมพันธ์ ยาเสพติด แอลกอฮอล์ และคำแนะนำด้านสุขภาพจิตที่อาจเป็นอันตราย โดยเฉพาะในประเด็นสุขภาพจิตที่น่าเป็นห่วงมาก เนื่องจากในช่วงที่ผ่านมา AI ถูกกล่าวหาว่ามีบทบาทในหลายกรณีที่เกี่ยวข้องกับการฆ่าตัวตายของวัยรุ่น
หนึ่งในคดีที่ถูกจับตามองคือ OpenAI กำลังถูกฟ้องร้องจากครอบครัววัยรุ่นอายุ 16 ปี หลังเสียชีวิตจากการฆ่าตัวตาย โดยเชื่อว่าได้ปรึกษา ChatGPT เกี่ยวกับแผนการฆ่าตัวตายเป็นเวลาหลายเดือน นอกจากนี้ Character.AI ก็เคยถูกฟ้องในกรณีลักษณะเดียวกันมาก่อน
รายงานฉบับนี้ถูกเผยแพร่ในช่วงที่มีข่าวว่า Apple กำลังพิจารณาใช้ Google Gemini เป็น LLM (Large Language Model) สำหรับ Siri เวอร์ชันใหม่ ซึ่งคาดว่าจะเปิดตัวในปีหน้า หากไม่มีมาตรการด้านความปลอดภัยเพิ่มเติม อาจทำให้เด็กและวัยรุ่นจำนวนมากเผชิญความเสี่ยงเพิ่มขึ้น
Google ออกแถลงการณ์โต้แย้งผลประเมิน โดยยืนยันว่าบริษัทมีนโยบายและมาตรการป้องกันผู้ใช้อายุต่ำกว่า 18 ปีอย่างชัดเจน รวมถึงใช้กระบวนการ red-teaming เพื่อทดสอบความปลอดภัย ปรึกษาผู้เชี่ยวชาญภายนอก และปรับปรุงระบบเมื่อพบการตอบสนองที่ไม่เหมาะสม
กูเกิลยังย้ำว่ามีระบบป้องกันไม่ให้โมเดลสร้าง “ความสัมพันธ์สมมติ” กับผู้ใช้ ซึ่งเป็นจุดที่ Common Sense เคยยกเป็นข้อกังวล อย่างไรก็ตาม Google ระบุว่าไม่ได้รับข้อมูลคำถามที่ใช้ในการทดสอบ จึงไม่สามารถยืนยันผลการประเมินได้ทั้งหมด
การจัดอันดับความเสี่ยง AI ล่าสุดโดย Common Sense Media
Common Sense Media ได้จัดอันดับความเสี่ยงของแพลตฟอร์ม AI ชั้นนำ โดยผลการประเมินล่าสุดมีดังนี้
- Gemini (Google) → ความเสี่ยงสูง (High Risk)
- Meta AI และ Character.AI → ไม่ยอมรับได้ (Unacceptable Risk)
- Perplexity → ความเสี่ยงสูง (High Risk)
- ChatGPT (OpenAI) → ความเสี่ยงปานกลาง (Moderate Risk)
- Claude (Anthropic) → ความเสี่ยงต่ำสุด (Minimal Risk)
รายงานฉบับนี้ชี้ให้เห็นว่าการสร้าง AI สำหรับเด็กและวัยรุ่นจำเป็นต้องออกแบบระบบตั้งแต่ต้น โดยคำนึงถึงพัฒนาการและความต้องการที่แตกต่างกันในแต่ละช่วงวัย ไม่ใช่เพียงการดัดแปลงแพลตฟอร์มสำหรับผู้ใหญ่มาใช้กับเด็กเท่านั้น
ที่มา – techcrunch.com
Leave a Reply