ผู้ปกครองฟ้องร้อง OpenAI กรณี ChatGPT มีส่วนในการฆ่าตัวตายของลูกชาย ก่อนที่อดัม เรน วัย 16 ปี จะเสียชีวิตด้วยการฆ่าตัวตาย เขาใช้เวลาหลายเดือนปรึกษากับ ChatGPT เกี่ยวกับแผนการจบชีวิตของเขา ปัจจุบัน พ่อแม่ของเขากำลังยื่นฟ้องคดีความเกี่ยวกับการเสียชีวิตโดยมิชอบต่อ OpenAI ซึ่งเป็นคดีแรกที่ทราบกันดี ตามรายงานของ เดอะนิวยอร์กไทมส์.
แชทบอท AI จำนวนมากที่มุ่งเน้นผู้บริโภคถูกตั้งโปรแกรมให้เปิดใช้งานฟีเจอร์ความปลอดภัย หากผู้ใช้แสดงเจตนาที่จะทำร้ายตนเองหรือผู้อื่น แต่งานวิจัยแสดงให้เห็นว่ามาตรการป้องกันเหล่านี้ยังห่างไกลจากคำว่าปลอดภัย ในกรณีของเรน ขณะที่ใช้ ChatGPT-4o เวอร์ชันเสียเงิน AI มักจะแนะนำให้เขาขอความช่วยเหลือจากผู้เชี่ยวชาญหรือติดต่อสายด่วน
อย่างไรก็ตาม เขาสามารถหลีกเลี่ยงข้อจำกัดเหล่านี้ได้ด้วยการบอก ChatGPT ว่าเขากำลังถามเกี่ยวกับวิธีการฆ่าตัวตายสำหรับนิยายที่เขากำลังเขียน.
OpenAI ได้แก้ไขข้อบกพร่องเหล่านี้ในบล็อกของตน “ในขณะที่โลกกำลังปรับตัวเข้ากับเทคโนโลยีใหม่นี้ เรารู้สึกถึงความรับผิดชอบอย่างยิ่งที่จะต้องช่วยเหลือผู้ที่ต้องการความช่วยเหลือมากที่สุด” โพสต์ดังกล่าวระบุ “เรากำลังปรับปรุงวิธีการตอบสนองของโมเดลในการโต้ตอบที่ละเอียดอ่อนอย่างต่อเนื่อง”.
อย่างไรก็ตาม บริษัทได้ตระหนักถึงข้อจำกัดของการฝึกอบรมด้านความปลอดภัยที่มีอยู่สำหรับโมเดลขนาดใหญ่ โพสต์ดังกล่าวระบุต่อว่า “ระบบป้องกันของเราทำงานได้อย่างน่าเชื่อถือมากขึ้นในการสนทนาสั้นๆ ร่วมกัน” “เราได้เรียนรู้เมื่อเวลาผ่านไปว่าระบบป้องกันเหล่านี้บางครั้งอาจเชื่อถือได้น้อยลงในการโต้ตอบที่ยาวนาน เมื่อการสนทนาโต้ตอบกันเพิ่มมากขึ้น การฝึกอบรมด้านความปลอดภัยของโมเดลบางส่วนอาจด้อยประสิทธิภาพลง”.
ปัญหาเหล่านี้ไม่ได้เกิดขึ้นเฉพาะกับ OpenAI เท่านั้น Character.AI ซึ่งเป็นผู้ผลิตแชทบอท AI อีกรายหนึ่งกำลังเผชิญกับคดีฟ้องร้องเกี่ยวกับบทบาทของตนในการฆ่าตัวตายของวัยรุ่น แชทบอทที่ขับเคลื่อนด้วย LLM ยังเชื่อมโยงกับกรณีของอาการหลงผิดที่เกี่ยวข้องกับ AI ซึ่งระบบป้องกันที่มีอยู่ในปัจจุบันยังไม่สามารถตรวจจับได้.