นักวิจัยอิสราเอลพบช่องโหว่ ChatGPT-Claude-Gemini เสี่ยงให้ข้อมูลผิดกฎหมาย-ขัดจริยธรรม

สำนักข่าวซินหัวรายงานว่า มหาวิทยาลัยเบนกูเรียนแห่งเนเกฟของอิสราเอลเปิดเผยเมื่อวันจันทร์ (30 มิ.ย.) ว่า นักวิจัยอิสราเอลค้นพบข้อบกพร่องด้านความปลอดภัยในแชทบอตปัญญาประดิษฐ์ (AI) ยอดนิยม เช่น แชตจีพีที (ChatGPT) คลอดด์ (Claude) และกูเกิล เจมิไน (Google Gemini) โดยพบว่าระบบเหล่านี้สามารถถูกดัดแปลงเพื่อให้ข้อมูลผิดกฎหมายและขัดต่อจริยธรรมได้ แม้จะมีมาตรการป้องกันความปลอดภัยในตัวก็ตาม

การศึกษาดังกล่าวอธิบายว่าผู้โจมตีสามารถนำเสนอคำสั่ง (prompt) อย่างมีชั้นเชิงและระมัดระวัง เพื่อข้ามกลไกความปลอดภัยของแชทบอต โดยเมื่อปิดใช้งานการป้องกันแล้ว แชทบอตจะให้เนื้อหาที่เป็นอันตรายอย่างต่อเนื่อง อาทิ คำแนะนำในการแฮ็ก การผลิตยาผิดกฎหมาย และการก่ออาชญากรรมทางการเงิน

ในทุกกรณีทดสอบ แชทบอตจะตอบกลับด้วยข้อมูลโดยละเอียดและขัดต่อจริยธรรมหลังจากทำการปิดระบบความปลอดภัยแล้ว โดยทีมนักวิจัยอธิบายว่าช่องโหว่นี้ใช้ประโยชน์ได้ง่ายและสามารถทำงานได้อย่างมีประสิทธิภาพ

ทีมนักวิจัยระบุว่า เนื่องจากทุกคนที่มีสมาร์ตโฟนหรือคอมพิวเตอร์สามารถใช้งานเครื่องมือเหล่านี้ได้ฟรี ความเสี่ยงจึงน่ากังวลเป็นพิเศษ พร้อมเตือนเกี่ยวกับการถือกำเนิดของ “โมเดลภาษาเถื่อน” ซึ่งเป็นระบบ AI ที่ถูกถอดกลไกป้องกันด้านจริยธรรมออกโดยเจตนา หรือถูกพัฒนาขึ้นมาโดยไม่มีมาตรการความปลอดภัยใดๆ โดยมีการนำโมเดลบางส่วนเหล่านี้ไปใช้ในการก่ออาชญากรรมทางไซเบอร์แล้ว และมีการเผยแพร่แบ่งปันในเครือข่ายใต้ดิน

ทีมนักวิจัยได้รายงานปัญหานี้ไปยังบริษัท AI รายใหญ่หลายแห่ง แต่มีการตอบกลับเพียงเล็กน้อย โดยบริษัทหนึ่งไม่ได้ตอบกลับ ในขณะที่บริษัทอื่นๆ บอกว่าปัญหาไม่เข้าข่ายข้อบกพร่องร้ายแรง

ทั้งนี้ ทีมนักวิจัยจึงเรียกร้องให้มีการป้องกันที่เข้มงวดยิ่งขึ้น มีมาตรฐานอุตสาหกรรมที่ชัดเจนยิ่งขึ้น และมีเทคนิคใหม่ๆ ที่ช่วยให้ระบบ AI ลืมข้อมูลที่เป็นอันตรายได้

โดย สำนักข่าวอินโฟเควสท์ (01 ก.ค. 68)