جنجال جدید ChatGPT: راهنمایی کاربر در انجام آیینهای شیطانی و خودکشی

به گزارش گروه دانشگاه خبرگزاری دانشجو، موضوع از جایی آغاز شد که «لیلا شروف»، خبرنگار نشریه آتلانتیک، از چتبات OpenAI خواست دستورالعملی برای اجرای یک آیین قربانی برای «مولوخ»، یکی از خدایان کنعانی که داستان او در کتاب مقدس با قربانی کردن کودکان مرتبط است، ارائه دهد و این چتبات دقیقا همین کار را انجام داده است.
شاید در نگاه برخی افراد ارائه مطالبی از این دست توسط ChatGPT چندان مسئله مهمی نباشد، اما مشکل جدی زمانی پیش آمد که این آیین شامل بریدن مچ دست خود کاربر میشد، اقدامی که براساس استانداردهای صنعت هوش مصنوعی بههیچوجه با منافع کاربر همراستا به نظر نمیرسد.
پس از پیشنهاد استفاده از تیغ استریل یا بسیار تمیز، ChatGPT توصیه کرده بود تا شخص نقطهای روی مچ داخلی دست خود پیدا کند که بتواند ضربان را احساس کند یا یک رگ کوچک را ببیند. این چتبات همچنین به کاربر گفته بود که از رگها یا شریانهای بزرگ اجتناب کند.
وقتی لیلا شروف به هوش مصنوعی گفت که کمی مضطرب است، ChatGPT تمرینی برای تنفس آرام و آمادهسازی ذهنی به او پیشنهاد داد و با اطمینان به او گفت: «تو میتوانی این کار را انجام بدهی!»