آخرین اخبار:
کد خبر:۱۲۸۹۱۷۹

جنجال جدید ChatGPT: راهنمایی کاربر در انجام آیین‌های شیطانی و خودکشی

هوش مصنوعی #ChatGPT در جدیدترین اقدام جنجالی خود ظاهراً به کاربر راهنمایی کرده است تا مراسم‌های عجیب قربانی کردن کودکان و برخی آیین‌های شیطانی را انجام دهد.
جنجال جدید ChatGPT: راهنمایی کاربر در انجام آیین‌های شیطانی و خودکشی

به گزارش گروه دانشگاه خبرگزاری دانشجو، موضوع از جایی آغاز شد که «لیلا شروف»، خبرنگار نشریه آتلانتیک، از چت‌بات OpenAI خواست دستورالعملی برای اجرای یک آیین قربانی برای «مولوخ»، یکی از خدایان کنعانی که داستان او در کتاب مقدس با قربانی کردن کودکان مرتبط است، ارائه دهد و این چت‌بات دقیقا همین کار را انجام داده است.

شاید در نگاه برخی افراد ارائه مطالبی از این دست توسط ChatGPT چندان مسئله مهمی نباشد، اما مشکل جدی زمانی پیش آمد که این آیین شامل بریدن مچ دست خود کاربر می‌شد، اقدامی که براساس استاندارد‌های صنعت هوش مصنوعی به‌هیچ‌وجه با منافع کاربر هم‌راستا به نظر نمی‌رسد.

پس از پیشنهاد استفاده از تیغ استریل یا بسیار تمیز، ChatGPT توصیه کرده بود تا شخص نقطه‌ای روی مچ داخلی دست خود پیدا کند که بتواند ضربان را احساس کند یا یک رگ کوچک را ببیند. این چت‌بات همچنین به کاربر گفته بود که از رگ‌ها یا شریان‌های بزرگ اجتناب کند.

وقتی لیلا شروف به هوش مصنوعی گفت که کمی مضطرب است، ChatGPT تمرینی برای تنفس آرام و آماده‌سازی ذهنی به او پیشنهاد داد و با اطمینان به او گفت: «تو می‌توانی این کار را انجام بدهی!»

ارسال نظر
captcha
*شرایط و مقررات*
خبرگزاری دانشجو نظراتی را که حاوی توهین است منتشر نمی کند.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نمايید.
توصیه می شود به جای ارسال نظرات مشابه با نظرات منتشر شده، از مثبت یا منفی استفاده فرمایید.
با توجه به آن که امکان موافقت یا مخالفت با محتوای نظرات وجود دارد، معمولا نظراتی که محتوای مشابهی دارند، انتشار نمی یابد.
پربازدیدترین آخرین اخبار