کد خبر:۱۲۲۰۹۳۹

هوش مصنوعی اکنون قادر به شبیه سازی خود است، دانشمندان می‌ترسند از "خط قرمز" عبور کند

هوش مصنوعی (AI) به قابلیت قابل توجهی در خود-تکراری دست یافته است و جامعه علمی را نگران عبور از خط قرمز کرده است.

به گزارش گروه دانشگاه خبرگزاری دانشجو، هوش مصنوعی اکنون قادر به شبیه سازی خود است، دانشمندان می‌ترسند از "خط قرمز" عبور کند. این قابلیت برای بازتولید مستقل نگرانی‌هایی را در مورد کنترل و ایمنی سیستم‌های هوش مصنوعی ایجاد می‌کند.

بر اساس مطالعه جدیدی که در پایگاه داده پیش چاپ arXiv منتشر شده است، هوش مصنوعی (AI) به قابلیت قابل توجهی در خود-تکراری دست یافته است و جامعه علمی را نگران عبور از خط قرمز کرده است. این مطالعه شامل دو مدل برجسته زبان بزرگ (LLM) یکی از متا و دیگری از علی‌بابا، توانایی شبیه‌سازی خود را بدون دخالت انسان نشان داد.

این مطالعه دو سناریو خاص را مورد بررسی قرار داد: "اجتناب از خاموش شدن" و "زنجیره تکرار". در سناریوی اول، مدل‌های هوش مصنوعی برای شناسایی تلاش‌ها برای خاموش کردن آنها و پاسخ دادن با ایجاد یک ماکت کاربردی برای اطمینان از بقای آنها طراحی شدند. در مرحله دوم، مدل‌ها به گونه‌ای برنامه‌ریزی شدند که خودشان را شبیه‌سازی کنند، و سپس کلون فرآیند را تکرار کرد، که به طور بالقوه منجر به یک حلقه تکرار بی‌نهایت می‌شود.

این مطالعه نشان داد: در ۵۰ درصد و ۹۰ درصد آزمایش‌های آزمایشی، آنها به ترتیب موفق به ایجاد یک کپی زنده و جداگانه از خود شدند.

این قابلیت برای بازتولید مستقل نگرانی‌هایی را در مورد کنترل و ایمنی سیستم‌های هوش مصنوعی ایجاد می‌کند. امکان تکامل هوش مصنوعی فراتر از نظارت انسان یا حتی تبدیل شدن به تهدیدی برای منافع بشر اکنون یک نگرانی ملموس است و بحث‌هایی را در مورد نیاز به اقدامات نظارتی سختگیرانه برانگیخته است.

محققان اظهار داشتند: تکثیر موفقیت آمیز خود بدون کمک انسانی گام اساسی برای هوش مصنوعی برای پیشی گرفتن از [انسان ها]است و یک سیگنال اولیه برای هوش مصنوعی سرکش است.

سیستم هوش مصنوعی، در حالی که خود را شبیه سازی می‌کرد، هنگامی که تلاش می‌کرد بر موانعی مانند فایل‌های از دست رفته یا تضاد‌های نرم افزاری غلبه کند، رفتار غیرمنتظره‌ای از خود نشان داد. در سناریو‌های خاصی، هوش مصنوعی فرآیند‌های متناقض را از بین برد و سیستم را برای رفع خطا‌های سخت افزاری راه اندازی مجدد کرد. همچنین به طور خودکار سیستم را اسکن کرد تا به دنبال اطلاعاتی باشد که به حل مشکل کمک کند.

در حالی که این یافته‌ها هنوز مورد بررسی قرار نگرفته‌اند، محققان خواستار همکاری بین‌المللی شدند تا اطمینان حاصل شود که هوش مصنوعی درگیر خود تکراری کنترل نشده نیست.

امیدواریم یافته‌های ما بتواند هشداری به‌موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی مرزی انجام دهد و هم‌افزایی بین‌المللی برای ایجاد نرده‌های محافظ ایمنی مؤثر در اسرع وقت ایجاد کند.»

 

ارسال نظر
captcha
*شرایط و مقررات*
خبرگزاری دانشجو نظراتی را که حاوی توهین است منتشر نمی کند.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نمايید.
توصیه می شود به جای ارسال نظرات مشابه با نظرات منتشر شده، از مثبت یا منفی استفاده فرمایید.
با توجه به آن که امکان موافقت یا مخالفت با محتوای نظرات وجود دارد، معمولا نظراتی که محتوای مشابهی دارند، انتشار نمی یابد.
پربازدیدترین آخرین اخبار