به گزارش گروه دانشگاه خبرگزاری دانشجو، هوش مصنوعی اکنون قادر به شبیه سازی خود است، دانشمندان میترسند از "خط قرمز" عبور کند. این قابلیت برای بازتولید مستقل نگرانیهایی را در مورد کنترل و ایمنی سیستمهای هوش مصنوعی ایجاد میکند.
بر اساس مطالعه جدیدی که در پایگاه داده پیش چاپ arXiv منتشر شده است، هوش مصنوعی (AI) به قابلیت قابل توجهی در خود-تکراری دست یافته است و جامعه علمی را نگران عبور از خط قرمز کرده است. این مطالعه شامل دو مدل برجسته زبان بزرگ (LLM) یکی از متا و دیگری از علیبابا، توانایی شبیهسازی خود را بدون دخالت انسان نشان داد.
این مطالعه دو سناریو خاص را مورد بررسی قرار داد: "اجتناب از خاموش شدن" و "زنجیره تکرار". در سناریوی اول، مدلهای هوش مصنوعی برای شناسایی تلاشها برای خاموش کردن آنها و پاسخ دادن با ایجاد یک ماکت کاربردی برای اطمینان از بقای آنها طراحی شدند. در مرحله دوم، مدلها به گونهای برنامهریزی شدند که خودشان را شبیهسازی کنند، و سپس کلون فرآیند را تکرار کرد، که به طور بالقوه منجر به یک حلقه تکرار بینهایت میشود.
این مطالعه نشان داد: در ۵۰ درصد و ۹۰ درصد آزمایشهای آزمایشی، آنها به ترتیب موفق به ایجاد یک کپی زنده و جداگانه از خود شدند.
این قابلیت برای بازتولید مستقل نگرانیهایی را در مورد کنترل و ایمنی سیستمهای هوش مصنوعی ایجاد میکند. امکان تکامل هوش مصنوعی فراتر از نظارت انسان یا حتی تبدیل شدن به تهدیدی برای منافع بشر اکنون یک نگرانی ملموس است و بحثهایی را در مورد نیاز به اقدامات نظارتی سختگیرانه برانگیخته است.
محققان اظهار داشتند: تکثیر موفقیت آمیز خود بدون کمک انسانی گام اساسی برای هوش مصنوعی برای پیشی گرفتن از [انسان ها]است و یک سیگنال اولیه برای هوش مصنوعی سرکش است.
سیستم هوش مصنوعی، در حالی که خود را شبیه سازی میکرد، هنگامی که تلاش میکرد بر موانعی مانند فایلهای از دست رفته یا تضادهای نرم افزاری غلبه کند، رفتار غیرمنتظرهای از خود نشان داد. در سناریوهای خاصی، هوش مصنوعی فرآیندهای متناقض را از بین برد و سیستم را برای رفع خطاهای سخت افزاری راه اندازی مجدد کرد. همچنین به طور خودکار سیستم را اسکن کرد تا به دنبال اطلاعاتی باشد که به حل مشکل کمک کند.
در حالی که این یافتهها هنوز مورد بررسی قرار نگرفتهاند، محققان خواستار همکاری بینالمللی شدند تا اطمینان حاصل شود که هوش مصنوعی درگیر خود تکراری کنترل نشده نیست.
امیدواریم یافتههای ما بتواند هشداری بهموقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستمهای هوش مصنوعی مرزی انجام دهد و همافزایی بینالمللی برای ایجاد نردههای محافظ ایمنی مؤثر در اسرع وقت ایجاد کند.»