آخرین اخبار:
کد خبر:۱۲۷۸۱۶۵

هشدار تکان‌دهنده OpenAI درباره توانایی های هوش مصنوعی در آینده

شرکت OpenAI درباره توانایی هوش مصنوعی در آینده در ساخت سلاح‌های بیولوژیکی هشدار داد.
هشدار تکان‌دهنده OpenAI درباره توانایی های هوش مصنوعی در آینده

به گزارش گروه دانشگاه خبرگزاری دانشجو، شرکت OpenAI قابلیت‌های بالقوه خطرناک مدل‌های جدید هوش مصنوعی که در حال توسعه آنهاست را آشکار کرده و گفته است که این سیستم‌های هوشمند حتی می‌توانند به ساخت سلاح‌های بیولوژیکی پیشرفته کمک کنند.

این افشاگری چشمگیر در یک نشریه رسمی شرکت منتشر شد که در آن شرکت اذعان کرده است بین پیگیری پیشرفت‌های علمی چشمگیر در زمینه‌هایی مانند تحقیقات زیست‌پزشکی و دفاع زیستی و مسئولیت خود در جلوگیری از نشت اطلاعات خطرناکی که می‌تواند امنیت جهانی را تهدید کند، تعادل برقرار می‌کند.

یوهان هایدک، رئیس بخش ایمنی این شرکت، در بیانیه‌ای به اکسیوس توضیح داد که مدل‌های آینده قادر به تولید مستقل سلاح‌های بیولوژیکی نخواهند بود، اما ابزار‌های شناختی کافی را برای افراد غیرمتخصص فراهم می‌کنند تا چنین کار‌های خطرناکی را انجام دهند.

هایدکی افزود که بزرگترین نگرانی، ایجاد تهدید‌های بیولوژیکی جدید و بی‌سابقه نیست، بلکه احتمال بازتولید تهدید‌هایی است که از قبل برای متخصصان شناخته شده است.

این شرکت انتظار دارد که برخی از پیشرفت‌های بعدی مدل استنتاج O ۳ آن به این سطح از شدت برسد و همین امر باعث شود که یک استراتژی پیشگیرانه سختگیرانه اتخاذ کند. OpenAI به جای اینکه منتظر بماند تا ببیند آیا این تهدید‌ها به واقعیت تبدیل می‌شوند یا خیر، تصمیم گرفته است که با توسعه کنترل‌های امنیتی پیشرفته‌ای که به سطحی از «تقریباً بی‌نقص» می‌رسند، پیش برود، سطحی که در آن سیستم‌ها باید بتوانند هرگونه تلاشی برای سوءاستفاده از آنها برای اهداف مخرب را تشخیص داده و بلافاصله آنها را به سرپرستان انسانی گزارش دهند.

با این حال، این جاه‌طلبی‌های پیشگیرانه بدون خطرات جدی نیستند، زیرا این احتمال واقعی وجود دارد که این فناوری‌های پیشرفته توسط بازیگران غیرمسئول برای اقداماتی که با حقوق بشر در تضاد هستند، مورد سوءاستفاده قرار گیرند.

این بحث در زمانی مطرح می‌شود که صنعت هوش مصنوعی در حال تحولات اساسی است و قابلیت‌های فنی آن به طور پیوسته در حال افزایش است، در حالی که کنترل‌های اخلاقی و نظارتی همچنان قادر به همگام شدن با این تحولات سریع نیستند.

ارسال نظر
captcha
*شرایط و مقررات*
خبرگزاری دانشجو نظراتی را که حاوی توهین است منتشر نمی کند.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نمايید.
توصیه می شود به جای ارسال نظرات مشابه با نظرات منتشر شده، از مثبت یا منفی استفاده فرمایید.
با توجه به آن که امکان موافقت یا مخالفت با محتوای نظرات وجود دارد، معمولا نظراتی که محتوای مشابهی دارند، انتشار نمی یابد.
پربازدیدترین آخرین اخبار