آخرین اخبار:
کد خبر:۱۲۵۴۷۶۵
پدرخوانده هوش مصنوعی هشدار می‌دهد؛

هوش مصنوعی می تواند کنترل را از انسان بگیرد

پدرخوانده هوش مصنوعی" جفری هینتون هشدار می‌دهد که هوش مصنوعی می‌تواند کنترل را از انسان بگیرد: "مردم متوجه نشده‌اند که چه اتفاقی می‌افتد.

به گزارش گروه دانشگاه خبرگزاری دانشجو، پدرخوانده هوش مصنوعی" جفری هینتون سال گذشته در نیمه‌های شب با خبر دریافت جایزه نوبل فیزیک از خواب بیدار شد. او گفت که هرگز انتظار چنین شناختی را نداشت.

 

هینتون گفت: من برای فهمیدن اینکه مغز چگونه کار می‌کند، رویای برنده شدن را داشتم. اما متوجه نشدم که مغز چگونه کار می‌کند، اما به هر حال یکی را بردم. 

 

این محقق ۷۷ ساله این جایزه را برای کار پیشگام خود در شبکه‌های عصبی - پیشنهاد در سال ۱۹۸۶ روشی برای پیش بینی کلمه بعدی در یک دنباله - که اکنون مفهوم اساسی در مدل‌های بزرگ زبان امروزی است، به دست آورد.

 

در حالی که هینتون معتقد است هوش مصنوعی آموزش و پزشکی را متحول می‌کند و به طور بالقوه تغییرات آب و هوایی را حل می‌کند، او به طور فزاینده‌ای در مورد توسعه سریع آن نگران است.

 

هینتون توضیح داد: بهترین راه برای درک احساسی این است که ما مانند کسی هستیم که این توله ببر واقعاً بامزه را دارد. مگر اینکه خیلی مطمئن باشید که وقتی بزرگ شد نمی‌خواهد شما را بکشد، باید نگران باشید. 

 

مردم هنوز آن را نگرفته‌اند

این پیشگام هوش مصنوعی خطری بین ۱۰ تا ۲۰ درصد را تخمین می‌زند که هوش مصنوعی در نهایت کنترل را از انسان بگیرد.

 

او هشدار داد:مردم هنوز آن را دریافت نکرده‌اند، مردم متوجه نشده‌اند که چه چیزی در راه است. 

 

نگرانی‌های او بازتاب نگرانی‌های رهبران صنعت مانند ساندار پیچای، مدیرعامل گوگل، ایلان ماسک از X-AI و سام آلتمن، مدیر عامل OpenAI است که همگی نگرانی‌های مشابهی را ابراز کرده‌اند. با این حال هینتون از همین شرکت‌ها به دلیل اولویت دادن به سود بر ایمنی انتقاد می‌کند.

 

هینتون گفت: اگر به آنچه که شرکت‌های بزرگ در حال حاضر انجام می‌دهند نگاه کنید، آنها در حال لابی کردن هستند تا مقررات هوش مصنوعی کمتری داشته باشند. به سختی هیچ مقرراتی وجود دارد، اما آنها کمتر می‌خواهند.

 

به نظر می‌رسد هینتون به ویژه از گوگل، جایی که قبلاً در آن کار می‌کرد، ناامید شده است، زیرا موضع خود را در مورد برنامه‌های کاربردی هوش مصنوعی نظامی تغییر داده است.

 

به گفته هینتون، شرکت‌های هوش مصنوعی باید منابع بیشتری را به تحقیقات ایمنی اختصاص دهند - «مثل یک سوم» قدرت محاسباتی خود، در مقایسه با کسر بسیار کوچک‌تری که در حال حاضر اختصاص داده شده است.

 

CBS News از همه آزمایشگاه‌های هوش مصنوعی پرسید که چه مقدار از محاسبات آنها برای تحقیقات ایمنی استفاده می‌شود. هیچ کدوم شماره ندادن همه گفته‌اند ایمنی مهم است و به طور کلی از مقررات حمایت می‌کنند، اما عمدتاً با مقرراتی که قانون‌گذاران تاکنون ارائه کرده‌اند مخالفت کرده‌اند.

ارسال نظر
captcha
*شرایط و مقررات*
خبرگزاری دانشجو نظراتی را که حاوی توهین است منتشر نمی کند.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نمايید.
توصیه می شود به جای ارسال نظرات مشابه با نظرات منتشر شده، از مثبت یا منفی استفاده فرمایید.
با توجه به آن که امکان موافقت یا مخالفت با محتوای نظرات وجود دارد، معمولا نظراتی که محتوای مشابهی دارند، انتشار نمی یابد.
پربازدیدترین آخرین اخبار