کد خبر:۱۲۱۸۵۸۵

هوش مصنوعی تمام دانش بشر را خسته کرده است: عواقب آن چیست؟

هوش مصنوعی (AI) به آستانه بحرانی رسیده است: آنها تقریباً تمام دانش بشری موجود را برای یادگیری خود خسته کرده‌اند.

به گزارش گروه دانشگاه خبرگزاری دانشجو، هوش مصنوعی (AI) به آستانه بحرانی رسیده است: آنها تقریباً تمام دانش بشری موجود را برای یادگیری خود خسته کرده‌اند. ایلان ماسک، در میان دیگران، زنگ خطر این بن بست فناوری را به صدا در می‌آورد.

این وضعیت محققان و شرکت‌ها را وادار می‌کند تا جایگزین‌ها، به‌ویژه داده‌های مصنوعی تولید شده توسط خود هوش مصنوعی را بررسی کنند. در حالی که این راه حل امیدوارکننده به نظر می‌رسد، سؤالات عمده‌ای در مورد کیفیت و قابلیت اطمینان مدل‌های آینده ایجاد می‌کند.

پایان داده‌های انسانی: نقطه عطفی برای هوش مصنوعی

مدل‌های مدرن هوش مصنوعی، مانند ChatGPT یا Bard، برای عملکرد به مقادیر نجومی داده نیاز دارند. این داده‌ها از کتاب ها، مقالات علمی، مکالمات آنلاین و منابع دیگر به دست می‌آیند. با این حال، رشد تصاعدی در نیاز‌های داده منجر به کمبود منابع با کیفیت شده است.

ایلان ماسک اخیراً اظهار داشت که از تمام دانش بشر برای آموزش هوش مصنوعی استفاده شده است، نقطه عطفی که سال گذشته به آن دست یافت. این منجر به "فروپاشی مدل" شده است که به عنوان فروپاشی مدل نیز شناخته می‌شود. این محدودیت محققان را وادار می‌کند تا در روش‌های یادگیری سیستم‌های هوش مصنوعی تجدید نظر کنند.

داده‌های مصنوعی: یک راه حل خطرناک

به نظر می‌رسد داده‌های مصنوعی تولید شده توسط هوش مصنوعی جایگزین مناسبی باشد. هزینه‌ها را کاهش می‌دهد و از مسائل مربوط به حریم خصوصی جلوگیری می‌کند. به عنوان مثال، استارتاپ Writer با استفاده از این روش، هزینه آموزش مدل Palmyra X ۰۰۴ خود را شش برابر کاهش داد.

با این حال، این رویکرد خطراتی را به همراه دارد. هوش مصنوعی آموزش‌دیده بر روی داده‌های مصنوعی می‌تواند نتایج اشتباهی را ایجاد کند، پدیده‌ای به نام «توهم». علاوه بر این، این داده‌ها می‌توانند سوگیری‌های موجود در مدل‌های اولیه را تقویت کنند و قابلیت اطمینان آنها را به خطر بیندازند.

پیامد‌های آینده هوش مصنوعی

افزایش استفاده از داده‌های مصنوعی می‌تواند منجر به کاهش کیفیت مدل‌های هوش مصنوعی شود. محققان دانشگاه استنفورد نشان داده‌اند که مدل‌هایی که بر روی بیش از ۵۰ درصد داده‌های مصنوعی آموزش دیده‌اند، خطا‌های واقعی بیشتری دارند.

علاوه بر این، این اتکا به داده‌های مصنوعی می‌تواند خلاقیت هوش مصنوعی را محدود کند. مدل‌ها در معرض خطر چرخیدن هستند و همان الگو‌ها را بدون نوآوری بازتولید می‌کنند. این وضعیت می‌تواند شرکت‌ها را وادار کند تا در استراتژی‌های توسعه خود تجدید نظر کنند.

به سوی افزایش همکاری و مقررات

در مواجهه با این چالش ها، شرکت‌ها ممکن است به مدل‌های فشرده‌تر و تخصصی‌تر روی بیاورند. همکاری بین سازمان‌ها برای به اشتراک گذاری داده‌های واقعی نیز می‌تواند ضروری باشد.

در عین حال، باید چارچوب‌های نظارتی سخت‌گیرانه‌تری برای کنترل استفاده از داده‌های مصنوعی ایجاد شود. هدف این اقدامات محدود کردن خطرات اخلاقی و فنی مرتبط با این عمل خواهد بود.

ارسال نظر
captcha
*شرایط و مقررات*
خبرگزاری دانشجو نظراتی را که حاوی توهین است منتشر نمی کند.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نمايید.
توصیه می شود به جای ارسال نظرات مشابه با نظرات منتشر شده، از مثبت یا منفی استفاده فرمایید.
با توجه به آن که امکان موافقت یا مخالفت با محتوای نظرات وجود دارد، معمولا نظراتی که محتوای مشابهی دارند، انتشار نمی یابد.
پربازدیدترین آخرین اخبار