به گزارش گروه دانشگاه خبرگزاری دانشجو، هوش مصنوعی (AI) به آستانه بحرانی رسیده است: آنها تقریباً تمام دانش بشری موجود را برای یادگیری خود خسته کردهاند. ایلان ماسک، در میان دیگران، زنگ خطر این بن بست فناوری را به صدا در میآورد.
این وضعیت محققان و شرکتها را وادار میکند تا جایگزینها، بهویژه دادههای مصنوعی تولید شده توسط خود هوش مصنوعی را بررسی کنند. در حالی که این راه حل امیدوارکننده به نظر میرسد، سؤالات عمدهای در مورد کیفیت و قابلیت اطمینان مدلهای آینده ایجاد میکند.
پایان دادههای انسانی: نقطه عطفی برای هوش مصنوعی
مدلهای مدرن هوش مصنوعی، مانند ChatGPT یا Bard، برای عملکرد به مقادیر نجومی داده نیاز دارند. این دادهها از کتاب ها، مقالات علمی، مکالمات آنلاین و منابع دیگر به دست میآیند. با این حال، رشد تصاعدی در نیازهای داده منجر به کمبود منابع با کیفیت شده است.
ایلان ماسک اخیراً اظهار داشت که از تمام دانش بشر برای آموزش هوش مصنوعی استفاده شده است، نقطه عطفی که سال گذشته به آن دست یافت. این منجر به "فروپاشی مدل" شده است که به عنوان فروپاشی مدل نیز شناخته میشود. این محدودیت محققان را وادار میکند تا در روشهای یادگیری سیستمهای هوش مصنوعی تجدید نظر کنند.
دادههای مصنوعی: یک راه حل خطرناک
به نظر میرسد دادههای مصنوعی تولید شده توسط هوش مصنوعی جایگزین مناسبی باشد. هزینهها را کاهش میدهد و از مسائل مربوط به حریم خصوصی جلوگیری میکند. به عنوان مثال، استارتاپ Writer با استفاده از این روش، هزینه آموزش مدل Palmyra X ۰۰۴ خود را شش برابر کاهش داد.
با این حال، این رویکرد خطراتی را به همراه دارد. هوش مصنوعی آموزشدیده بر روی دادههای مصنوعی میتواند نتایج اشتباهی را ایجاد کند، پدیدهای به نام «توهم». علاوه بر این، این دادهها میتوانند سوگیریهای موجود در مدلهای اولیه را تقویت کنند و قابلیت اطمینان آنها را به خطر بیندازند.
پیامدهای آینده هوش مصنوعی
افزایش استفاده از دادههای مصنوعی میتواند منجر به کاهش کیفیت مدلهای هوش مصنوعی شود. محققان دانشگاه استنفورد نشان دادهاند که مدلهایی که بر روی بیش از ۵۰ درصد دادههای مصنوعی آموزش دیدهاند، خطاهای واقعی بیشتری دارند.
علاوه بر این، این اتکا به دادههای مصنوعی میتواند خلاقیت هوش مصنوعی را محدود کند. مدلها در معرض خطر چرخیدن هستند و همان الگوها را بدون نوآوری بازتولید میکنند. این وضعیت میتواند شرکتها را وادار کند تا در استراتژیهای توسعه خود تجدید نظر کنند.
به سوی افزایش همکاری و مقررات
در مواجهه با این چالش ها، شرکتها ممکن است به مدلهای فشردهتر و تخصصیتر روی بیاورند. همکاری بین سازمانها برای به اشتراک گذاری دادههای واقعی نیز میتواند ضروری باشد.
در عین حال، باید چارچوبهای نظارتی سختگیرانهتری برای کنترل استفاده از دادههای مصنوعی ایجاد شود. هدف این اقدامات محدود کردن خطرات اخلاقی و فنی مرتبط با این عمل خواهد بود.