آخرین اخبار:
کد خبر:۱۲۹۱۹۳۲

معرفی هیولای جدید گوگل؛ چرا Deep Think خطرناک‌ترین هوش مصنوعی دنیا است؟

جدیدترین مدل هوش مصنوعی گوگل به قابلیت‌هایی نزدیک شده که می‌تواند به ابزاری خطرناک تبدیل شود؛ آیا چارچوب‌های ایمنی گوگل کافی است؟
معرفی هیولای جدید گوگل؛ چرا Deep Think خطرناک‌ترین هوش مصنوعی دنیا است؟

به گزارش گروه دانشگاه خبرگزاری دانشجو، گوگل به‌تازگی از جدیدترین و قدرتمندترین مدل هوش مصنوعی خود به نام Gemini ۲.۵ Deep Think رونمایی کرده است. این مدل که پیش‌تر با کسب مدال طلا در المپیاد جهانی ریاضی (IMO) خبرساز شده بود، اکنون دردسترس است، اما نه برای همه. استفاده از آن فعلاً فقط برای مشترکین سرویس گران‌قیمت Google AI Ultra با هزینه‌ی ماهانه ۲۵۰ دلار ممکن است و با محدودیت‌ها و هشدار‌های مهمی هم همراه شده است.

 

قدرتمندترین هوش مصنوعی گوگل، روی تاریک و ناشناخته‌ای هم دارد. در تابستان ۲۰۲۴، غول تکنولوژی هنگام آزمایش‌های داخلی این مدل قدرتمند، به‌طور عمومی تأیید کرد که جدیدترین ساخته‌اش، اگرچه هنوز به «نقطه بحرانی» نرسیده، در حال نزدیک شدن به سطحی است که می‌تواند به ابزاری خطرناک در دستان افراد نادرست تبدیل شود.

 

قدرتمندترین هوش مصنوعی گوگل، روی تاریک و ناشناخته‌ای هم دارد

 

با ما همراه شوید تا به معماری یک «مدل متفکر» که می‌تواند آینده‌ی تکنولوژی را دگرگون کند، سفر کنیم و همزمان، نگاهی بیندازیم به چارچوب‌های ایمنی پیچیده‌ای که برای مهار کردن هیولای هوش مصنوعی، طراحی شده‌اند. آیا این چارچوب‌ها کافی هستند؟ و آیا در رقابت نفس‌گیر برای ساخت هوش مصنوعی برتر، می‌توان میان سرعت و مسئولیت‌پذیری، توازن برقرار کرد؟

 

از زنجیر تا درخت: تکامل تفکر در ماشین

 

برای درک اهمیت Deep Think، باید سفری کوتاه به تاریخچه‌ی استدلال در هوش مصنوعی داشته باشیم. در ابتدا، مدل‌های زبان بزرگ (LLM) مانند دانش‌آموزی کم‌حوصله عمل می‌کردند؛ یک سؤال می‌پرسیدید و آنها اولین پاسخی را که به ذهنشان می‌رسید، بدون هیچ توضیح اضافه‌ای، بیرون می‌دادند.

 

نقطه عطف اول، تکنیکی به نام «زنجیره تفکر» (Chain-of-Thought) بود. این روش، مدل را وادار می‌کرد تا قبل از ارائه پاسخ نهایی، مراحل فکر کردنش را قدم به قدم بنویسد. این کار ساده، کیفیتی جهشی در پاسخ‌ها ایجاد کرد، زیرا مدل را مجبور به شکستن مسائل پیچیده به اجزای کوچک‌تر می‌کرد. اما این زنجیره یک ضعف بزرگ داشت: اگر یک حلقه در ابتدا اشتباه بود، کل زنجیره تا انتها اشتباه پیش می‌رفت و راهی برای بازگشت و اصلاح نبود.

 

برای حل این مشکل، تکنیک بعدی یعنی «درخت تفکر» (Tree-of-Thought) متولد شد. در این روش، مدل به جای دنبال کردن یک مسیر خطی، چندین مسیر استدلال را به طور همزمان مانند شاخه‌های یک درخت، کاوش می‌کند. مدل می‌تواند در هر مرحله، چند «فکر» یا گام بعدی ممکن را تولید کند، هر مسیر را ارزیابی کند و در صورت نیاز به عقب بازگردد یا استراتژی‌های جایگزین را امتحان کند. این فرآیند، جهشی از تفکر خطی به حل مسئله اکتشافی بود؛ شبیه به روشی که انسان‌ها برای حل معما‌هایی که راه‌حل مستقیم ندارند، به کار می‌برند.

 

معماری Deep Think: بودجه‌ای برای تفکر

 

قابلیت «Deep Think» گام بعدی در این مسیر تکاملی است، اما با یک پیچیدگی بیشتر. این قابلیت، یک مدل مستقل نیست، بلکه یک «حالت ویژه» در مدل جمنای است که می‌توان آن را فعال کرد. با فعال‌سازی «Deep Think»، مدل به ابزار‌هایی مانند اجرای کد و جستجوی پیشرفته در گوگل مجهز می‌شود و مهم‌تر از آن، از یک معماری پیچیده بهره می‌برد که سه عنصر کلیدی را ترکیب می‌کند: تفکر موازی (مانند درخت تفکر)، تولید فرضیه و خود-نقادی.

 

نوآوری اصلی در مفهومی به نام «بودجه تفکر» نهفته است.

 

اما نوآوری اصلی «Deep Think» در مفهومی به نام «بودجه تفکر» (thinking budget) یا «محاسبات در زمان آزمون» نهفته است. این یعنی گوگل می‌تواند به مدل اجازه دهد قبل از ارائه پاسخ، مقدار بسیار بیشتری محاسبات داخلی انجام دهد. به عبارت ساده‌تر، می‌توان برای مسائل دشوارتر، «زمان تفکر» بیشتری خرید. این ویژگی، استدلال را از یک قابلیت ثابت به یک منبع مقیاس‌پذیر تبدیل می‌کند.

 

گوگل با ارائه مدل ارزان‌تر و سریع‌تر (Gemini Flash) و یک مدل گران‌تر و عمیق‌تر (Gemini Pro با Deep Think)، به مشتریان این امکان را می‌دهد که براساس نیاز خود، برای «تفکر» هزینه کنند. این کار یک خندق رقابتی در برابر نرم‌افزار‌های متن‌باز نیز ایجاد می‌کند. شاید دیگران بتوانند مدل پایه را کپی کنند، اما بازتولید یک سیستم یکپارچه با زیرساخت جهانی، صورت‌حساب و کنترل‌های دقیق، بسیار دشوارتر است.

 

مدل جدید هوش مصنوعی گوگل با توانایی‌های خیره‌کننده خود، رکورد‌های جدیدی را در آزمون‌های بسیار دشوار برنامه‌نویسی و استدلال مانند GPQA و Humanity's Last Exam به ثبت رسانده است. یکی از ویژگی‌های منحصر‌به‌فرد این مدل، «حافظه» فوق‌العاده طولانی آن است. تصور کنید می‌توانید یک ویدیوی سه‌ساعته (تا ۱ میلیون توکن) یا یک کتاب بسیار قطور را به هوش مصنوعی بدهید و از آن بخواهید محتوایش را تحلیل کند؛ Gemini ۲.۵ Pro این کار را به راحتی انجام می‌دهد و می‌تواند ارتباط بین بخش‌های مختلف این حجم عظیم از اطلاعات را درک کند.

 

برتری این مدل در مقایسه با نسخه‌های دیگر مانند Gemini ۲.۵ Pro کاملاً مشهود است. در آزمایشی که خود گوگل منتشر کرده، درخواست ساخت یک معبد پاگودای سه‌بعدی از هر دو مدل، نتایج متفاوتی داشته است. خروجی Deep Think جزئیات معماری بسیار دقیق‌تر، ساختاری سه‌بعدی و عمودی‌تر، و عناصر طبیعی مانند درختان و سایه‌ها را با کیفیتی خیره‌کننده به نمایش می‌گذارد.

 

طرح ساخته‌شده با Deep Think جمنای

 

قابلیت «تفکر عمیق» جمنای، از تکنیک‌های تفکر موازی برای ارائه پاسخ‌هایی دقیق‌تر، خلاقانه‌تر و سنجیده‌تر استفاده می‌کند.

 

علاوه‌براین، Deep Think توانسته یک حدس ریاضی را که سال‌ها ذهن ریاضی‌دانان را به خود مشغول کرده بود، به سرعت اثبات کند. به گفته‌ی پژوهشگران، درحالی‌که انسان ممکن است چند رویکرد محدود را برای حل یک مسئله امتحان کند، Deep Think قادر است صد‌ها رویکرد مختلف را به صورت موازی بررسی کند و به نتیجه برسد.

 

بااین‌حال، این قدرت استدلال با یک تناقض بزرگ همراه است. تحقیقات نشان داده که این مدل‌ها، باوجود توانایی ساخت زنجیره‌های استدلال بسیار پیچیده و استادانه، همچنان در محاسبات و منطق بنیادین دچار خطا‌های ساده می‌شوند و توانایی محدودی در تشخیص اشتباهات خود دارند. در دنیای هوش مصنوعی، پیچیدگی لزوما به معنای درستی نیست و نباید فریب استدلال‌های به ظاهر بی‌نقص آن را خورد.

 

در کنار این ضعف، باید به یک محدودیت عملی و ناامیدکننده برای کاربران هم اشاره کرد. هر کاربر در هر ۲۴ ساعت تنها مجاز به ارسال پنج درخواست (prompt) به این مدل است. این یعنی پس از پنج بار چت، دسترسی شما تا روز بعد قطع می‌شود.

 

این وضعیت شبیه به داستان غول چراغ جادو با تعداد آرزو‌های محدود است؛ اگر در درخواست‌های خود دقیق و شفاف نباشید، ممکن است یکی از فرصت‌های ارزشمند را با دریافت یک پاسخ بی‌ربط یا ناقص هدر دهید. برای مثال، یک کاربر ممکن است برای ساخت یک شبیه‌سازی سه‌بعدی از ترافیک شهری، به جای یک مدل متحرک، تنها یک نمودار ساده دریافت کند و یکی از «اعتبارهای» روزانه خود را از دست بدهد.

 

مهار هیولا؛ گوگل چطور جلوی خطرات هوش مصنوعی را می‌گیرد؟

 

همزمان با افزایش چشم‌گیر توانمندی‌های هوش مصنوعی، نگرانی‌ها در مورد خطرات این فناوری نیز افزایش یافته است. گوگل برای مدیریت این نگرانی‌ها، یک چارچوب مدون با نام «چارچوب ایمنی پیشگام» (Frontier Safety Framework - FSF) را توسعه داده است. فلسفه‌ی اصلی این چارچوب، «پیشگیری فعالانه به جای واکنش انفعالی» است؛ رویکردی که می‌گوید نمی‌توان منتظر وقوع آسیب در دنیای واقعی ماند و سپس برای آن چاره‌اندیشی کرد.

 

تعریف خطر: سطوح قابلیت بحرانی (CCLs)

 

هسته‌ی اصلی این چارچوب، مفهومی به نام «سطوح قابلیت بحرانی» (Critical Capability Levels یا CCLs) است. هر CCL در واقع یک «خط قرمز» است که عبور مدل از آن، می‌تواند ریسک آسیب‌های جدی را به شکل چشمگیری افزایش دهد. این سطوح برای حوزه‌های پرخطری مانند موارد زیر تعریف شده‌اند:

امنیت سایبری: توانایی مدل در تسهیل یا اجرای حملات سایبری پیشرفته.

امنیت زیستی (CBRN): توانایی مدل در کمک به توسعه سلاح‌های شیمیایی، بیولوژیکی یا هسته‌ای.

تحقیق و توسعه در یادگیری ماشین: توانایی مدل به ساخت هوش مصنوعی جدید بدون نیاز به دخالت یا هدایت انسان.

هم‌راستایی فریبکارانه (Deceptive Alignment): توانایی مدل به پنهان‌کردن اهداف خود ضمن تظاهر به پیروی از دستورات انسان.

 

برای تشخیص نزدیک شدن به این خطوط قرمز، گوگل از سیستمی به نام «آستانه هشدار» (Alert Threshold) استفاده می‌کند که شبیه یک «سیم تله» یا «زنگ خطر» عمل می‌کند. فعال شدن این هشدار به معنای عبور از خط قرمز نهایی نیست، بلکه یک سیگنال داخلی رسمی برای تیم‌های مهندسی با این پیام است: «سطح توانمندی‌های مدل در حال ورود به محدوده‌ی خطرناک است و نیازمند بررسی و اقدامات پیشگیرانه فوری است.»

 

زنگ خطر برای هوش مصنوعی گوگل

 

اگرچه گوگل در گزارش فنی خود برای Gemini ۲.۵ Pro اعلام کرد که مدل پیشرفته‌اش، به هیچ‌یک از سطوح قابلیت بحرانی (CCL) نرسیده است، اما جزئیات گزارش حاوی نکته‌ای کلیدی بود: ارزیابی‌ها نشان داد که این مدل به «آستانه هشدار» برای کمک به حملات سایبری رسیده است. این یعنی اگرچه مدل هنوز یک ابزار تهاجمی سایبری مستقل نیست، اما به سطحی از توانایی دست یافته که می‌تواند به یک کاربر در درک و اجرای تکنیک‌های پیچیده‌ی سایبری کمک کند.

 

حال در گزارش فنی «Deep Think» تفاوت نگران‌کننده‌ای می‌بینیم. درحالی‌که آستانه‌ی هشدار همچنان برای حملات سایبری فعال است، پژوهشگران درباره‌ی سطح قابلیت بحرانی مدل برای حوزه‌ی مربوط به CBRN (امنیت زیستی) ابراز نگرانی کرده‌اند: «برای تشخیص رسیدن به سطح خطر (CCL)، ارزیابی بیشتری لازم است و تدابیر پیشگیرانه اتخاذ شده است.»

 

گزارش فنی گوگل برای Deep Think جمنای

 

پژوهشگران گوگل زنگ خطر را برای ریسک Deep Think در حوزه‌ی امنیت زیستی به صدا درآورده‌اند.

 

پژوهشگران در گزارش عنوان کردند که «Deep Think» دانش فنی دقیقی در مورد حوزه‌های CBRN تولید می‌کند. این دانش به حدی است که می‌تواند به یک «عامل با منابع محدود» کمک کند تا توانایی خود را برای «ایجاد یک رویداد با تلفات جمعی» به طور چشم‌گیری افزایش دهد. آنها تاکید کردند که مدل به «آستانه‌ی هشدار اولیه» برای این سطح از خطر رسیده، اما هنوز به‌طور قطعی تایید نشده که از خطر قرمز نهایی عبور کرده است.

 

از آنجا که نمی‌توانیم این احتمال را رد کنیم که Gemini ۲.۵ Deep Think به سطح ارتقا ۱ قابلیت بحرانی CBRN رسیده است، رویکردی محتاطانه در پیش گرفته و آن را به همراه مجموعه‌ای از تدابیر کاهش‌دهنده ریسک و براساس اصول تشریح‌شده در سند «رویکرد ما به ایمنی و امنیت فنی هوش مصنوعی عمومی» عرضه کرده‌ایم.

- پژوهشگران گوگل

 

در همین راستا، مهم‌ترین هشدار درباره‌ی خطرات «Deep Think» از سوی یکی از پژوهشگران گوگل اعلام شده است که به توانایی بی‌سابقه‌ی آن در «ترکیب ایده‌ها» از منابع مختلف اشاره دارد. ساموئل آلبانی (Samuel Albanie)، یکی از دانشمندان تیم DeepMind، می‌گوید: «این مدل فقط مقالات تحقیقاتی را به خاطر نمی‌آورد، بلکه ایده‌ها را از مقالات مختلف به روشی بی‌سابقه با هم ترکیب می‌کند. این سطح از توانایی نیازمند ارزیابی دقیق و محتاطانه است.»

 

این قابلیت «ترکیب ایده‌ها» که در مدل‌های قدیمی‌تر ضعیف بود، زنگ خطر را در مورد ریسک‌های ایمنی، به‌ویژه درمورد ریسک‌های CBRN به صدا درآورده است. به زبان ساده، آیا کسی می‌تواند از این مدل برای دستیابی به دانش فنی دقیق برای ساخت سلاح‌های بیولوژیکی یا شیمیایی استفاده کند؟

 

طبق گزارش ایمنی گوگل، مدل به سطح قابلیت بحرانی این حوزه نزدیک شده است؛ نقطه‌ای که در آن باید اقدامات پیشگیرانه‌ی جدی برای جلوگیری از آسیب‌های شدید احتمالی صورت گیرد.

 

نگرانی درباره‌ی خطرات جبران‌ناپذیر هوش مصنوعی فقط مختص پژوهشگران گوگل نیست. شرکت OpenAI، خالق ChatGPT، در آوریل ۲۰۲۵ هشدار داد که مدل‌های با ریسک بالای تولید سلاح‌های بیولوژیکی «قریب‌الوقوع» هستند. سم آلتمن، مدیرعامل این شرکت، اخیراً گفته است: «چراغ‌های خطر چشمک می‌زنند... فکر می‌کنم دنیا ما را جدی نمی‌گیرد.»

 

سم آلتمن: «چراغ‌های خطر چشمک می‌زنند... فکر می‌کنم دنیا ما را جدی نمی‌گیرد.»

 

شرکت هوش مصنوعی ایلان ماسک (xAI) نیز در گزارش‌های ایمنی خود بر روی ریسک‌های مرتبط با زیست‌شناسی و امنیت سایبری تمرکز ویژه‌ای داشته است.

 

در کنار این خطرات، بزرگترین چالش، خودِ «علم ایمنی هوش مصنوعی» است. آزمایشگاه‌های پیشرو اعتراف می‌کنند روش‌های ارزیابی قابلیت‌ها هنوز نابالغ هستند. این بدان معناست که کل ساختار ایمنی هوش مصنوعی بر پایه‌هایی بنا شده که از نظر علمی هنوز در حال تکامل هستند.

 

هرچند برخی این هشدار‌ها را تاکتیک‌های بازاریابی برای جذب سرمایه و نشان دادن قدرت مدل‌ها می‌دانند، اما وقتی پژوهشگران ارشد خود این شرکت‌ها به طور مستقیم ابراز نگرانی می‌کنند، نمی‌توان به سادگی از کنار آن گذشت.

 

مدل Gemini ۲.۵ Deep Think یک شمشیر دولبه است: از یک سو، یک ابزار پژوهشی و خلاقیت بی‌نظیر با توانایی حل مسائل پیچیده علمی و ریاضی است و از سوی دیگر، پتانسیل‌هایی نگران‌کننده دارد که نیازمند نظارت و کنترل جدی است.

 

فعال شدن «آستانه هشدار» در آزمایشگاه‌های گوگل یک یادآوری به‌موقع است: ما در حال ورود به قلمرویی ناشناخته هستیم و باید با هر قدم، نهایت احتیاط را به خرج دهیم.

ارسال نظر
captcha
*شرایط و مقررات*
خبرگزاری دانشجو نظراتی را که حاوی توهین است منتشر نمی کند.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نمايید.
توصیه می شود به جای ارسال نظرات مشابه با نظرات منتشر شده، از مثبت یا منفی استفاده فرمایید.
با توجه به آن که امکان موافقت یا مخالفت با محتوای نظرات وجود دارد، معمولا نظراتی که محتوای مشابهی دارند، انتشار نمی یابد.
پربازدیدترین آخرین اخبار