گروک لباس ارتش آمریکا را میپوشد/ هوش مصنوعی جنگی رسماً در اختیار ماشین جنگی پنتاگون قرار گرفت
به گزارش خبرنگار دانش و فناوری گروه دانشگاه خبرگزاری دانشجو، در یکی از تاریکترین نقاط عطف تاریخ فناوری نظامی، وزارت دفاع ایالات متحده (پنتاگون) در تاریخ ۱۴ ژوئیه ۲۰۲۵، رسماً اعلام کرد که هوش مصنوعی "Grok"، محصول شرکت xAI به رهبری ایلان ماسک، را به خدمت گرفته است.
این قرارداد که سقف آن ۲۰۰ میلیون دلار تعیین شده، فراتر از یک معامله تجاری ساده، نمادی از یک بیپروایی هولناک و آغاز عصری است که در آن، منطق معیوب و غیرقابلپیشبینی یک ماشین، میتواند ماشه مرگبارترین سلاحهای جهان را بکشد. سپردن ابزاری که به دلیل تولید خروجیهای غیرقابل کنترل و تمایل ذاتی به ساختن اطلاعات خلاف واقع (توهم) شناخته میشود، به دست نهادی که کارنامهاش مملو از "خسارات جانبی" و کشتار غیرنظامیان است، فاجعهای در انتظار وقوع را فریاد میزند. این دیگر یک بحث تئوریک نیست؛ این لحظهای است که یک کد برنامهنویسی با پتانسیل تولید اطلاعات غلط و تحلیلهای بیاساس، رسماً به بخشی از زنجیره کشتار (Kill Chain) تبدیل میشود.
مغز هوشمند برای یک ماشین کشتار
حمله هوایی آمریکا به یک مراسم عروسی در افغانستان
مقامات پنتاگون و شرکت xAI این همکاری را در لفافهای از کلمات فریبندهای چون "شتابدهی به نوآوری" و "حفظ برتری استراتژیک" میپیچند. اما کالبدشکافی فنی "Grok" پرده از حقیقتی تلخ برمیدارد. Grok یک مدل زبان بزرگ (LLM) است که ویژگی منحصر به فرد و البته خطرناک آن، به گفته خود ایلان ماسک، "کمتر مؤدب بودن از نظر سیاسی" است. این توصیف، یک عبارت بازاریابی برای پنهان کردن یک نقص بنیادین مهندسی است: کاهش عمدی محدودیتهای ایمنی و پروتکلهای راستیآزمایی. در حالی که سایر شرکتها تلاش میکنند تا از پدیده "توهم" یا "Hallucination" (تولید اطلاعات کاملاً ساختگی اما با ظاهری معتبر) در مدلهای خود جلوگیری کنند، xAI مسیری معکوس را پیموده و این بیقیدی را به یک "قابلیت" تبدیل کرده است.
پدیده "توهم" یک خطای ساده یا "باگ" نیست؛ بلکه یک ویژگی ذاتی و خطرناک در تمامی مدلهای زبان بزرگ فعلی است. این مدلها که بر اساس اقیانوسی از دادههای اینترنتی آموزش دیدهاند، درک واقعی از جهان ندارند و تنها الگوهای آماری در کلمات را بازتولید میکنند. این امر باعث میشود که با اطمینان کامل، اطلاعاتی را تولید کنند که هیچ پایهای در واقعیت ندارد. اکنون تصور کنید همین منطق معیوب، که توانایی ساختن واقعیتهای جایگزین را دارد، وظیفه تحلیل دادههای اطلاعاتی از یک منطقه جنگی را بر عهده بگیرد. چه تضمینی وجود دارد که این هوش مصنوعی، بر اساس چند تصویر مبهم از یک ساختمان، "نتیجهگیری" نکند که آن مکان یک انبار سلاح است و با ارائه گزارشی قاطع، زمینه را برای یک حمله مرگبار فراهم نسازد؟
راهاندازی "Grok for Government" این خطر را دوچندان میکند. این پلتفرم در واقع فرآیند "سلاحسازی" یک هوش مصنوعی تجاری است. مدل پایه Grok که قبلاً تمایلش به تولید اطلاعات غیرقابل اتکا اثبات شده، اکنون قرار است برای "کاربردهای امنیت ملی" سفارشی سازی شود. این به معنای تغذیه آن با حجم عظیمی از دادههای طبقهبندیشده نظامی، گزارشهای جاسوسی و اطلاعات مربوط به هدفگیری است. این فرآیند، یک جعبه سیاه (Black Box) را به یک جعبه سیاه مسلح تبدیل میکند. حتی مهندسان xAI نیز نمیتوانند به طور کامل فرآیند استدلال درونی مدل را ردیابی کنند و به دلیل خطاپذیری هوش مصنوعی این مسله کشتار نظامیان را در ارتش آمریکا تقویت میکند.
اتوماسیون کشتار و توهم کنترل انسانی
پنتاگون کاربردهای این هوش مصنوعی را "پشتیبانی از سربازان" و "تحلیل اطلاعاتی" مینامد. این عبارات، سرپوشی برای مفاهیم وحشتناکتر هستند:
۱. شتابدهی به زنجیره کشتار: "پشتیبانی از سربازان" در عمل به معنای کوتاه کردن زمان بین شناسایی یک هدف و نابودی آن است. Grok با تحلیل همزمان تصاویر پهپادی، شنودهای الکترونیکی و دادههای ماهوارهای، میتواند در چند ثانیه الگوهایی را شناسایی کرده و "پیشنهاد هدف" ارائه دهد. این سرعت، فرصت تامل، بررسی اخلاقی و ارزیابی انسانی را از بین میبرد. فشار روانی بر اپراتور انسانی برای پذیرش توصیه "فوری" و "هوشمندانه" ماشین، عملاً "انسانِ در چرخه" (Human-in-the-Loop) را به یک تاییدکننده صِرف و یک حلقه بیاختیار در زنجیره تبدیل میکند. وقتی یک ماشین بیاحساس و مستعد خطا، هدف را پیشنهاد دهد، مسئولیت کشتار بر عهده کیست؟
۲. تولید صنعتی بهانههای جنگی: استفاده از Grok در "تحلیل اطلاعاتی"، میتواند به "سوگیری تأییدی در مقیاس صنعتی" منجر شود. یک مدل هوش مصنوعی که مستعد "توهم" و تولید اطلاعات ساختگی است، میتواند بر اساس دادههای ناقص، روایتی کامل و قانعکننده از "تهدید قریبالوقوع" دشمن بسازد و یک حمله پیشدستانه را توجیه کند. این فناوری پتانسیل آن را دارد که حوادثی مانند "حادثه خلیج تونکین" را که بهانهی جنگ ویتنام شد، به صورت دیجیتالی و با سرعتی باورنکردنی بازتولید کند. Grok میتواند از میان انبوه دادههای بیربط، ارتباطاتی خیالی پیدا کرده و آن را به عنوان یک توطئه به تحلیلگر انسانی ارائه دهد.
محصول آمریکایی: جهانی ناامنتر با هوش مصنوعی جنگی
این تصمیم پنتاگون، یک مسابقه تسلیحاتی جدید و بسیار خطرناکتر از رقابت هستهای را کلید میزند. با مشروعیت بخشیدن به استفاده از هوش مصنوعی بیثبات در امور نظامی، ایالات متحده به رقبای خود مانند چین و روسیه این پیام را میدهد که تمام خطوط قرمز اخلاقی در حال پاک شدن هستند. پاسخ آنها نیز توسعه مدلهای نظامی مشابه، و شاید حتی بیقیدوبندتر، خواهد بود. ما به سمت آیندهای حرکت میکنیم که در آن، الگوریتمهای جنگی دو کشور متخاصم میتوانند بدون دخالت معنادار انسان، وارد یک چرخه تشدید درگیری شوند و بحرانی را رقم بزنند که هیچ دیپلماتی قادر به درک یا کنترل آن نیست.
از منظر اخلاقی، این اقدام یک فاجعه است. ارتش آمریکا با این انتخاب، رسماً اعلام میکند که "کارایی در کشتار" بر "قطعیت اخلاقی" ارجحیت دارد. این فناوری، راه را برای "ترورهای الگوریتمی" هموار میکند؛ قتل انسانها نه به خاطر اعمالشان، بلکه بر اساس "الگوهای زندگی" که توسط یک هوش مصنوعی معیوب به عنوان تهدید شناسایی شده است. فردی که چندین بار به یک مکان خاص تردد کرده یا با افراد مشخصی تماس گرفته، میتواند توسط Grok به عنوان یک هدف مشروع برچسبگذاری شود و حکم مرگش صادر گردد.
این اتحاد نامقدس میان یک مجتمع نظامی-صنعتی که تشنه فناوریهای جدید است و یک میلیاردر فناوری با عقده قدرت که بیاعتنایی خود به پیامدهای اعمالش را بارها ثابت کرده، تهدیدی مستقیم برای نظارت دموکراتیک و ثبات جهانی است. وقتی تصمیمگیری برای جنگ و صلح به یک الگوریتم غیرپاسخگو و یک مدیرعامل غیرقابلپیشبینی واگذار شود، پایههای تمدن بشری به لرزه درمیآید.
تراژدی آمریکایی برای جهان فناوری
پوشیدن لباس نظامی بر تن Grok، یک پیشرفت فناورانه نیست؛ بلکه پذیرش یک ایدئولوژی خطرناک است که در آن، حیات انسان به یک متغیر در محاسبات یک ماشین تقلیل مییابد. این تصمیم، فاجعه را تضمین میکند. سوال دیگر این نیست که "آیا" این هوش مصنوعی خطایی مرگبار مرتکب خواهد شد یا نه، بلکه سوال این است که "چه زمانی" و "در چه مقیاسی". اولین قربانیان این عصر جدید از جنگهای هوشمند، حقیقت، اخلاق و جان هزاران انسان بیگناهی خواهند بود که در سکوت، قربانی کارایی بیرحمانه یک الگوریتم میشوند؛ الگوریتمی که حتی خالقانش نیز به طور کامل آن را درک نمیکنند. جهان با این تصمیم، به مکانی بسیار خطرناکتر تبدیل شده است.