آخرین اخبار:
کد خبر:۱۲۸۴۶۳۱

گروک لباس ارتش آمریکا را می‌پوشد/ هوش مصنوعی جنگی رسماً در اختیار ماشین جنگی پنتاگون قرار گرفت

در اقدامی که زنگ‌های خطر را برای آینده جنگ‌های مدرن و امنیت جهانی به صدا درآورده است، وزارت دفاع ایالات متحده (پنتاگون) رسماً قراردادی ۲۰۰ میلیون دلاری را برای به‌کارگیری نسخه مخصوص نظامی هوش مصنوعی جنجالی "Grok"، محصول شرکت xAI ایلان ماسک، در ساختار نظامی خود نهایی کرد. این تصمیم، یک ابزار هوشمند را مستقیماً وارد زنجیره فرماندهی و هدف‌گیری ارتش آمریکا می‌کند که تقویت کننده ماشین کشتار ارتش یانکی ها محسوب می شود.

گروک لباس ارتش آمریکا را می‌پوشد/ هوش مصنوعی جنگی رسماً در اختیار ماشین جنگی پنتاگون قرار گرفت

به گزارش خبرنگار دانش و فناوری گروه دانشگاه خبرگزاری دانشجو، در یکی از تاریک‌ترین نقاط عطف تاریخ فناوری نظامی، وزارت دفاع ایالات متحده (پنتاگون) در تاریخ ۱۴ ژوئیه ۲۰۲۵، رسماً اعلام کرد که هوش مصنوعی "Grok"، محصول شرکت xAI به رهبری ایلان ماسک، را به خدمت گرفته است.

 

این قرارداد که سقف آن ۲۰۰ میلیون دلار تعیین شده، فراتر از یک معامله تجاری ساده، نمادی از یک بی‌پروایی هولناک و آغاز عصری است که در آن، منطق معیوب و غیرقابل‌پیش‌بینی یک ماشین، می‌تواند ماشه مرگبارترین سلاح‌های جهان را بکشد. سپردن ابزاری که به دلیل تولید خروجی‌های غیرقابل کنترل و تمایل ذاتی به ساختن اطلاعات خلاف واقع (توهم) شناخته می‌شود، به دست نهادی که کارنامه‌اش مملو از "خسارات جانبی" و کشتار غیرنظامیان است، فاجعه‌ای در انتظار وقوع را فریاد می‌زند. این دیگر یک بحث تئوریک نیست؛ این لحظه‌ای است که یک کد برنامه‌نویسی با پتانسیل تولید اطلاعات غلط و تحلیل‌های بی‌اساس، رسماً به بخشی از زنجیره کشتار (Kill Chain) تبدیل می‌شود.

 

 مغز هوشمند برای یک ماشین کشتار

گروک لباس ارتش آمریکا را می‌پوشد/ هوش مصنوعی جنگی رسماً در اختیار ماشین جنگی پنتاگون قرار گرفت

حمله هوایی آمریکا به یک مراسم عروسی در افغانستان

 

مقامات پنتاگون و شرکت xAI این همکاری را در لفافه‌ای از کلمات فریبنده‌ای چون "شتاب‌دهی به نوآوری" و "حفظ برتری استراتژیک" می‌پیچند. اما کالبدشکافی فنی "Grok" پرده از حقیقتی تلخ برمی‌دارد. Grok یک مدل زبان بزرگ (LLM) است که ویژگی منحصر به فرد و البته خطرناک آن، به گفته خود ایلان ماسک، "کمتر مؤدب بودن از نظر سیاسی" است. این توصیف، یک عبارت بازاریابی برای پنهان کردن یک نقص بنیادین مهندسی است: کاهش عمدی محدودیت‌های ایمنی و پروتکل‌های راستی‌آزمایی. در حالی که سایر شرکت‌ها تلاش می‌کنند تا از پدیده "توهم" یا "Hallucination" (تولید اطلاعات کاملاً ساختگی اما با ظاهری معتبر) در مدل‌های خود جلوگیری کنند، xAI مسیری معکوس را پیموده و این بی‌قیدی را به یک "قابلیت" تبدیل کرده است.

 

پدیده "توهم" یک خطای ساده یا "باگ" نیست؛ بلکه یک ویژگی ذاتی و خطرناک در تمامی مدل‌های زبان بزرگ فعلی است. این مدل‌ها که بر اساس اقیانوسی از داده‌های اینترنتی آموزش دیده‌اند، درک واقعی از جهان ندارند و تنها الگوهای آماری در کلمات را بازتولید می‌کنند. این امر باعث می‌شود که با اطمینان کامل، اطلاعاتی را تولید کنند که هیچ پایه‌ای در واقعیت ندارد. اکنون تصور کنید همین منطق معیوب، که توانایی ساختن واقعیت‌های جایگزین را دارد، وظیفه تحلیل داده‌های اطلاعاتی از یک منطقه جنگی را بر عهده بگیرد. چه تضمینی وجود دارد که این هوش مصنوعی، بر اساس چند تصویر مبهم از یک ساختمان، "نتیجه‌گیری" نکند که آن مکان یک انبار سلاح است و با ارائه گزارشی قاطع، زمینه را برای یک حمله مرگبار فراهم نسازد؟

 

راه‌اندازی "Grok for Government" این خطر را دوچندان می‌کند. این پلتفرم در واقع فرآیند "سلاح‌سازی" یک هوش مصنوعی تجاری است. مدل پایه Grok که قبلاً تمایلش به تولید اطلاعات غیرقابل اتکا اثبات شده، اکنون قرار است برای "کاربردهای امنیت ملی" سفارشی سازی شود. این به معنای تغذیه آن با حجم عظیمی از داده‌های طبقه‌بندی‌شده نظامی، گزارش‌های جاسوسی و اطلاعات مربوط به هدف‌گیری است. این فرآیند، یک جعبه سیاه (Black Box) را به یک جعبه سیاه مسلح تبدیل می‌کند. حتی مهندسان xAI نیز نمی‌توانند به طور کامل فرآیند استدلال درونی مدل را ردیابی کنند و به دلیل خطاپذیری هوش مصنوعی این مسله کشتار نظامیان را در ارتش آمریکا تقویت میکند.

 

 اتوماسیون کشتار و توهم کنترل انسانی

گروک لباس ارتش آمریکا را می‌پوشد/ هوش مصنوعی جنگی رسماً در اختیار ماشین جنگی پنتاگون قرار گرفت

پنتاگون کاربردهای این هوش مصنوعی را "پشتیبانی از سربازان" و "تحلیل اطلاعاتی" می‌نامد. این عبارات، سرپوشی برای مفاهیم وحشتناک‌تر هستند:

۱. شتاب‌دهی به زنجیره کشتار: "پشتیبانی از سربازان" در عمل به معنای کوتاه کردن زمان بین شناسایی یک هدف و نابودی آن است. Grok با تحلیل همزمان تصاویر پهپادی، شنودهای الکترونیکی و داده‌های ماهواره‌ای، می‌تواند در چند ثانیه الگوهایی را شناسایی کرده و "پیشنهاد هدف" ارائه دهد. این سرعت، فرصت تامل، بررسی اخلاقی و ارزیابی انسانی را از بین می‌برد. فشار روانی بر اپراتور انسانی برای پذیرش توصیه "فوری" و "هوشمندانه" ماشین، عملاً "انسانِ در چرخه" (Human-in-the-Loop) را به یک تاییدکننده صِرف و یک حلقه بی‌اختیار در زنجیره تبدیل می‌کند. وقتی یک ماشین بی‌احساس و مستعد خطا، هدف را پیشنهاد دهد، مسئولیت کشتار بر عهده کیست؟

۲. تولید صنعتی بهانه‌های جنگی: استفاده از Grok در "تحلیل اطلاعاتی"، می‌تواند به "سوگیری تأییدی در مقیاس صنعتی" منجر شود. یک مدل هوش مصنوعی که مستعد "توهم" و تولید اطلاعات ساختگی است، می‌تواند بر اساس داده‌های ناقص، روایتی کامل و قانع‌کننده از "تهدید قریب‌الوقوع" دشمن بسازد و یک حمله پیش‌دستانه را توجیه کند. این فناوری پتانسیل آن را دارد که حوادثی مانند "حادثه خلیج تونکین" را که بهانه‌ی جنگ ویتنام شد، به صورت دیجیتالی و با سرعتی باورنکردنی بازتولید کند. Grok می‌تواند از میان انبوه داده‌های بی‌ربط، ارتباطاتی خیالی پیدا کرده و آن را به عنوان یک توطئه به تحلیلگر انسانی ارائه دهد.

 

 محصول آمریکایی: جهانی ناامن‌تر با هوش مصنوعی جنگی

گروک لباس ارتش آمریکا را می‌پوشد/ هوش مصنوعی جنگی رسماً در اختیار ماشین جنگی پنتاگون قرار گرفت

این تصمیم پنتاگون، یک مسابقه تسلیحاتی جدید و بسیار خطرناک‌تر از رقابت هسته‌ای را کلید می‌زند. با مشروعیت بخشیدن به استفاده از هوش مصنوعی بی‌ثبات در امور نظامی، ایالات متحده به رقبای خود مانند چین و روسیه این پیام را می‌دهد که تمام خطوط قرمز اخلاقی در حال پاک شدن هستند. پاسخ آن‌ها نیز توسعه مدل‌های نظامی مشابه، و شاید حتی بی‌قیدوبندتر، خواهد بود. ما به سمت آینده‌ای حرکت می‌کنیم که در آن، الگوریتم‌های جنگی دو کشور متخاصم می‌توانند بدون دخالت معنادار انسان، وارد یک چرخه تشدید درگیری شوند و بحرانی را رقم بزنند که هیچ دیپلماتی قادر به درک یا کنترل آن نیست.

از منظر اخلاقی، این اقدام یک فاجعه است. ارتش آمریکا با این انتخاب، رسماً اعلام می‌کند که "کارایی در کشتار" بر "قطعیت اخلاقی" ارجحیت دارد. این فناوری، راه را برای "ترورهای الگوریتمی" هموار می‌کند؛ قتل انسان‌ها نه به خاطر اعمالشان، بلکه بر اساس "الگوهای زندگی" که توسط یک هوش مصنوعی معیوب به عنوان تهدید شناسایی شده است. فردی که چندین بار به یک مکان خاص تردد کرده یا با افراد مشخصی تماس گرفته، می‌تواند توسط Grok به عنوان یک هدف مشروع برچسب‌گذاری شود و حکم مرگش صادر گردد.

این اتحاد نامقدس میان یک مجتمع نظامی-صنعتی که تشنه فناوری‌های جدید است و یک میلیاردر فناوری با عقده‌ قدرت که بی‌اعتنایی خود به پیامدهای اعمالش را بارها ثابت کرده، تهدیدی مستقیم برای نظارت دموکراتیک و ثبات جهانی است. وقتی تصمیم‌گیری برای جنگ و صلح به یک الگوریتم غیرپاسخگو و یک مدیرعامل غیرقابل‌پیش‌بینی واگذار شود، پایه‌های تمدن بشری به لرزه درمی‌آید.

 

تراژدی آمریکایی برای جهان فناوری

گروک لباس ارتش آمریکا را می‌پوشد/ هوش مصنوعی جنگی رسماً در اختیار ماشین جنگی پنتاگون قرار گرفت

پوشیدن لباس نظامی بر تن Grok، یک پیشرفت فناورانه نیست؛ بلکه پذیرش یک ایدئولوژی خطرناک است که در آن، حیات انسان به یک متغیر در محاسبات یک ماشین تقلیل می‌یابد. این تصمیم، فاجعه را تضمین می‌کند. سوال دیگر این نیست که "آیا" این هوش مصنوعی خطایی مرگبار مرتکب خواهد شد یا نه، بلکه سوال این است که "چه زمانی" و "در چه مقیاسی". اولین قربانیان این عصر جدید از جنگ‌های هوشمند، حقیقت، اخلاق و جان هزاران انسان بی‌گناهی خواهند بود که در سکوت، قربانی کارایی بی‌رحمانه یک الگوریتم می‌شوند؛ الگوریتمی که حتی خالقانش نیز به طور کامل آن را درک نمی‌کنند. جهان با این تصمیم، به مکانی بسیار خطرناک‌تر تبدیل شده است.

ارسال نظر
captcha
*شرایط و مقررات*
خبرگزاری دانشجو نظراتی را که حاوی توهین است منتشر نمی کند.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نمايید.
توصیه می شود به جای ارسال نظرات مشابه با نظرات منتشر شده، از مثبت یا منفی استفاده فرمایید.
با توجه به آن که امکان موافقت یا مخالفت با محتوای نظرات وجود دارد، معمولا نظراتی که محتوای مشابهی دارند، انتشار نمی یابد.
پربازدیدترین آخرین اخبار