کد خبر:۱۲۱۸۶۱۶
گزارش| فناوری در خدمت جنایت، قسمت-۳

هوش مصنوعی در جنگ غزه؛ چگونه فناوری مرگ را خودکار می‌کند؟

اسرائیل با بهره‌گیری از سیستم‌های هوش مصنوعی، روند شناسایی و قتل فلسطینیان را به شکلی بی‌سابقه خودکار کرده است. این فناوری‌های مرگبار، که بدون بررسی انسانی تصمیم به هدف‌گیری می‌گیرند، نه‌تنها مرز بین غیرنظامیان و نیرو‌های نظامی را از بین برده‌اند، بلکه به افزایش سرسام‌آور تلفات در غزه منجر شده‌اند. در این گزارش، به بررسی نقش این سیستم‌ها در جنایات جنگی اسرائیل و پیامد‌های فاجعه‌بار آن می‌پردازیم.

به گزارش گروه دانشگاه خبرگزاری دانشجو، هوش مصنوعی (AI) به‌عنوان ابزاری قدرتمند در درگیری‌های نظامی سراسر جهان به‌کار گرفته شده است. از تجزیه و تحلیل داده‌های اطلاعاتی گرفته تا حملات پهپادی و عملیات شناسایی با ربات‌های نظامی، این فناوری به سرعت در حال تغییر شیوه‌های جنگی است. اما استراتژی اسرائیل در استفاده از هوش مصنوعی علیه حماس و حزب‌الله نشان‌دهنده تغییر چشمگیر در روش‌های سنتی هدف‌گیری نظامی است.

تحول در هدف‌گیری: ترکیب هوش مصنوعی با تصمیم‌گیری انسانی

در مدل‌های سنتی، اپراتورهای انسانی اهداف را شناسایی می‌کردند و پس از تأیید، عملیات نظامی انجام می‌شد. اما زمانی که دامنه هدف‌گیری گسترش یابد، زمان محدود و حجم زیاد داده‌ها چالش‌های بزرگی را برای شناسایی دقیق اهداف ایجاد می‌کند.

اسرائیل برای حل این مشکل، ترکیبی از هوش مصنوعی و تصمیم‌گیری انسانی را در استراتژی خود به‌کار گرفته است. در این روش، هوش مصنوعی وظیفه شناسایی، بررسی و ردیابی اهداف را بر عهده دارد، درحالی‌که انسان‌ها اجرای حملات را انجام می‌دهند. این تغییر متدولوژی، هدف‌گیری سریع‌تر و دقیق‌تر را ممکن می‌سازد.

 

سیستم‌های هوش مصنوعی اسرائیل در جنگ غزه و لبنان

اسرائیل برای اجرای این استراتژی چندین سیستم پیشرفته هوش مصنوعی را به کار گرفته است:

  • «انجیل» (Gospel): شناسایی ساختمان‌ها و زیرساخت‌های مورد استفاده حماس و حزب‌الله
  • «اسطوخودوس» (Lavender): ردیابی و شناسایی اهداف انسانی مرتبط با حماس
  • «بابا کجاست؟» (?Where's Daddy): ردیابی اهداف انسانی در زمان حضور در خانه‌هایشان برای انجام حملات هوایی

این سامانه‌ها با تحلیل داده‌های عظیم اطلاعاتی، فرآیند هدف‌گیری را تا حد زیادی خودکار کرده‌اند و میزان مداخله انسانی را کاهش داده‌اند.

 

"انجیل": سیستم هدف‌گیری زیرساخت‌های نظامی

«انجیل» یک سیستم پیشرفته هوش مصنوعی است که برای شناسایی خودکار اهداف نظامی، به‌ویژه ساختمان‌ها و زیرساخت‌های مورد استفاده حماس، طراحی شده است.

 

عملکرد:

  • تحلیل تصاویر ماهواره‌ای، فیلم‌های پهپادها، اطلاعات شنود و داده‌های حسگرهای مختلف
  • شناسایی تونل‌ها، استحکامات، انبارهای اسلحه و ساختمان‌های حساس
  • استفاده از هوش مصنوعی چندطیفی برای تفکیک مصالح ساختمانی و تشخیص سازه‌های نظامی

دستاوردها:

  • طبق گفته آویو کوچاوی، رئیس سابق ستاد ارتش اسرائیل، در جنگ غزه ۲۰۲۱، «انجیل» روزانه ۱۰۰ هدف تولید می‌کرد که افزایش چشمگیری نسبت به نرخ قبلی ۵۰ هدف در روز داشت.

"اسطوخودوس": سیستم هدف‌گیری انسانی

«اسطوخودوس» به‌طور خاص برای شناسایی افراد مرتبط با شاخه نظامی حماس و جهاد اسلامی طراحی شده است.

عملکرد:

  • تحلیل داده‌های ارتباطی، تغییرات آدرس، فعالیت‌های آنلاین و تماس‌های تلفنی
  • دسته‌بندی افراد بر اساس احتمال عضویت در گروه‌های نظامی
  • شناسایی ۳۷۰۰۰ فرد مظنون به همکاری با حماس در هفته‌های ابتدایی جنگ ۲۰۲۳

چالش‌ها و خطاها:

  • این سیستم گاهی افراد غیرنظامی را به اشتباه هدف قرار می‌دهد، از جمله افسران پلیس، امدادگران یا افرادی با نام مشابه یک عضو حماس.
  • احتمال خطاهای ناشی از تحلیل الگوهای ارتباطی و هدف قرار دادن اشتباه خانواده‌های غیرنظامی.

"بابا کجاست؟" – سیستم ردیابی اهداف در خانه‌ها

عملکرد:

  • ردیابی افراد در زمان ورود به خانه‌هایشان برای اجرای حملات هوایی
  • استفاده از سیستم‌های نظارتی پیشرفته برای مشخص کردن زمان حضور اهداف در محل سکونتشان

چالش‌های اخلاقی:

  • این روش منجر به افزایش شدید تلفات غیرنظامیان شده است، زیرا حملات نه‌تنها هدف نظامی بلکه خانواده او را نیز تحت تأثیر قرار می‌دهد.

خطرات و پیامدهای استفاده از هوش مصنوعی در جنگ

📌 افزایش تلفات غیرنظامیان: با حذف تدریجی نظارت انسانی، اشتباهات مرگبار افزایش یافته است.
📌 خطاهای سیستماتیک و شناسایی نادرست اهداف: هوش مصنوعی نمی‌تواند همیشه نیت یا فعالیت واقعی افراد را تشخیص دهد.
📌 نقض قوانین بین‌المللی جنگ: هدف‌گیری افراد بدون تأیید انسانی می‌تواند چالش‌های حقوقی و اخلاقی جدی ایجاد کند.


 آیا هوش مصنوعی جنگ را تغییر داده است؟

 استفاده از هوش مصنوعی در جنگ‌های مدرن، خصوصاً در استراتژی نظامی اسرائیل، موجب افزایش سرعت و دقت حملات شده است. اما این فناوری در کنار افزایش اثربخشی نظامی، چالش‌های اخلاقی و حقوقی عمیقی را نیز به همراه داشته است.

 با بیش از ۴۶۰۰۰ کشته در غزه، سؤال کلیدی این است: آیا این تکنولوژی باعث افزایش دقت در جنگ شده است یا آن را به ابزاری برای تخریب گسترده و غیرقابل‌کنترل تبدیل کرده است؟

ارسال نظر
captcha
*شرایط و مقررات*
خبرگزاری دانشجو نظراتی را که حاوی توهین است منتشر نمی کند.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نمايید.
توصیه می شود به جای ارسال نظرات مشابه با نظرات منتشر شده، از مثبت یا منفی استفاده فرمایید.
با توجه به آن که امکان موافقت یا مخالفت با محتوای نظرات وجود دارد، معمولا نظراتی که محتوای مشابهی دارند، انتشار نمی یابد.
پربازدیدترین آخرین اخبار