آخرین اخبار:
کد خبر:۱۲۲۲۶۰۷

هوش مصنوعی متخاصم: بازی بی‌پایان گربه و موش در امنیت سایبری

محققان MIT با توسعه "هوش مصنوعی متخاصم"، فناوری‌ای را طراحی کرده‌اند که رفتار هکر‌ها را شبیه‌سازی می‌کند تا قبل از وقوع حملات واقعی، سیستم‌های دفاعی را آزمایش و تقویت کند. این رقابت هوشمندانه، به نوعی بازآفرینی دیجیتالی بازی گربه و موش است که هر دو طرف را به بهبود مداوم وامی‌دارد.

به گزارش گروه دانشگاه خبرگزاری دانشجو؛ اگر کارتون‌هایی مانند تام و جری را تماشا کرده باشید، یک موضوع مشترک را تشخیص می‌دهید: یک هدف گریزان از دشمن قدرتمند خود دوری می‌کند. این بازی "گربه و موش" - چه به معنای واقعی کلمه یا غیر آن - شامل دنبال کردن چیزی است که در هر تلاشی به سختی از شما فرار می‌کند.

به روشی مشابه، فرار از هکر‌های مداوم چالشی مستمر برای تیم‌های امنیت سایبری است. محققان MIT با نگه داشتن آنها در تعقیب آنچه که دور از دسترس است، روی یک رویکرد هوش مصنوعی به نام "هوش مصنوعی متخاصم" کار می‌کنند که مهاجمان یک دستگاه یا شبکه را تقلید می‌کند تا دفاع شبکه را قبل از وقوع حملات واقعی آزمایش کند. سایر اقدامات دفاعی مبتنی بر هوش مصنوعی به مهندسان کمک می‌کند تا سیستم‌های خود را تقویت کنند تا از باج افزار، سرقت داده یا سایر هک‌ها جلوگیری کنند.

در اینجا، یونا مای اوریلی محقق اصلی آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT (CSAIL) که گروه یادگیری هر مقیاس برای همه (ALFA) را رهبری می‌کند، بحث می‌کند که چگونه هوش متخاصم مصنوعی از ما در برابر تهدیدات سایبری محافظت می‌کند.

 

هوش مصنوعی از چه راه‌هایی می‌تواند نقش یک مهاجم سایبری را ایفا کند و هوش مصنوعی چگونه یک مدافع سایبری را به تصویر می‌کشد؟

پاسخ: مهاجمان سایبری در یک طیف صلاحیت وجود دارند. در پایین‌ترین سطح، به اصطلاح script-kiddies یا بازیگران تهدید وجود دارند که به امید یافتن شبکه یا دستگاهی که بهداشت سایبری را رعایت نکرده است، سوء استفاده‌ها و بدافزار‌های معروف را اسپری می‌کنند. در وسط مزدوران سایبری قرار دارند که منابع بهتری دارند و سازماندهی شده‌اند تا با باج‌افزار یا اخاذی، شرکت‌ها را شکار کنند؛ و در بالاترین حد، گروه‌هایی وجود دارند که گاهی اوقات توسط دولت پشتیبانی می‌شوند، که می‌توانند سخت‌ترین "تهدید‌های پایدار پیشرفته" (یا APT) را با سخت‌ترین تشخیص راه اندازی کنند.

به اطلاعات تخصصی و شرورانه‌ای فکر کنید که این مهاجمان مارشال می‌کنند - این اطلاعات خصمانه است. مهاجمان ابزار‌های بسیار فنی می‌سازند که به آنها اجازه می‌دهد کد را هک کنند، ابزار مناسبی را برای هدف خود انتخاب می‌کنند و حملات آنها چندین مرحله دارد. در هر مرحله، آنها چیزی یاد می‌گیرند، آن را در آگاهی موقعیتی خود ادغام می‌کنند و سپس تصمیم می‌گیرند که چه کاری انجام دهند. برای APT‌های پیچیده، آنها ممکن است به طور استراتژیک هدف خود را انتخاب کنند و یک طرح آهسته و کم دید را طراحی کنند که آنقدر ظریف است که اجرای آن از سپر دفاعی ما فرار کند. آنها حتی می‌توانند شواهد فریبنده‌ای را طراحی کنند که به هکر دیگری اشاره می‌کند!

هدف تحقیق من تکرار این نوع خاص از اطلاعات تهاجمی است، اطلاعاتی که خصمانه محور است (هوشی که عوامل تهدید انسانی بر آن تکیه می‌کنند). من از هوش مصنوعی و یادگیری ماشین برای طراحی عوامل سایبری و مدل‌سازی رفتار خصمانه مهاجمان انسانی استفاده می‌کنم. من همچنین یادگیری و سازگاری را که مشخصه مسابقات تسلیحاتی سایبری است مدل می‌کنم.

همچنین باید توجه داشته باشم که دفاع سایبری بسیار پیچیده است. آنها پیچیدگی خود را در پاسخ به افزایش قابلیت‌های حمله تکامل داده‌اند. این سیستم‌های دفاعی شامل طراحی آشکارسازها، پردازش گزارش‌های سیستم، راه‌اندازی هشدار‌های مناسب و سپس تریاژ آنها در سیستم‌های واکنش به حادثه است. آنها باید دائماً هوشیار باشند تا از یک سطح حمله بسیار بزرگ که ردیابی آن سخت و بسیار پویا است دفاع کنند. در این سوی دیگر رقابت مهاجم در مقابل مدافع، من و تیمم نیز هوش مصنوعی را در خدمت این جبهه‌های دفاعی مختلف اختراع می‌کنیم.

چیز دیگری در مورد هوش خصمانه برجسته است: هم تام و هم جری می‌توانند از رقابت با یکدیگر یاد بگیرند! مهارت‌های آن‌ها تیزتر می‌شود و در یک مسابقه تسلیحاتی قفل می‌شوند. یکی بهتر می‌شود، سپس دیگری، برای حفظ پوست خود، بهتر می‌شود. این بهبود لقب به تله ادامه می‌یابد و به سمت بالا! ما تلاش می‌کنیم تا نسخه‌های سایبری این مسابقات تسلیحاتی را تکرار کنیم.

 

چه نمونه‌هایی در زندگی روزمره ما وجود دارد که هوش خصمانه مصنوعی ما را ایمن نگه داشته است؟ چگونه می‌توانیم از عوامل اطلاعاتی متخاصم برای جلوتر از عوامل تهدید استفاده کنیم؟

پاسخ: یادگیری ماشینی به طرق مختلف برای تضمین امنیت سایبری استفاده شده است. انواع آشکارساز‌هایی وجود دارند که تهدیدات را فیلتر می‌کنند. برای مثال، آنها با رفتار‌های غیرعادی و انواع قابل تشخیص بدافزار تنظیم شده‌اند. سیستم‌های تریاژ مجهز به هوش مصنوعی وجود دارد. برخی از ابزار‌های محافظت از هرزنامه دقیقاً در تلفن همراه شما دارای هوش مصنوعی هستند!

با تیمم، مهاجمان سایبری مجهز به هوش مصنوعی را طراحی می‌کنم که می‌توانند همان کاری را که عوامل تهدید انجام می‌دهند، انجام دهند. ما هوش مصنوعی را اختراع می‌کنیم تا به عوامل سایبری خود مهارت‌های کامپیوتری و دانش برنامه نویسی متخصص را بدهیم، تا آنها را قادر به پردازش انواع دانش سایبری، برنامه ریزی مراحل حمله و تصمیم گیری آگاهانه در یک کمپین کنیم.

عوامل هوشمند دشمن (مانند مهاجمان سایبری هوش مصنوعی ما) می‌توانند به عنوان تمرین هنگام آزمایش دفاع شبکه مورد استفاده قرار گیرند. تلاش زیادی برای بررسی استحکام شبکه برای حمله انجام می‌شود، و هوش مصنوعی می‌تواند در این زمینه کمک کند. علاوه بر این، زمانی که یادگیری ماشینی را به عوامل خود اضافه می‌کنیم، و به دفاع ما، آنها مسابقه تسلیحاتی را انجام می‌دهند که می‌توانیم بررسی، تجزیه و تحلیل و برای پیش بینی اقدامات متقابل در هنگام اتخاذ تدابیری برای دفاع از خود استفاده کنیم.

 

آنها با چه خطرات جدیدی سازگار هستند و چگونه این کار را انجام می‌دهند؟

پاسخ: به نظر می‌رسد هرگز پایانی برای انتشار نرم افزار جدید و مهندسی پیکربندی‌های جدید سیستم‌ها وجود ندارد. با هر انتشار، آسیب‌پذیری‌هایی وجود دارد که مهاجم می‌تواند هدف قرار دهد. اینها ممکن است نمونه‌هایی از ضعف‌های کد باشند که قبلاً مستند شده‌اند، یا ممکن است جدید باشند.

پیکربندی‌های جدید خطر خطا یا راه‌های جدیدی را برای حمله به همراه دارند. زمانی که با حملات انکار سرویس سروکار داشتیم، باج افزار را تصور نمی‌کردیم. اکنون ما در حال جاسوسی سایبری و باج افزار با سرقت IP [مالکیت معنوی]هستیم. همه زیرساخت‌های حیاتی ما، از جمله شبکه‌های مخابراتی و سیستم‌های مالی، بهداشتی، شهری، انرژی و آب، هدف هستند.

خوشبختانه تلاش زیادی برای دفاع از زیرساخت‌های حیاتی انجام شده است. ما باید آن را به محصولات و خدمات مبتنی بر هوش مصنوعی ترجمه کنیم که برخی از این تلاش‌ها را خودکار می‌کند؛ و البته، به طراحی عوامل متخاصم باهوش‌تر و باهوش‌تر برای نگه داشتن ما و یا کمک به تمرین دفاع از دارایی‌های سایبری خود ادامه دهیم.

ارسال نظر
captcha
*شرایط و مقررات*
خبرگزاری دانشجو نظراتی را که حاوی توهین است منتشر نمی کند.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نمايید.
توصیه می شود به جای ارسال نظرات مشابه با نظرات منتشر شده، از مثبت یا منفی استفاده فرمایید.
با توجه به آن که امکان موافقت یا مخالفت با محتوای نظرات وجود دارد، معمولا نظراتی که محتوای مشابهی دارند، انتشار نمی یابد.
پربازدیدترین آخرین اخبار