به گزارش گروه دانشگاه خبرگزاری دانشجو؛ اگر کارتونهایی مانند تام و جری را تماشا کرده باشید، یک موضوع مشترک را تشخیص میدهید: یک هدف گریزان از دشمن قدرتمند خود دوری میکند. این بازی "گربه و موش" - چه به معنای واقعی کلمه یا غیر آن - شامل دنبال کردن چیزی است که در هر تلاشی به سختی از شما فرار میکند.
به روشی مشابه، فرار از هکرهای مداوم چالشی مستمر برای تیمهای امنیت سایبری است. محققان MIT با نگه داشتن آنها در تعقیب آنچه که دور از دسترس است، روی یک رویکرد هوش مصنوعی به نام "هوش مصنوعی متخاصم" کار میکنند که مهاجمان یک دستگاه یا شبکه را تقلید میکند تا دفاع شبکه را قبل از وقوع حملات واقعی آزمایش کند. سایر اقدامات دفاعی مبتنی بر هوش مصنوعی به مهندسان کمک میکند تا سیستمهای خود را تقویت کنند تا از باج افزار، سرقت داده یا سایر هکها جلوگیری کنند.
در اینجا، یونا مای اوریلی محقق اصلی آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT (CSAIL) که گروه یادگیری هر مقیاس برای همه (ALFA) را رهبری میکند، بحث میکند که چگونه هوش متخاصم مصنوعی از ما در برابر تهدیدات سایبری محافظت میکند.
هوش مصنوعی از چه راههایی میتواند نقش یک مهاجم سایبری را ایفا کند و هوش مصنوعی چگونه یک مدافع سایبری را به تصویر میکشد؟
پاسخ: مهاجمان سایبری در یک طیف صلاحیت وجود دارند. در پایینترین سطح، به اصطلاح script-kiddies یا بازیگران تهدید وجود دارند که به امید یافتن شبکه یا دستگاهی که بهداشت سایبری را رعایت نکرده است، سوء استفادهها و بدافزارهای معروف را اسپری میکنند. در وسط مزدوران سایبری قرار دارند که منابع بهتری دارند و سازماندهی شدهاند تا با باجافزار یا اخاذی، شرکتها را شکار کنند؛ و در بالاترین حد، گروههایی وجود دارند که گاهی اوقات توسط دولت پشتیبانی میشوند، که میتوانند سختترین "تهدیدهای پایدار پیشرفته" (یا APT) را با سختترین تشخیص راه اندازی کنند.
به اطلاعات تخصصی و شرورانهای فکر کنید که این مهاجمان مارشال میکنند - این اطلاعات خصمانه است. مهاجمان ابزارهای بسیار فنی میسازند که به آنها اجازه میدهد کد را هک کنند، ابزار مناسبی را برای هدف خود انتخاب میکنند و حملات آنها چندین مرحله دارد. در هر مرحله، آنها چیزی یاد میگیرند، آن را در آگاهی موقعیتی خود ادغام میکنند و سپس تصمیم میگیرند که چه کاری انجام دهند. برای APTهای پیچیده، آنها ممکن است به طور استراتژیک هدف خود را انتخاب کنند و یک طرح آهسته و کم دید را طراحی کنند که آنقدر ظریف است که اجرای آن از سپر دفاعی ما فرار کند. آنها حتی میتوانند شواهد فریبندهای را طراحی کنند که به هکر دیگری اشاره میکند!
هدف تحقیق من تکرار این نوع خاص از اطلاعات تهاجمی است، اطلاعاتی که خصمانه محور است (هوشی که عوامل تهدید انسانی بر آن تکیه میکنند). من از هوش مصنوعی و یادگیری ماشین برای طراحی عوامل سایبری و مدلسازی رفتار خصمانه مهاجمان انسانی استفاده میکنم. من همچنین یادگیری و سازگاری را که مشخصه مسابقات تسلیحاتی سایبری است مدل میکنم.
همچنین باید توجه داشته باشم که دفاع سایبری بسیار پیچیده است. آنها پیچیدگی خود را در پاسخ به افزایش قابلیتهای حمله تکامل دادهاند. این سیستمهای دفاعی شامل طراحی آشکارسازها، پردازش گزارشهای سیستم، راهاندازی هشدارهای مناسب و سپس تریاژ آنها در سیستمهای واکنش به حادثه است. آنها باید دائماً هوشیار باشند تا از یک سطح حمله بسیار بزرگ که ردیابی آن سخت و بسیار پویا است دفاع کنند. در این سوی دیگر رقابت مهاجم در مقابل مدافع، من و تیمم نیز هوش مصنوعی را در خدمت این جبهههای دفاعی مختلف اختراع میکنیم.
چیز دیگری در مورد هوش خصمانه برجسته است: هم تام و هم جری میتوانند از رقابت با یکدیگر یاد بگیرند! مهارتهای آنها تیزتر میشود و در یک مسابقه تسلیحاتی قفل میشوند. یکی بهتر میشود، سپس دیگری، برای حفظ پوست خود، بهتر میشود. این بهبود لقب به تله ادامه مییابد و به سمت بالا! ما تلاش میکنیم تا نسخههای سایبری این مسابقات تسلیحاتی را تکرار کنیم.
چه نمونههایی در زندگی روزمره ما وجود دارد که هوش خصمانه مصنوعی ما را ایمن نگه داشته است؟ چگونه میتوانیم از عوامل اطلاعاتی متخاصم برای جلوتر از عوامل تهدید استفاده کنیم؟
پاسخ: یادگیری ماشینی به طرق مختلف برای تضمین امنیت سایبری استفاده شده است. انواع آشکارسازهایی وجود دارند که تهدیدات را فیلتر میکنند. برای مثال، آنها با رفتارهای غیرعادی و انواع قابل تشخیص بدافزار تنظیم شدهاند. سیستمهای تریاژ مجهز به هوش مصنوعی وجود دارد. برخی از ابزارهای محافظت از هرزنامه دقیقاً در تلفن همراه شما دارای هوش مصنوعی هستند!
با تیمم، مهاجمان سایبری مجهز به هوش مصنوعی را طراحی میکنم که میتوانند همان کاری را که عوامل تهدید انجام میدهند، انجام دهند. ما هوش مصنوعی را اختراع میکنیم تا به عوامل سایبری خود مهارتهای کامپیوتری و دانش برنامه نویسی متخصص را بدهیم، تا آنها را قادر به پردازش انواع دانش سایبری، برنامه ریزی مراحل حمله و تصمیم گیری آگاهانه در یک کمپین کنیم.
عوامل هوشمند دشمن (مانند مهاجمان سایبری هوش مصنوعی ما) میتوانند به عنوان تمرین هنگام آزمایش دفاع شبکه مورد استفاده قرار گیرند. تلاش زیادی برای بررسی استحکام شبکه برای حمله انجام میشود، و هوش مصنوعی میتواند در این زمینه کمک کند. علاوه بر این، زمانی که یادگیری ماشینی را به عوامل خود اضافه میکنیم، و به دفاع ما، آنها مسابقه تسلیحاتی را انجام میدهند که میتوانیم بررسی، تجزیه و تحلیل و برای پیش بینی اقدامات متقابل در هنگام اتخاذ تدابیری برای دفاع از خود استفاده کنیم.
آنها با چه خطرات جدیدی سازگار هستند و چگونه این کار را انجام میدهند؟
پاسخ: به نظر میرسد هرگز پایانی برای انتشار نرم افزار جدید و مهندسی پیکربندیهای جدید سیستمها وجود ندارد. با هر انتشار، آسیبپذیریهایی وجود دارد که مهاجم میتواند هدف قرار دهد. اینها ممکن است نمونههایی از ضعفهای کد باشند که قبلاً مستند شدهاند، یا ممکن است جدید باشند.
پیکربندیهای جدید خطر خطا یا راههای جدیدی را برای حمله به همراه دارند. زمانی که با حملات انکار سرویس سروکار داشتیم، باج افزار را تصور نمیکردیم. اکنون ما در حال جاسوسی سایبری و باج افزار با سرقت IP [مالکیت معنوی]هستیم. همه زیرساختهای حیاتی ما، از جمله شبکههای مخابراتی و سیستمهای مالی، بهداشتی، شهری، انرژی و آب، هدف هستند.
خوشبختانه تلاش زیادی برای دفاع از زیرساختهای حیاتی انجام شده است. ما باید آن را به محصولات و خدمات مبتنی بر هوش مصنوعی ترجمه کنیم که برخی از این تلاشها را خودکار میکند؛ و البته، به طراحی عوامل متخاصم باهوشتر و باهوشتر برای نگه داشتن ما و یا کمک به تمرین دفاع از داراییهای سایبری خود ادامه دهیم.