یک سازمان تحقیقاتی با همکاری مایکروسافت و ۱۱ شرکت فناوری چارچوبی را برای مقابله با حملات متخاصم که به سیستمهای هوش مصنوعی وارد میشود، فراهم کردهاند.
به گزارش گروه فناوری خبرگزاری دانشجو، شرکت مایکروسافت با همکاری سازمان تحقیقاتی MITRE چارچوبی برای کمک به کارشناسان امنیت سایبری جهت مقابله با حملات به مدلهای هوش مصنوعی فراهم کرده اند.
این چارچوب «ماتریکس تهدید یادگیری ماشینی متخاصم» (Adversarial ML Threat Matrix نام دارد و در گیت هاب فراهم است. علاوه بر مایکروسافت و MITRE یازده شرکت دیگر نیز در این پروژه با آنها همکاری میکنند.
درهمین راستا MITRE دربیانیهای رسمی در وب سایت خود نوشت: باهمکاری مایکروسافت، بوش، آی بی ام، انویدیا، ایرباس، دیپ اینستینک، تو سیکس لبز، دانشگاه تورنتو، دانشگاه کاردیف، دانشگاه کارنگی ملون، پرایس واترهاوسکوپرز و انستیتو ماشین یادگیری بری ویل این چارچوب را عرضه میکند تا در شناسایی، هشدار و پاسخ به تهدیدها علیه سیستمهای یادگیری ماشینی (ML) به تحلیلگران کمک کند.
مایکروسافت در وبلاگ خود اعلام کرد طی ۴ سال گذشته با افزایش قابل توجه حملات به سیستمهای ML تجاری روبرو بوده است. گزارشهای بازاری ماتریکس تهدید ناشی از یادگیری ماشینی متخاصم قرار است تیمهای امنیتی را تقویت کند.
این ماتریکس مجموعهای از رفتارهای خصمانه و آسیب پذیریهایی را در بردارد که شرکت مایکروسافت و MIRTE طی سالها مشاهده کردهاند. مایکروسافت در پستی در وبلاگ خود گفت: متوجه شده ایم مهاجمان هنگام حمله به یک سیستم یادگیری ماشینی از ترکیبی از «تکنیکهای سنتی» مانند فیشینگ در کنار تکنیکهای یادگیری ماشینی متخاصم استفاده میکنند.