۱۳ شرکت فناوری برای دفاع از هوش مصنوعی متخاصم دست به کار شدند
به گزارش کارگروه فناوری اطلاعات سایبربان به نقل از اینترنت آو تینگز، شرکت مایکروسافت با همکاری سازمان تحقیقاتی MITRE چارچوبی برای کمک به کارشناسان امنیت سایبری جهت مقابله با حملات به مدل های هوش مصنوعی فراهم کردهاند.
این چارچوب «ماتریکس تهدید یادگیری ماشینی متخاصم» (Adversarial ML Threat Matrix نام دارد و در گیت هاب فراهم است. علاوه بر مایکروسافت و MITRE یازده شرکت دیگر نیز در این پروژه با آنها همکاری میکنند.
در همین راستا MITRE دربیانیه ای رسمی در وبسایت خود نوشت:
با همکاری مایکروسافت، بوش، آی بی ام، انویدیا، ایرباس، دیپ اینستینک، تو سیکس لبز، دانشگاه تورنتو، دانشگاه کاردیف، دانشگاه کارنگی ملون، پرایس واترهاوسکوپرز و انستیتو ماشین یادگیری بری ویل این چارچوب را عرضه میکند تا در شناسایی، هشدار و پاسخ به تهدیدها علیه سیستمهای یادگیری ماشینی (ML) به تحلیلگران کمک کند.
مایکروسافت در وبلاگ خود اعلام کرد طی ۴ سال گذشته با افزایش قابلتوجه حملات به سیستمهایML تجاری روبرو بوده است. گزارشهای بازاری ماتریکس تهدید ناشی از یادگیری ماشینی متخاصم قرار است تیمهای امنیتی را تقویت کند.
این ماتریکس مجموعهای از رفتارهای خصمانه و آسیبپذیریهایی را در بردارد که شرکت مایکروسافت و MIRTE طی سالها مشاهده کردهاند.
مایکروسافت در پستی در وبلاگ خود گفت: متوجه شدهایم مهاجمان هنگام حمله به یک سیستم یادگیری ماشینی از ترکیبی از «تکنیکهای سنتی» مانند فیشینگ در کنار تکنیکهای یادگیری ماشینی متخاصم استفاده میکنند.