حمله هکرها به هوش مصنوعی هاگینگ فیس
به گزارش کارگروه حملات سایبری خبرگزاری سایبربان، در طی یک ممیزی امنیتی از مخازن گیتهاب (GitHub) و هاگینگ فیس (HuggingFace)، محققان شرکت امنیتی لاسو (Lasso Security) بیش از 1600 توکن ای پی آی (API) در معرض خطر را کشف کردند که میتوانست عاملان تهدید را قادر به انجام یک حمله کند.
با داشتن دسترسی کامل، مهاجمان میتوانستند مدلهای محبوب هوش مصنوعی مورد استفاده میلیونها برنامه پایین دستی را دستکاری کنند.
تیم تحقیقاتی لاسو بیان کرد:
شدت این وضعیت را نمی توان اغراق کرد. با کنترل سازمانی که میلیونها بار دانلود میکند، اکنون این قابلیت را داریم که مدلهای موجود را دستکاری کنیم و به طور بالقوه آنها را به موجودیتهای مخرب تبدیل کنیم.
هاگینگ فیس، ارائه دهنده پیشرو مدل ها و مجموعه داده های از پیش آموزش دیده است.
این هوش مصنوعی به عنوان ارائهدهنده پیشرو مدلها و مجموعه دادههای از پیش آموزشدیده برای پردازش زبان طبیعی، بینایی کامپیوتر و سایر وظایف هوش مصنوعی، به یک هدف با ارزش تبدیل شده است.
کتابخانه منبع باز ترنسفورمرز (Transformers) این شرکت میزبان بیش از 500 هزار مدل است که بیش از 50 هزار سازمان به آنها اعتماد دارند.
مهاجمان به خوبی میدانند که مسموم کردن دادهها و مدلهای هاگینگ فیس میتواند تأثیر زیادی در صنایعی که هوش مصنوعی را پیادهسازی میکنند، داشته باشد.
ممیزی لاسو بر توکنهای ای پی آی متمرکز بود که به عنوان کلیدهایی برای دسترسی به مدلهای اختصاصی و دادههای حساس عمل میکنند.
با اسکن مخازن کد عمومی، محققان صدها توکن در معرض دید را شناسایی کردند که بسیاری از آنها دسترسی نوشتن یا امتیازات مدیریت کامل بر دارایی های خصوصی را داشتند.
با کنترل این توکنها، مهاجمان میتوانستند مدلهای هوش مصنوعی و دادههای پشتیبان را از بین ببرند یا خراب کنند.
این یافتهها سه حوزه خطر نوظهور را که برای امنیت هوش مصنوعی شناسایی شده است، نشان میدهد: حملات زنجیره تامین، مسمومیت دادهها و سرقت مدل.
از آنجایی که هوش مصنوعی در فعالیتهای تجاری و دولتی نفوذ میکند، تامین امنیت کامل زنجیره تامین، از دادهها گرفته تا مدلها و برنامهها، امری بسیار مهم است.
شرکت لاسو به شرکتهایی مانند هاگینگ فیس توصیه میکند که اسکن خودکار توکنهای ای پی آی در معرض دید را اجرا کنند، کنترلهای دسترسی را اعمال کنند و توسعهدهندگان را تشویق کنند که از توکنهای کد سخت در مخازن عمومی اجتناب کنند.
توکن های فردی نیز باید به عنوان هویت در نظر گرفته شوند و از طریق احراز هویت چند عاملی و اصول اعتماد صفر ایمن شوند.
برای همه پذیرندگان هوش مصنوعی مولد، این حادثه نیاز به اعتبارسنجی وضعیتهای امنیتی را در سطوح احتمالی حمله به طور مداوم تقویت میکند.
مهاجمان انگیزه دارند تا زنجیره تامین هوش مصنوعی را به خطر بیندازند و هوشیاری بیشتر به تنهایی اقدامات مخاطره آمیز را خنثی نمیکند.
حفظ احراز هویت قوی و اجرای کنترلهای حداقل امتیاز تا سطح توکن ای پی آی، امری ضروری است.