ایمنسازی سیستمهای هوش مصنوعی در سنگاپور
به گزارش کارگروه فناوری اطلاعات سایبربان؛ سنگاپور قصد دارد به زودی دستورالعملهایی را منتشر کند که براساس آنها اقدامات عملی برای تقویت امنیت ابزارها و سیستمهای هوش مصنوعی (AI) ارائه شوند. به گفته جانیل پوتوچیری (Janil Puthucheary)، وزیر ارشد وزارت ارتباطات و اطلاعات سنگاپور، آژانس امنیت سایبری (CSA) قرار است پیشنویس دستورالعملهای فنی خود را برای ایمنسازی سیستمهای هوش مصنوعی در راستای مشاوره عمومی اواخر این ماه منتشر کند.
پوتوچیری در سخنرانی افتتاحیه خود در نشست امنیت هوش مصنوعی انجمن متخصصان امنیت اطلاعات (AiSP) گفت :
«دستورالعملهای داوطلبانه را میتوان در کنار فرآیندهای امنیتی موجود که سازمانها برای مقابله با خطرات احتمالی در سیستمهای هوش مصنوعی اجرا می کنند، اتخاذ کرد. آژانس امنیت سایبری امیدوار است از طریق دستورالعملهای فنی، مرجع مفیدی برای متخصصان امنیت سایبری ارائه دهد که به دنبال بهبود امنیت ابزارهای هوش مصنوعی خود هستند.»
او همچنین از صنعت و جامعه خواست تا نقش خود را در حصول اطمینان از ایمن ماندن ابزارها و سیستمهای هوش مصنوعی در برابر تهدیدات مخرب انجام دهند، حتی اگر تکنیکها همچنان در حال تکامل باشند.
وی خاطرنشان کرد :
«در طول چند سال گذشته، هوش مصنوعی به سرعت تکثیر شده و در فضاهای متنوعی به کار گرفته شده است. این امر به طور قابل توجهی بر چشمانداز تهدید تأثیر گذاشته است. ما میدانیم که این توسعه و پذیرش سریع هوش مصنوعی ما را در معرض خطرات جدید بسیاری، [از جمله] یادگیری ماشینی تهاجمی که به مهاجمان اجازه میدهد عملکرد مدل را به خطر بیاندازند، قرار داده است. فروشنده امنیتی مکآفی (McAfee) با ایجاد تغییراتی در علائم محدودیت سرعت که سیستم هوش مصنوعی برای تشخیص آنها آموزش دیده بود، در به خطر انداختن «Mobileye» موفق شد.»
وزیر ارشد وزارت ارتباطات و اطلاعات سنگاپور اظهار داشت که هوش مصنوعی خطرات امنیتی جدیدی را دامن میزند و سازمانهای بخش دولتی و خصوصی باید برای درک چشمانداز تهدید در حال تحول تلاش کنند. وی افزود که مدیر ارشد اطلاعات دولت سنگاپور، آژانس فناوری دولتی (GovTech)، در حال توسعه قابلیتهایی برای شبیهسازی حملات احتمالی به سیستمهای هوش مصنوعی است تا بفهمد چگونه میتوانند بر امنیت چنین پلتفرمهایی تأثیر بگذارند. با انجام این کار، ضمانتهای مناسب را میتوان به کار گرفت.
پوتوچیری تصریح کرد که تلاشها برای محافظت بهتر در برابر تهدیدات موجود باید ادامه یابد، زیرا هوش مصنوعی در برابر تهدیدات سایبری کلاسیک، مانند تهدیدهایی که حریم خصوصی دادهها را هدف قرار میدهند، آسیبپذیر است. او خاطرنشان کرد که پذیرش رو به رشد هوش مصنوعی سطح حمله را گسترش میدهد که از طریق آن دادهها میتوانند در معرض خطر قرار گیرند، یا به بیرون درز کنند. وی ادامه داد که میتوان از هوش مصنوعی برای ایجاد بدافزار پیچیدهتر مانند «WormGPT» استفاده کرد که تشخیص آن برای سیستمهای امنیتی موجود دشوار است.
این مقام سنگاپوری توضیح داد :
«در عین حال، هوش مصنوعی میتواند برای بهبود دفاع سایبری و متخصصان امنیت تسلیحاتی با توانایی شناسایی خطرات سریعتر، در مقیاس و با دقت بهتر مورد استفاده قرار گیرد. ابزارهای امنیتی مجهز به یادگیری ماشینی میتوانند به شناسایی ناهنجاریها و راهاندازی اقدامات مستقل برای کاهش تهدیدات احتمالی کمک کنند. انجمن متخصصان امنیت اطلاعات در حال راهاندازی یک گروه علاقهمندی ویژه هوش مصنوعی است که در آن اعضای آن میتوانند بینشهایی درباره پیشرفتها و قابلیتها تبادل کنند. این انجمن که در سال 2008 تأسیس شد، خود را به عنوان یک گروه صنعتی با تمرکز بر هدایت شایستگی فنی و منافع جامعه امنیت سایبری سنگاپور توصیف میکند.»
در ماه آوریل سال جاری، مرکز امنیت هوش مصنوعی آژانس امنیت ملی ایالات متحده یک برگه اطلاعاتی با عنوان «کاربرد ایمن سیستمهای هوش مصنوعی» منتشر کرد که طبق آن بهترین شیوهها در مورد استقرار و عملکرد سیستمهای هوش مصنوعی ارائه شده است.
هدف این دستورالعملها که به طور مشترک با آژانس امنیت سایبری و امنیت اطلاعات ایالات متحده توسعه یافته، ارتقاء یکپارچگی و در دسترس بودن سیستمهای هوش مصنوعی و ایجاد اقدامات کاهشی برای آسیبپذیریهای شناخته شده در سیستمهای هوش مصنوعی است. این سند همچنین متدولوژیها و کنترلهایی را برای شناسایی و پاسخ به فعالیتهای مخرب علیه سیستمهای هوش مصنوعی و دادههای مرتبط تشریح میکند.