اجلاس RSA 2019: لزوم بازسازی اعتماد در آینده سایبری (بخش دوم)
به گزارش کارگروه بینالملل سایبربان؛ در متن سخنرانی اصلی روز اول اجلاس RSA 2019، هر 2 روی تاریک و روشن آینده مطرح شد که در آن، مسائل مختلفی روی جامعه، فشار روانی زیادی وارد میکنند. انتشار اخبار جعلی، یکی از مسائلی است که بحران از بین رفتن اعتماد را به وجود میآورد. در کنار این موضوع، هوش مصنوعی نیز سطح جدیدی از حملات را ایجاد خواهد کرد.
هوش مصنوعی:
در کنار بحران اعتماد یادشده، فناوریهای نوظهوری نیز به وجود میآیند که سطح حملهی تازهای را ایجاد میکنند، یا ممکن است با عواقب ناخواسته و مخرب، مورد سوء استفاده قرار گیرند. هوش مصنوعی در آینده به یکی از اصلیترین مسائل تبدیل میشود.
استیو گرابمن (Steve Grobman)، معاون ارشد مدیر و مدیر ارشد فناوری مکآفی در رابطه با هوش مصنوعی و قابلاطمینان بودن آن صحبت کرد.
گرابمن اشاره کرد که هوش مصنوعی، به اصلی جدید در امنیت سایبری تبدیل میشود. همچنین کمک میکند که از لحاظ نظری، تهدیدات نوآوریهای دشمنان، بهتر شناسایی شوند. به علاوه از طریق خودمختارسازی بعضی از وظایف، چالش کمبود نیروی متخصص را برطرف کرده، باعث میشود کارشناسان انسانی، روی مسائل مهمتری تمرکز کنند.
معاون ارشد مدیر مکآفی گفت:
مشکل این است که فناوری، مسائل اخلاقی را درک نمیکند. این موضوع، مانند کشیدن خطی موازی بین بالهایی است که نمیدانند، یا برایشان اهمیتی ندارد که یک جنگنده نظامی، یا هواپیمایی امدادرسان را بلند کنند. به همین ترتیب، یک الگوریتم رمزنگاری میتواند جلوی سرقت 150 اگزابایت داده را از سراسر وب در هر ماه گرفته، یا حملهی باج افزاری گستردهای را آغاز کند. هستهی رمزنگاری، تنها محاسبات ریاضی است و شما نمیتوانید هیچ شخصی را از ریاضیات منع کنید.
مدیر ارشد فناوری مکآفی ادامه کرد:
در رابطه با هوش مصنوعی، مانند پرواز ما نمیتوانیم، تنها روی ظرفیتهای بالقوهای که به ما کمک میکند تمرکز کنیم. ما باید محدودیتها و روشهایی را که علیه ما به کار گرفته میشوند نیز درک کنیم.
وی افزود:
سازمانهای امنیت عمومی در سانفرانسیسکو، به منظور بهینهسازی گشت پلیس بر پایه سطح جرم، یا دیگر معیارها، از علم داده مدرن بهره میگیرند. در مقابل، مجرمان نیز میتوانند با دادههایی کاملاً مشابه، نقشهای را به وجود آورند که اقدامات آنها را بهبود بخشیده، احتمالاً دستگیری را کاهش دهد. همهی این کارها با یک هوش مصنوعی یکسان امکانپذیر است.
سلسته فرالیک (Celeste Fralick)، دانشمند ارشد داده مکآفی و یکی از 50 زن برتر حوزه فناوری به انتخاب فربز (Forbes) نیز با حضور خود روی صحنه در رابطه با شیوهی به کارگیری هوش مصنوعی به منظور تولید دیپ فیک (deep fake) صحبت کرد.
فرالیک اظهار داشت:
هوش مصنوعی، برای تولید محتوای جعلی کاملاً باورپذیر، بسیار مناسب است. امکان ایجاد هرجومرج عظیمی به وسیلهی این فناوری وجود دارد.
دانشمند ارشد داده مکآفی، همچنین توضیح داد که چگونه هوش مصنوعی را میتوان برای ایجاد پیامهای خودمختار و هدفمند به کار گرفت؛ تا حملات فیشینگ مؤثرتری را با همان مقیاس قبلی انجام داد. همچنین امکان حملهی یک هوش مصنوعی به موتور خودش وجود دارد. برای نمونه میتوان تصاویر طبقهبندی شده را به گونهای دستکاری کرد که یک پنگوئن، به عنوان یک ماهیتابه، تشخیص داده شود.
وی شرح داد:
تصور کنید در زمینه طبقهبندی بدافزار و دیگر مدلهای دفاع سایبری، از چنین الگوریتمهای یادگیری ماشینی خصمانه (adversarial machine learning) استفاده شود.