استفاده هکرها از هوش مصنوعی
به گزارش کارگروه حملات سایبری سایبربان ،یک مقام ارشد امنیت سایبری کانادا به رویترز گفت که هکرها و مبلغان از هوش مصنوعی (AI) برای ایجاد نرم افزارهای مخرب، پیش نویس ایمیل های فیشینگ قانع کننده و انتشار اطلاعات نادرست آنلاین استفاده میکنند.
سامی خوری (Sami Khoury)، رئیس مرکز امنیت سایبری کانادا در مصاحبه ای گفت که آژانس او شاهد استفاده از هوش مصنوعی در ایمیل های فیشینگ، یا ساخت ایمیل ها به روشی متمرکزتر در کدهای مخرب و اطلاعات نادرست و دروغ بوده است.
سامی خوری جزئیات یا شواهدی را ارائه نکرد، اما ادعای او مبنی بر اینکه مجرمان سایبری در حال حاضر از هوش مصنوعی استفاده میکنند، نگرانی شدیدی را نسبت به استفاده از این فناوری نوظهور به وجود می آورد.
در ماه های اخیر چندین گروه ناظر سایبری گزارش هایی را منتشر کرده اند که در مورد خطرات فرضی هوش مصنوعی به خصوص برنامه های پردازش سریع زبان معروف به مدل های زبان بزرگ (LLMs) هشدار میدهند.
در ماه مارس، سازمان پلیس اروپا (یوروپل) گزارشی منتشر کرد که اعلام کرد مدلهایی مانند ChatGPT امکان جعل هویت یک سازمان یا فرد را به شیوهای بسیار واقعی فراهم کرده است. در همان ماه، مرکز ملی امنیت سایبری بریتانیا در یک پست وبلاگی گفت که این خطر وجود دارد که مجرمان ممکن است از LLM برای کمک به حملات سایبری فراتر از توانایی های فعلی خود استفاده کنند.
محققان امنیت سایبری انواعی از موارد استفاده بالقوه مخرب را نشان دادهاند و برخی اکنون میگویند که شروع به مشاهده محتوای مشکوک تولید شده توسط هوش مصنوعی کرده اند. هفته گذشته، یک هکر سابق گفت که یک LLM آموزش دیده بر روی اطلاعات مخرب را کشف کرده است و از آن خواسته تا تلاش قانعکنندهای برای فریب شخصی برای انتقال پول نقد ارائه کند.
سامی خوری گفت :در حالیکه استفاده از هوش مصنوعی برای پیشنویس کدهای مخرب هنوز در مراحل اولیه است و هنوز راه زیادی وجود دارد، زیرا نوشتن یک اکسپلویت خوب به زمان زیادی نیاز دارد،اما مدلهای هوش مصنوعی آنقدر سریع در حال تکامل هستند که کنترل پتانسیل مخرب آنها قبل از انتشار در دسترس عموم،کار بسیار دشواری است.