پیچیده شدن روز افزون کلاهبرداری های دیپ فیک
به گزارش کارگروه فناوری اطلاعات خبرگزاری سایبربان، بلومبرگ گزارش داد که مجرمان سایبری از شبیه سازی صدای مبتنی بر هوش مصنوعی و فناوری ویدیوی جعلی دیپ فیک برای فریب دادن افراد و سازمان ها استفاده می کنند.
در یک حادثه اخیر، یک مدیر عامل پس از دریافت تماسی که به نظر می رسید از یک منبع قابل اعتماد است، 249 هزار دلار وجه را منتقل کرد، اما بعدا متوجه شد که این تماس توسط هوش مصنوعی ایجاد شده است.
اودی موکادی، رئیس شرکت امنیت سایبری نرم افزاری سایبر آرک (CyberArk Software)، با چنین حمله ای مواجه شده است.
در یک پیام ویدیویی از تیم مایکروسافت در ماه جولای، موکادی زمانی که با نسخهای از خود که به طرز وحشتناکی متقاعدکننده بود مواجه شد، غافلگیر شد، حرکتی که بعداً مشخص شد که یکی از همکارانش با او شوخی کرده بوده است.
موکادی به بلومبرگ گفت:
من شوکه شدم. من آنجا بودم، با یک هودی بر تن و دفترم در پسزمینه بود.
در حالی که شرکتهای کوچکتر ممکن است کارمندانی با فنآوری داشته باشند که میتوانند دیپفیکها را شناسایی کنند، سازمانهای بزرگتر در برابر چنین حملاتی آسیبپذیرتر هستند، زیرا ممکن است روابط کاری صمیمی یا درک تکنولوژیکی برای تشخیص واقعی بودن کسی وجود نداشته باشد.
گال زرور، مدیر تحقیقات سایبر آرک که این شیرین کاری را بر سر موکادی انجام داد، به بلومبرگ گفت:
اگر ما به اندازه شرکت آی بی ام (IBM) یا والمارت (Walmart) یا تقریباً هر شرکت بزرگ عضو فورچون 500 (Fortune 500) بودیم، دلیل موجهی برای نگرانی وجود داشت؛ چرا که مثلا شاید کارمند شماره 30005 فریب خورده باشد.
کارشناسان امنیت سایبری نسبت به عواقب یک کپی هوش مصنوعی شبیه به انسان از مدیر اجرایی که داده ها و اطلاعات حیاتی شرکت مانند رمز عبور را کشف می کند، هشدار داده اند.
در ماه آگوست، ماندیانت (Mandiant)، یک شرکت امنیت سایبری متعلق به گوگل، اولین نمونههای فناوری ویدیوی دیپفیک را که به صراحت برای کلاهبرداریهای فیشینگ طراحی و فروخته شده بود، به گفته بلومبرگ فاش کرد.
این پیشنهادها که در انجمنهای هکرها و کانالهای تلگرام به زبانهای انگلیسی و روسی تبلیغ میشوند، قول میدهند که ظاهر افراد را تقلید کنند و اثربخشی اخاذی، کلاهبرداری یا طرحهای مهندسی اجتماعی را افزایش دهند.
دیپ فیک هایی که جعل شخصیت های عمومی شناخته شده هستند نیز به طور فزاینده ای منتشر شده اند.
هفته گذشته، خبرگزاری ان بی سی بیش از 50 ویدیو را در پلتفرمهای رسانههای اجتماعی بررسی کرد که در آنها دیپفیکهای افراد مشهور از خدمات ساختگی تبلیغ میکردند.
این ویدئوها ظاهر تغییر یافته چهرههای برجستهای مانند ایلان ماسک، اما همچنین چهرههای رسانهای مانند گیل کینگ، مجری اخبار شبکه سیبیاس و تاکر کارلسون مجری سابق فاکس نیوز را نشان میداد که همگی به دروغ از یک پلتفرم سرمایهگذاری که وجود خارجی نداشت، حمایت میکردند.
دیپ فیک، همراه با سایر فناوریهایی که به سرعت در حال گسترش هستند، به افزایش جرایم سایبری کمک کرده است.
در سال 2022، خسارت 10.2 میلیارد دلاری ناشی از کلاهبرداری های سایبری به اف بی آی گزارش شد که نسبت به سال قبل از آن که 6.9 میلیارد دلار بود، افزایش چشمگیری داشته است.
همانطور که قابلیتهای هوش مصنوعی همچنان بهبود مییابد و کلاهبرداریها پیچیدهتر میشوند، کارشناسان بهویژه نگران عدم توجه به دیپفیکها در میان سایر تهدیدات سایبری هستند.
جف پولارد، تحلیلگر موسسه تحقیقاتی فارستر (Forrester) در ماه آوریل به بلومبرگ گفت:
من هر روز با رهبران امنیتی صحبت می کنم. آنها نگران هوش مصنوعی مولد هستند. اما وقتی صحبت از چیزی مانند تشخیص دیپ فیک می شود، این چیزی نیست که بودجه را صرف آن کنند. آنها مشکلات بسیار دیگری دارند.