جعل هویت بدون دخالت انسان
به گزارش کارگروه فناوری اطلاعات سایبربان، به نقل از «iflscience»؛ پژوهشگران شرکت انویدیا به تازگی نوعی «شبکه مولد تهاجمی» (Generative Adversarial Network) را به وجود آوردند که میتواند بدون دریافت هرگونه ورودی از اپراتور انسانی، تصاویر دروغین از چهرهی افراد تولید کند. این عکسهای جعلی به اندازی واقعی جلوه میکنند که حتی متخصصان انسانی نیز قابلیت تشخیص آنها را ندارند.
محققان الگوریتم خود را با بیش از 70 هزار تصویر استخراج شده از فیلیکر (Flickr) آموزش دادند. این هوش مصنوعی با کمک عکسهای یاد شده جنبههای مختلف چهرهی افراد مانند رنگ مو، پوست، ژست، خراشیدگی، آرایش و بسیاری موارد دیگر را فرا گرفت. همچنین دستاورد موردبحث پس از این فرایند قادر بود تا بین ویژگیهایی مانند رنگ و سبک عکسها تمایز قائل شود.
پس از این که هوش مصنوعی موفق شد ویژگیهای چهرهها را از یکدیگر تفکیک کند، با ترکیب خصیصههای مختلف، چهرههایی کاملاً جدید، اما جعلی به وجود میآورد.

محققان گفتند:
ما نسل تازهای از مولد را که به صورت خودمختار تفاوت جنبههای مختلف را یاد میگیرد، توسعه دادیم که این کار را بدون نظارت انسانی انجام میدهد.
اندویدیا در اوایل سال 2018 نیز نرمافزاری تولید کرد که میتوانست تصاویر آسیبدیده را اصلاح کند.
تحقیقات بالا نشان میدهد با توجه به پیشرفت روزافزون فناوری، ساخت هویت جعلی در شبکههای اجتماعی و انتشار اخبار دروغین بسیار سادهتر و تشخیص آنها سختتر خواهد شد.