مبارزه ی دارپا با محتوای دستکاری شده
به گزارش کارگروه شبکه های اجتماعی سایبربان، به نقل از «techcrunch»؛ سازمان دارپا به منظور مبارزه با اخبار و محتوای جعلی به تازگی سه قرار داد مختلف را با موسسه خصوصی تحقیقاتی استنفورد (SRI International) امضا کرد.
دارپا در قالب پروژه ای به نام «Media Forensics program» در حال ایجاد ابزاری است که می تواند ویدئو و تصاویری که به صورت معنا داری تغییر کرده از محتوای اصلی خود فاصله گرفته اند را شناسایی کند. به این گونه تغییر محتوا «دیپ فیک » (Deepfakes) گفته می شود. این نرم افزار انجام تجزیه و تحلیل های مورد نظر را ساده تر و با هزینه ای کمتر از محصولات امروزی انجام خواهد داد.
اگر طرح مذکور با موفقیت به انجام برسد، محتوای دستکاری شده به صورت خودکار شناسایی می شوند. همچنین نوع این دستکاری نیز مشخص خواهد شد.
ایده ی اولیه طرح یاد شده در سال 2015 مطرح و توسعه ی آن در 2016 آغاز شد و تکمیل آن تا 2020 به زمان نیاز دارد. موسسه ی تحقیقاتی استنفورد به منظور برای ایجاد ابزار مورد بحث دانشگاه آمستردام گروه حریم خصوصی و امنیت بیومتریک موسسه تحقیقاتی ایدیاپ سوییس (Idiap Research Institute) همکاری می کند.
محققان از 4 تکنیک مختلف برای شناسایی اختلافات صوتی و تصویر موجود در ویدئوها استفاده خواهند کرد. این تناقض ها شامل هماهنگی حرکات لب با گفتگوی در حال انجام، تطبیق تشخیص عدم صحت صحنه مانند اندازه ی اتاق، شناسایی فریم و نوع محتوا هستند.
پژوهشگران توانستند، در زمان انجام آزمایش های اولیه ی سامانه ی بالا در ژوئن گذشته، اختلاف صدا و صحنه را شناسایی کنند. این نوآوری با دقت 75 درصدی توانسته بود صدها ویدئو را مورد بررسی قرار دهد. این ارزیابی در ماه می 2018 با ابعاد بزرگ تری تکرار خواهد شد.
- دیپ فیک ترکیبی عبارات یادگیری عمیق و جعلی است. نوعی الگوریتم هوش مصنوعی که تصاویر و ویدئوی مورد نظر را روی محتوای اصلی قرار داده و آن را تغییر می دهد.