پاکسازی محتوای نامناسب، تخصص هوش مصنوعی فیس بوک
به گزارش کارگروه شبکه های اجتماعی سایبربان؛ فیس بوک اعلام کرد که فناوری مورد استفاده خود برای شناسایی و حذف محتویات نامناسب از جمله اطلاعات گمراه کننده در مورد کرونا را پیشرفت داده است.
فیس بوک در گذشته برای متعادل سازی محتوای خود از نیروهای انسانی استفاده می کرد. این کارمندان به دلیل نوع کار خود نمی توانند دور کاری کنند. از طرفی همه گیری کرونا باعث شد تا محدودیت هایی در فاصله های اجتماعی کارمندان به وجود بیاید و بیشتر شرکت ها مجبور به دور کاری شدند. از طرفی دیگر حجم محتویات نامناسب نیز در این برحه افزایش یافت و در نتیجه این شرکت ملزم به استفاده هر چه بیشتر از تکنولوژی برای مدیریت هرچه بهتر محتویات این شبکه اجتماعی شد.
فیس بوک در حال حاضر از سیستم رتبه بندی مجهز به هوش مصنوعی استفاده می کند که می تواند محتویات شبکه را بر اساس درجه حساسیت و تهدید آمیز بودن آن ها رتبه بندی کند و سپس جهت متعادل سازی ، در اختیار نیروهای انسانی شرکت قرار دهد
این سیستم هوش مصنوعی میزان تهدید آمیز بودن محتوا را مورد ارزیابی قرار می دهد . به عنوان مثال: پستی ممکن است بحث سوءاستفاده از کودکان را مطرح کند و از آن حمایت کند.
این شرکت می تواند با استفاده از هوش مصنوعی محدودیت استفاده از نیروی کار در شرکت را جبران کند و محتویاتی که نیاز به بررسی دارد را تحت پوشش قرار دهد.
با پیشرفت این تکنولوژی، میزان شناسایی محتویات نامناسب در فیس بوک به ۹۵درصد افزایش یافت . طبق آمار در سه ماهه دوم سال، ۲۲.۵میلیون پست نامناسب از این شبکه اجتماعی حذف شد.این تعداد در اینستاگرام ۳.۳میلیون پست بود.
فیس بوک اعلام کرد از ماه آوریل ۷میلیون پست مرتبط با اخبار نادرست Covid-19 را از فیس بوک و اینستاگرام حذف کرده است.
فیس بوک در حال همکاری با گروهی از راستی آزمایان به منظور برچسب گذاری هشداردهنده محتویات نامناسب می باشد.
از ماه آپریل، ۹۸میلیون خبر جعلی مرتبط با کرونا توسط این شرکت برچسب گذاری شده اند.