استفاده گسترده از فناوری تشخیص چهره در رویدادهای ورزشی
به گزارش کارگروه فناوری اطلاعات خبرگزاری سایبربان، به گفته شرکت پرایوسی اینترنشنال (Privacy International (PI)) 25 استادیوم از 100 استادیوم برتر فوتبال در جهان، نظارت تصویری موجود خود را با چنین فناوری تقویت می کنند.
این سازمان، یافته های تحقیقات و توصیه های خود را به گزارشگر ویژه سازمان ملل در زمینه حقوق فرهنگی ارائه کرده است.
دفتر سازمان ملل در حال تهیه گزارشی است که در ماه اکتبر به مجمع عمومی این نهاد ارائه خواهد شد.
در گزارش پی آی آمده است که تعداد فزایندهای از استادیوم های ورزشی در حال آزمایش فناوریهای تشخیص چهره هستند و برخی نیز آزمایشهای هوش مصنوعی را در تلاش برای نظارت بر جمعیت و کمک به فعالیت پلیس آغاز کردهاند.
این گزارش خاطرنشان کرد که مقامات فرانسوی قصد دارند از هوش مصنوعی برای نظارت بر فضاهای عمومی در المپیک پاریس در تابستان امسال استفاده کنند.
شرکت پی آی و هفت سازمان دیگر قبلاً به دادگاه قانون اساسی فرانسه شکایت کردند و از آن خواستند استفاده از هوش مصنوعی در المپیک پاریس را ممنوع کند، اما دادگاه متوجه شد که استقرار این فناوری حقوق اساسی را نقض نمی کند.
این شرکت در نامه خود به الکساندرا زانتاکی، گزارشگر ویژه سازمان ملل، نوشت:
بهکارگیری چنین فناوری مداخلهای نهتنها سؤالات مهمی درباره حریم خصوصی و حفاظت از دادهها ایجاد میکند، بلکه سؤالات اخلاقی در مورد اینکه آیا دموکراسیهای مدرن باید اجازه استفاده از آن را بدهند یا خیر، مطرح می کند.
در ادامه این بیانیه آمده است:
این موضوع به ناچار منجر به عادی سازی نظارت در تمام سطوح اجتماعی خواهد شد و بر این اساس «اثری نامطلوب» بر اعمال حقوق اساسی، از جمله حقوق بشر برای شرکت و لذت بردن آزادانه از ورزش خواهد داشت.
شرکت پیآی با اشاره به افشاگری انجام شده در سال 2023 مبنی بر اینکه مالک آن، مدیسون اسکوئر گاردن از تشخیص چهره برای ممنوع کردن و حتی اخراج وکلای وابسته به شرکتهایی که از او شکایت کردهاند، استفاده کرده است، گفت:
چنین فناوری قبلاً بهطور نامناسب استفاده شده است.
این شرکت همچنین اشاره کرد که این فناوری همچنین در رویدادهای ورزشی برای تبعیض علیه زنان در جوامع سرکوبگر نیز استفاده شده است.
شرکت پی آی از سازمان ملل درخواست کرد که دولتها را تحت فشار قرار دهد تا از استفاده از فناوریها در رویدادهای ورزشی به غیر از مواردی که برای تحقیق در مورد جنایات جدی نیاز است، جلوگیری کنند.
به عقیده آنها، باید اطمینان حاصل شود که برخی از فناوریهای نظارتی هوش مصنوعی با ارائه «ارزیابیهای سیستماتیک» تأثیر آنها منجر به تبعیض نمیشوند.
جیک وینر، مشاور مرکز اطلاعات حریم خصوصی الکترونیکی، عنوان کرد:
تشخیص چهره زمانی که اشتباه میکند، خطرناک است، و زمانی که به خوبی کار میکند خطرناکتر است.
اماکن ورزشی مکان مخصوصاً نامناسبی برای تشخیص چهره هستند؛ زیرا ورزش بسیار با سخنرانی، اعتراض و هویت شخصی مرتبط است.
او افزود که این فناوریها میتوانند رفتارهای بیضرر را بیش از حد جرمانگیز کنند، منجر به دستگیریهای نادرست و سرکوب گفتار شوند.