آیا باید به نظارت دولت جهانی و فرابشری تن داد؟
به گزارش کارگروه امنیت سایبربان؛ شاید نام نیک باستروم برایتان آشنا باشد. وی فیلسوفی معاصر است که بیشازهمه به دلیل پیشبینیهای ترسناکش دربارهی آیندهی بشر شهرتی جهانی یافته و هماکنون، برخی دیدگاههایش توانسته حمایت بزرگانی از دنیای فناوری، نظیر ایلان ماسک را نیز جلب کند. چندی پیش مطلبی منتشر شد که به دفاعیات یکی از دانشمندان امآیتی از «فرضیهی شبیهسازی» پرداخته بود؛ فرضیهای که ریشهی آن به یکی دیگر از ایدههای باستروم در ۱۵ سال پیش بازمیگردد که با اظهارات اخیر ماسک، بار دیگر در محافل علمی جهان بر سر زبانها افتاد.
گویا سناریوهای تاریک باستروم برای جهان تمامی ندارد. اینبار نویسندهی کتاب «برهان شبیهسازی» میگوید تکنولوژی مخرب میتواند بشر را نابود کند و تنها راه جلوگیری از آن، استقرار دولت جهانی مبتنیبر هوش مصنوعی است. جملاتی که شاید بسیاری را به یاد دنیای تاریکی میاندازد که ۷۰ سال پیش، جورج اورل در رمان معروف ۱۹۸۴ از آن سخن میگفت.
باستروم، فیلسوف شهیر دانشگاه آکسفورد، ۱۵ سال پس از ارائهی دیدگاههای جنجالبرانگیزش دربارهی ماهیت واقعی بشر، نظریهی دور از ذهن دیگری در چنته دارد و اینبار هم گویا جایی برای خوشبینی به آیندهی بشر نمیبیند.
چهارشنبهی گذشته، نیک باستروم در کنفرانس TED 2019 در ونکوور کانادا، روی سکو رفت تا برخی از نکات مربوط به آخرین مقالهی خود را به نام «فرضیهی جهان آسیبپذیر» با جهانیان به اشتراک بگذارد.
در این مقاله، باستروم استدلال میکند بشر برای جلوگیری از نابودی خود بهوسیلهی فناوری، نیازمند نظارت دولتی فراگیر است. این شاید یکی از ایدههای ارتجاعی و تاریکی است که تاکنون، از زبان یکی از فیلسوفان معاصر بزرگ بیان شده است.
باستروم استدلال خود را با مثالی از گلدانی بزرگ پُر از توپ توضیح میدهد که پیش روی بشر قرار دارد. هرکدام از این توپها بارنگهای مختص به خود، نمایانگر ایدهای متفاوت یا فناوری جدیدی هستند: سفید (به معنای مفید) و خاکستری (به معنای نسبتاً مضر، اما نه ویرانگر) و سیاه (به معنای ویرانگر و نابودکنندهی تمدن بشر).
باتوجه به مدل تعریفشدهی باستروم، بشر بهطور مداوم توپی از درون این گلدان بیرون میکشد که دیگر به گلدان بازگرداندنی نیست و از بخت ما، هنوز کسی توپ سیاهی بیرون نکشیده است. در اینجا، وی تأکید ویژهای بر کلمهی «هنوز» دارد. باستروم در نوشتههایش میگوید:
اگر تحقیقات علمی و تکنولوژیکی همینطور ادامه یابد، درنهایت، به آن (توپ سیاه) خواهیم رسید و آن را بیرون خواهیم کشید.
بنا بر گفتهی باستروم، تنها دلیلی که هنوز توپ سیاهی بیرون نکشیدهایم، بخت بلند ما بوده است. از دیدگاه وی، حتی پدیدهای مانند «گرمایش جهانی» نیز میتوانست بسیار بدتر از آن چیزی باشد که امروز، شاهدش هستیم.
باستروم بر این باور است که توپ سیاهی که بنیان تمدن ما را نشانه خواهد رفت، نهایتاً محصولی از فناوری خودِ ما خواهد بود؛ ازاینرو، باید با اعمال نظارت روی خودمان، از ظهور چنین فناوری مخربی جلوگیری کنیم. او میافزاید برای جلوگیری از وقوع چنین اتفاقی، به دولت جهانی کاراتری نیاز داریم؛ دولتی که بتواند بهسرعت هرگونه فناوری بالقوهی ویرانگری را غیرقانونی اعلام کند.
توصیفات بوستروم از نحوهی نظارت دولت جهانی هوش مصنوعی شباهت بسیاری به روزگار تاریک تصویر شده در رمان ۱۹۸۴ دارد.
در ادامه، او میگوید به نظارت چنین دولت بزرگی باید تن دهیم و هر فرد باید نوعی تجهیز به شکل گردنبند را با عنوان «برچسب آزادی» به همراه داشته باشد تا این سیستم بتواند آنچه فرد میبیند و میشنود، با دوربینها و میکروفنهای نصبشده مخابره کند.
این برچسبها به «ایستگاههای نظارت میهنپرستان» یا «مراکز آزادی» متصل میشوند تا در آنجا، هوشهای مصنوعی تمامی دادهها را کنترل کنند و چنانچه کوچکترین نشانهای از توپ سیاه تشخیص داده شود، افرادی با عنوان «افسران آزادی» برای رسیدگی به آن گماشته خواهند شد.
نیک باستروم درحالتوضیح ایدهی مربوط به گلدان بزرگ در خلال کنفرانس TED 2019
پیشتر نیز مواردی از سوءاستفادهی افراد را از سامانههای نظارت جمعی شاهد بودهایم؛ اما آن سیستمها بسیار ناقصتر از آن چیزی به نظر میرسند که در نظریهی باستروم پیشنهاد شده است. چنین اظهاراتی بهویژه در کنفرانسی مانند TED بسیار بحثبرانگیز جلوه میکند که امسال روی استراتژیهای تضمین حریم خصوصی در عصر دیجیتال تمرکز داشته است. البته، خود وی نیز بر این موضوع صحه گذاشته که ممکن است چنین سناریویی اصلاً روی ندهد.
بااینحال، از دیدگاه باستروم، چنانچه قرار باشد میان تندادن به کنترل تمامی رفتارهای خود و نابودی کل تمدن یکی را انتخاب کنیم، شاید بهتر است گزینهی اول را انتخاب کنیم. او در خلال کنفرانس TED رو به حضار گفت:
واضح است جنبههای منفی بیشمار و خطرهای فراوانی در تندادن به سیستم نظارت جمعی یا دولت جهانی وجود دارد. من فقط قصد دارم به این اشاره کنم که چنانچه بخت با ما یار باشد، این تنها راه پیش روی دنیا است که بتواند از (عواقب) انتخاب توپ سیاه جان سالم به در ببرد.