هوش مصنوعی نیاز به قوانین توسعه و نظارتی جدید دارد
به گزارش کارگروه فناوری اطلاعات سایبربان؛ ایلان ماسک به تازگی هشدار داد که بهتر است قبل از اینکه دیر شود، قوانینی در حوزهی هوش مصنوعی تصویب گردد. ماسک به دفعات هشدار داد که این فناوری میتواند بقای بشریت را تهدید کرده و آنها را منقرض بکند.
علاوه بر ایلان ماسک، تعداد بسیار زیادی از محققان نیز معتقدند هوش مصنوعی روی توسعهی سلاحها، مشاغل و حریم خصوصی تأثیر خواهد گذاشت و نگرانیهایی را به وجود میآورد. بنابراین مطرح شدن سؤالی مانند «آیا باید هوش مصنوعی را توسعه بدهیم؟» طبیعی است.
اورن اتزیونی (Oren Etzion)، مدیر اجرایی موسسه هوش مصنوعی آلن (Allen Institute for Artificial Intelligence) آمریکا به سؤال بالا پاسخ مثبت داد؛ اما با بیان سؤالی دیگر پرسید آیا ما نباید برای حفظ احتیاط، سرعت توسعهی آن را کاهش بدهیم؟ اتزیون گفت:
مشکل این است که اگر ما به این سؤال نیز جواب مثبت بدهیم کشورهایی مانند چین از ما پیشی خواهند گرفت.
وی هوش مصنوعی را به اسبی که طویله را ترک کرده و متخصصان برای هدایت آن تلاش میکنند، تشبیه کرده و افزود، نباید از این دستاورد برای ساخت اسلحه استفاده کرده و همهی آنها باید یک «سوییچ خاموش کردن» (off switch) داشته باشند. همچنین به جای تعریف و کنترل توسعهی بینظم و سریع هوش مصنوعی، باید برای تأثیرات قابللمس سامانههای هوش مصنوعی –مانند ایمنی خودروهای بی راننده- قوانینی تنظیم بشود.
اتزیون توضیح داد:
من با الهام از قوانینی که ایزاک آسیموف در سال 1942 معرفی کرد، قوانین سهگانهی جدیدی را پیشنهاد میدهم.
قوانین آسیموف به شرح زیر است:
• 1-يک روبات نبايد با ارتکاب عملي يا خودداري از انجام عملي باعث آسيب ديدن يک انسان شود.
• 2- يک روبات بايد از تمامي فرمانهای انسان تبعيت کند، مگر اينکه آن فرمان يا فرمانها در تعارض با قانون نخست باشد.
• 3-تا هنگامي که قانون نخست يا دوم زير پا گذاشته نشده، روبات بايد وجود خود را حفظ کرده و در بقاي خود بکوشد.
اتزیون اشاره کرد سه قانون مطرح شده ظریف؛ اما مبهم هستند و پیشنهاد داد، مرکزی برای جلوگیری از آسیبرسانیهای هوش مصنوعی بر پایهی سه قانون وی ایجاد بشود.
وی سه قانون خود را به شرح زیر مطرح کرد:
1- سامانهی هوش مصنوعی باید طیف وسیعی از قوانینی که توسط اپراتورهای انسانی اعمال میشوند را به کار بگیرند. این قوانین شامل بخش خصوصی، شرکتهای بزرگ و دولتی میشود. ما نمیخواهیم هوش مصنوعی درگیر مسائلی مانند قلدری سایبری، دستکاری سهام یا تهدیدات تروریستی بشود.
ما نمیخواهیم افبیآی برای به دام انداختن مردم در ارتکاب جرائم یک سامانهی هوش مصنوعی منتشر بکند. ما یک خودروی بی راننده که چراغ قرمز را رد میکند یا حتی بدتر، سلاحی خودمختار که تمامی معاهدات بینالمللی را نقض میکند نمیخواهیم.
قوانین رایج ما باید به گونهای اصلاح شوند که نتوانیم ادعا کنیم سامانههای هوش مصنوعی کاری را انجام میدهند که از توانایی ما خارج است. این دستاورد نباید بهانهای برای رفتارهای غیرقانونی داشته باشد.
2- قانون دوم مطرح میکند که سامانههای هوش مصنوعی باید به وضوح بیان کنند که انسان نیستند. با توجه به باتها –نرمافزارهای رایانهای که میتوانند با افراد واقعی ارتباط برقرار کنند- جامعه باید از برچسبگذاری سامانههای یاد شده اطمینان حاضر کند. شخصی
به نام جیل واتسون (Jill Watson)، در سال 2016، به عنوان یک کمک مربی برای یک دورهی آنلاین در گرجستان استفاده شد و دانش آموزان، فریب خورده و فکر کردند که یک انسان است. به عنوان مثالی دیگر میتوان به باتهایی اشاره کرد که قبل از انتخابات آمریکا، فعالیتهای سیاسی کردهاند.
این قانون اطمینان حاصل میکند مردم بتوانند باتهایی را که جعل هویت کردهاند، بشناسند. برای نمونه میتوان از بات «@DeepDrumpf» یاد کرد که به شکل طنزآمیزی از دونالد ترامپ در توییتر تقلید میکرد. هوشهای مصنوعی نه تنها توییتهای جعلی تولید میکنند؛ بلکه قابلیت ساخت ویدئوهای دروغین خبری را دارند.
محققان دانشگاه واشنگتن به تازگی یک ویدئوی جعلی از سخنرانی باراک اوباما منتشر کردهاند که به شکل باورپذیری وی را در حال صحبت در زمینهای کاملاً متفاوت از عقایدش نشان میدهد.
3- هوش مصنوعی نمیتواند بدون داشتن تأیید رسمی از منبع اطلاعات، دادههای آن را حفظ یا افشا بکند. این سامانهها توانایی بالایی برای ثبت و تجزیه و تحلیل دادهها به صورت خودکار دارند و یکی از اهداف اصلی آنها کسب اطلاعات محرمانه است. بلندگوی هوشمند آمازون ایکو و عروسکهای باربی را تصور کنید که از تمام مکالمات شما و کودکان با خبر بوده و آنها را ذخیره میکنند.
حتی روباتهایی که به نظر بیخطر میرسند نیز قابلیت نقشهبرداری از محل سکونت کاربران خود را دارند؛ بنابراین باید از تحت کنترل بودن این اطلاعات اطمینان حاصل کرد.
اّرن اتزیون معتقد است قوانین وی مناسب، اما ناکامل هستند. وی گفت:
من این قوانین را به عنوان یک نقطهی شروع بیان کردم. فرقی نمیکند که با نظر ایلان ماسک نسبت به تهدیدات هوش مصنوعی موافق هستید یا مخالف. به وضوح مشخص است که هوشهای مصنوعی به زودی فراخواهند رسید و جامعه باید برای این لحظه آماده باشد.