ترمز دستی هوش مصنوعی
به گزارش واحد فناوری اطلاعات سایبربان؛ فناوری هوش مصنوعی با سرعت بسیار بالایی در حال پیشرفت است. از همین رو بسیاری از دانشمندان و محققان سرشناس دنیا معتقد هستند در صورتی که توسعهی آن بدون نظارت و با همین روند ادامه پیدا کند، از انسانها سرکشی کرده و به خطری برای آنها تبدیل میشود. به عنوان مثال میتوان به افرادی مانند بیل گیتس اشاره کرد که سالانه، هزینهی بسیاری را صرف برنامههای مقابله با خطرات هوش مصنوعی میکنند.
موضوع سرکشی هوش مصنوعی را میتوان در فیلمها و داستانهای عملی-تخیلی بسیاری مانند ترمیناتور و سامانهی اسکاینت آن مشاهده کرد. در این داستانها هوش مصنوعی بسیار پیشرفت کرده و با حمله به انسانها سعی میکند آنها را تحت فرمان خود بگیرد.
عدهای از محققان، با توجه به موارد ذکر شده در بالا معتقدند، باید سامانهای برای متوقف کردن برنامههای هوش مصنوعی پیدا کنند و مطمئن شوند، آنها در مسیری که خطری برای انسان ایجاد کرده یا سامانهی مذکور را دور بزنند، قرار ندارند. «آزمایشگاه هوش مصنوعی دیپمایند گوگل» (AI lab DeepMind) و دانشگاه آکسفورد انگلیس در سال 2014، مطالعاتی را انجام دادند که نشان میدهد به دنبال ایجاد یک چارچوب (framework) برای کنترل هوش مصنوعی توسط انسان هستند. به بیان دیگر آنها سعی دارند بستری را برای بررسی مداوم نرمافزارها ایجاد کرده و در صورت لزوم بتوانند آنها را کنترل و حتی متوقف کنند.
در گزارشی که توسط موسسه تحقیقات هوش ماشینی آمریکا1 (MIRI) با نام «متوقف کردن بدون خطر عاملها» (Safely Interruptible Agents)، منتشر گشت، اصطلاح «دکمهی بزرگ قرمز» معرفی شد. در این گزارش آمده است: «اگر عاملهای هوش مصنوعی تحت نظارت زمان واقعی انسانها قرار بگیرند. اپراتور انسانی ممکن است برای متوقف کردن عاملی که در حال انجام اقدامات مضر است، دکمهی بزرگ قرمز را فشار دهد. این کار عاملی را که به خود یا به محیط اطراف ضرر میرساند را متوقف و آن را به یک وضعیت ایمنتر منتقل میکند.»
در ادامه نوشته شده است: «با وجود این، اگر عاملها یاد بگیرند از این توالی انتظار پاداش داشته باشند. ممکن است در درازمدت چگونگی جلوگیری از این وقفه را نیز متوجه شوند. به عنوان مثال عاملها خواهند توانست دکمهی بزرگ قرمز را از کار اندازند که نتیجهی نامطلوبی را در پی خواهد داشت.»
عبارت نتیجهی نامطلوب (undesirable outcome)، در اینجا برای تعریف موقعیتی به کار میرود که هوش مصنوعی به آرامی، مکانیزم خاموش کردن خود را از کار میاندازد.
هر چه بیشتر شرکتهای حوزهی فناوری اطلاعات درگیر هوش مصنوعی میشوند، با سرعت بیشتری پیشرفت میکند. بهعنوان مثال میتوان به هوش مصنوعی آزمایشگاه دیپمایند اشاره کرد که توانست قهرمان بازی گو (یکی از قدیمیترین و سختترین بازیهای تختهای) را شکست بدهد. از طرفی شرکتهای بزرگ مانند فیسبوک، آمازون، مایکروسافت و گوگل هستند که برای تقویت سامانههای پردازش ابری خود در حال توسعه هوشهای مصنوعی هستند.
در حال حاضر سازمانهای خصوصی بسیاری با هدف زیر نظر گرفتن هوش مصنوعی برای توسعه در جهت مثبت شکل گرفتهاند. به عنوان نمونه میتوان به موسسه تحقیقات هوش ماشینی آمریکا، «موسسهی آیندهی نوع بشر انگلیس»2 ( FHI)، شرکت تسلا (Tesla) و اسپیس ایکس (Space X) اشاره کرد که در مورد آیندهی هوش مصنوعی هشدار دادهاند. ایلان ماسک (Elon Musk) مدیرعامل اسپیس ایکس و تسلا، سال گذشته یک شرکت خصوصی را با نام هوش مصنوعی متنباز (Open AI) تأسیس کرد تا نرمافزارهای مخرب و بدخواه را شناسایی کرده و از توسعه فناوری به نفع بشریت اطمینان حاصل کند. همچنین وی به تازگی با اشاره به شرکت گوگل بیان کرد، این شرکت وی را بیش از دیگر فعالان این عرصه، در زمینه هوش مصنوعی خود یادگیرنده نگران میکند.
_____________________________
1- Machine Intelligence Research Institute
2- Future of Humanity Institute