قوانین 23 گانهی هوش مصنوعی
به گزارش واحد فناوری اطلاعات سایبربان؛ فناوریهای هوش مصنوعی و روباتیک روزبهروز در حال پیشرفت و گسترش یافتن هستند و زندگی انسانها به مرور زمان در حال وابسته شدن به آنها است.
در سال 2014، افرادd مانند ایلان ماسک، استیون هاوکینگ و صدها فعال دیگر در زمینهی دو فناوری مذکور نسبت به توسعهی بدون نظارت و بیمحابای هوش مصنوعی هشدار داده و آن را خطری برای نژاد انسان توصیف کردند. عدهای از این افراد حتی پا را فراتر گذاشته، با تأسیس موسسههای مختلف سعی در ایجاد راهحلهای مقابله با این فناوری دارند و به صورت پیوسته در طراحی آن به توسعهدهندگان را مطابق با خواستههای خود راهنمایی میکردند.
ایلان ماسک، مدیرعامل شرکت تسلا و اپن ای.آی (Open AI) معتقد است ماشینها به سرعت در حال گسترش یافتن هستند و هوش آنها روزی برابر با توان انسانها عمل خواهد کرد. وی همچنین گفته بود هوش مصنوعی به مراتب میتواند خطرناکتر از سلاح هستهای باشد. در سال 2014 نیز استیون هاوکینگ اعلام کرد که هوش مصنوعی توانایی منقرض کردن نژاد بشر را دارد.
در زمان برگزاری «اجلاس فواید هوش مصنوعی 2017» (Beneficial AI 2017) که از تاریخ 5 تا 8 ماه ژانویه سال 2017 برگزار شد، بیش از 100 محقق هوش مصنوعی از شرکتها، دانشگاهها، رهبران اقتصاد و بسیاری زمینههای دیگر حضور داشتند تا قوانین و اصول جدیدی را برای استفادهی بهتر از این فناوری ایجاد کنند.
در نتیجهی اجلاس ذکر شده یک توصیهنامه متشکل از 23 بند به نام «Asilomar AI principles» است که در ادامه میتوان آنها را مطالعه کرد:
مسائل پژوهشی:
1) هدف تحقیقات: هدف تحقیقات باید تولید یک هوش مصنوعی مفید باشد نه یک هوش بدون جهت و هدایت نشده.
2) بودجهی تحقیقات: سرمایهگذاری روی هوش مصنوعی باید همراه با حصول اطمینان از مفید بودن فناوری تولید شده باشد. این اصول شامل مطرح کردن سؤالاتی در علوم رایانه، قوانین، اقتصاد، اصول اخلافی و مطالعات اجتماعی میشود. به عنوان مثالی از این سؤالها میتوان به موارد زیر اشاره کرد:
• چگونه میتوان سامانههای قدرتمند هوش مصنوعی تولید کرد و مطمئن شد که بدون خراب یا هک شدن، دقیقاً مطابق میل انسانها عمل میکنند؟
• چگونه میتوان به صورتی که منافع مردم حفظ شود، به رشد و گسترش رفاه آنها از طریق خودکارسازی پرداخته و ادامه داد؟
• چگونه میتوان سیستم قضایی را برای همگام شدن با هوش مصنوعی و خطرات آن بروزرسانی کرد بهگونهای که عملکردی کارآمدتر و عادلانهتر از خود نشان بدهد؟
• چه ارزشهای در زمینهی حقوقی و اخلاقی برای هوش مصنوعی باید در نظر گرفته شود؟
3) پیوند علم و سیاست: باید بین محققان هوش مصنوعی و سیاستگذاران یک رابطهی سالم و مفید ایجاد شود.
4) فرهنگ تحقیقات: باید بین محققان و توسعهدهندگان هوش مصنوعی، یک فرهنگ همکاری، اعتماد و شفافیت ایجاد شود.
5) اجتناب از عجله: گروههای توسعهدهنده سامانههای هوش مصنوعی باید در مسائل مرتبط با استانداردهای ایمنی، از سهلانگاری و در پیش گرفتن رویکرد کاهش هزینه خودداری کنند
ارزش و اخلاق:
6) ایمنی: سامانههای هوش مصنوعی در طول چرخهی حیات خود به صورتی که قابلاجرا و عملی باشند، باید امن و ایمن باقی بمانند.
7) شکست شفافیت: اگر یک سامانهی هوش مصنوعی باعث ایجاد آسیب شود، باید بتوان دلیل آن را شناسایی کرد.
8) شفافیت قضایی: در سامانههای قضایی خودکار، سامانه باید بتواند توضیح قانع کنندهای از تصمیم خود ارائه بدهد که توسط یک مرجع صالح قابلتأیید باشد.
9( مسئولیت: طراحان و سازندگان سامانههای هوش مصنوعی پیشرفته در مفاهیم اخلاقی مرتبط با استفاده، سوءاستفاده و اقدامات این سامانهها سهیم هستند و علاوه بر امکان شکلدهی این مفاهیم، مسئولیت آن را نیز بر عهده دارند.
10) تنظیم ارزشها: سامانههای خودمختار سطح بالا باید به گونهای طراحی شوند که بتوانند از همراستا بودن ارزشها، اهداف و عملکردهای خود با انسانها اطمینان حاصل کنند.
11) ارزشهای انسانی: سامانههای هوش مصنوعی باید به گونه طراحی شده و عمل کنند که با آرمانها، آزادی، تنوع فرهنگی و مسائل حقوقی انسانها سازگار باشند.
12) حریم خصوصی: مردم باید توان دسترسی، مدیریت و کنترل دادههایی که توسط آنها تولید شده و به هوش مصنوعی داده میشود تا قدرت تجزیهوتحلیل داده با استفاده از آن بهبود یابد را داشته باشند.
13) آزادی و حریم خصوصی: به کارگیری برنامههای هوش مصنوعی در دادههای شخصی نباید آزادی حقیقی یا ذهنی افراد را محدود سازد
14) مزایای اشتراکگذاری: فناوری هوش مصنوعی باید تا جایی که ممکن است مردم را توانمندتر کرده و به نفع آنها کار کند.
15) اشتراکگذاری موفقیت: رونق اقتصادی ایجاد شده توسط هوش مصنعی باید با تمام انسانها به اشتراک گذاشته شود.
16) کنترل انسان: انسانها باید برای تحقق اهداف انسانی نحوه تصمیمگیریهای هوش مصنوعی را انتخاب کنند.
17) عدم خرابکاری: قدرت بالای هوش مصنوعی باید به جای تخریب فرآیندهای اجتماعی و مدنی به تقویت و بهبود سلامت اجتماعی بپردازد.
18) مسابقه تسلیحاتی هوش مصنوعی: باید از ایجاد مسابقهی تسلیحاتی برای توسعه سلاحهای خودمختار خودداری شود.
مسائل بلندمدت:
19) هوشیاری تواناییها: با توجه به این هیچ اجماع نظری وجود ندارد؛ باید از بیان فرضیات قاطع درباره حدود فوقانی قابلیتهای آینده هوش مصنوعی اجتناب شود
20) اهمیت: هوش مصنوعی میتواند نشاندهندهی تغییر عمیق در تاریخ حیات روی زمین باشد؛ بنابراین باید متناسب با منافع و مراقبتها برای آن برنامهریزیشده و مدیریت گردد.
21) خطرات: تهدیدهای مربوط به هوش مصنوعی، بهخصوص خطرات فاجعهبار آنها، باید به تلاش برای کاهش تلاش متناسب با تأثیرات مورد انتظار منجر شود.
22) خود بهبودی بازگشتی: آن دسته از سامانههای هوش مصنوعی که بهگونهای طراحی شدهاند که بهبود یا تکرار خودکار آنها به صورت بازگشتی، به افزایش سریع کیفیت یا کمیت منتهی شود، باید تابع تدابیر کنترل و ایمنی جدی باشند
23) تأثیرات مفید عمومی: هوش مصنوعی تنها باید برای خدمت به آرمانهای اخلاقی مشترک تمام بشریت توسعه یابد، نه یک دولت یا سازمان خاص