بررسی اخلاقیات هوش مصنوعی در دره سیلیکون
به گزارش کارگروه بینالملل سایبربان؛ هیئت نوآوری دفاعی آمریکا (Defense Innovation Board) در سالن دانشگاه استنفورد، جلسهای را پیرامون درگیری فکری پنتاگون دربارهی اخلاقیات هوش مصنوعی با فعالان دره سیلیکون برگزار کرد. این هیئت، در نشستی 2 ساعته، پیشنهاد مدرنسازی فناوری را به وزیر دفاع داد و نظرات خودش را درباره کاربرد مغز روبات در جنگ مدرن اعلام کرد.
چارلز آلن (Charles A. Allen)، معاون کل امور بینالملل در وزارت دفاع در این نشست گفت:
همچنان که پنتاگون به استفاده از هوش مصنوعی در برنامههای کاربردی نظامی و گاهی بخش فناوری تهاجمی ادامه میدهد، بحث قانون بشردوستانه بینالمللی مطرح میشود.
آلن با اشاره به قوانین وضع شده از سوی اَش کارتر (Ash Carter)، معاون وقت وزارت دفاع در سال 2012 درمورد نحوه عملکرد سازمان در کسب سلاحهای مستقل اعلام کرد:
ایالات متحده، سابقه طولانی در زمینه قوانین جنگی دارد. قوانین وضع شده، باید با قوانین جنگی تطبیق داشته باشند، حتی زمانی که قوانین خاصی، برای توصیف نوع سلاح مورد استفاده ذکر نشده است.
وی 3 راه را برای استفاده اخلاقی از هوش مصنوعی ازسوی وزارت دفاع عنوان کرد. اولین مورد، کاربرد قانون بشردوستانه بینالمللی برای هر عملی، مانند بهره برداری از قوانین، به منظور اجرای حملات به کمک هوش مصنوعی است که بهوسیله آن حمایت شود. مورد دوم، تأکید روی اصول قوانین جنگی مانند: الزام، تمایز و تناسب نظامی است.
معاون کل امور بینالملل در وزارت دفاع اظهار داشت:
اگر استفاده از فناوری باعث پیشرفت ارزشها شود، کاربرد آن اخلاقیتر خواهد شد.
این بحثی است که ایالات متحده در ژنو در گروه کارشناسان دولتی فعال روی کنوانسیون سلاحهای قراردادی مطرح کرد. مذاکرات برای تدوین استانداردهای جدید بینالمللی در همه کشورها در مورد چگونگی استفاده از سیستمهای مستقل در جنگ درحال اجرا است؛ اما هنوز به توافق نرسیدهاند.
سومین راه، استفاده از فناوری برای بهبود حفاظت غیرنظامی است. آلن پس از مقایسه پتانسیل بقای هوش مصنوعی در میدان نبرد و استفاده از آن در ماشینهای بدون راننده اعلام کرد که استفاده از این فناوری در جنگ باعث نجات جانها میشود. سپس، درمورد هدفگیری دقیقتر با آسیب کمتر روی غیرنظامیان از سوی سیستمهای سلاحی با شناسایی خودکار هدف سخن گفت.
معاون کل امور بینالملل وزارت دفاع ضمن اشاره ویژه به پروژه میون (Maven)، خاطرنشان کرد:
به کمک هوش مصنوعی برای شناسایی اشیا بهصورت خودکار، تحلیلگران میتوانند با دادههای بیشتری جستجو را انجام داده، روی موارد سطح بالا تمرکز کنند.
پروژه میون –که بهوسیله گوگل به صورت نرمافزار منبع باز توسعه یافت– به عنوان راهی برای پردازش فیلمهای هواپیمای بدون سرنشین نظامی طراحی شده بود. پس از واکنش شدید کارمندان گوگل، این شرکت، از تمدید قرارداد در ماه مارس امسال خودداری کرد و اکنون این پروژه، بهوسیله صنایع «Anduril» اداره میشود.
آلن از پروژه میون به عنوان نمونه هوش مصنوعی در همگرایی منافع نظامی و بشردوستانه، راهی برای افزایش دقت در کاربرد نیروها و استفاده از دیگر موارد در موقعیتهای پرخطر نام برد. همچنین وی ادعا کرد علاوه بر استفاده صریح نظامی، این پروژه به عنوان مرکز مشترک هوش مصنوعی در تطبیق میون به یک ابتکار بشردوستانه و کمک به پاسخ دهندگان در شناسایی اهداف در آتشسوزی و طوفان محسوب میشود.
مارتا کاسمینا (Marta Kosmyna)، سازماندهنده بخش کمپین دره سیلیکون برای توقف روباتهای کشنده گفت:
قوانین بینالملل، به مسئولیت فردی نیاز دارند؛ اما با نوع جدید سلاحها، وظایف افراد اعم از برنامهریز، دستگاه، یا فرمانده مشخص نیست. ما اغلب میشنویم که سلاح های مستقل، دقیقتر و سلاحهای کمتری از رده خارج خواهند شد. ما معتقدیم که این موارد با سیستمهای نیمه مستقل بهدست میآیند.
بوُ راجرز (Bow Rodgers)، مدیرعامل شرکت شتاب دهنده فناوری وِت (Vet-Tech) درمورد عدم وجود شلیک دوستانه و سختی تمایز میان اهداف جنگی توضیح داد و گفت که آرزو دارد هوش مصنوعی در مأموریتهای دشوار نظامی بهکار رود.
سرعت هوش مصنوعی، یکی از دلایل اصلی ارتش برای خرید سلاحهای مستقل است. همچنین خرید این سلاحها از سوی دیگر کشورها نگرانی ارتش محسوب میشود؛ زیرا از محدودیتهای اخلاقی مشابه آمریکا بهره نمیبرد. کارشناس مذکور ادعا کرد با وجود تمایل اندک آمریکا به استفاده از سلاحهای فوق، مردم این کشور هنوز میخواهند ایالات متحده همانند دیگر کشورها، سلاحهای هوش مصنوعی را توسعه دهد.
لوسی ساچمن (Lucy Suchman)، استاد علوم و فناوری انسانشناسی در دانشگاه «Lancaster» معتقد است:
ما در دوره جنگ نامنظم هستیم. در این دوره، سؤالاتی از این قبیل مطرح میشوند: چه کسی شروع کننده جنگ بود؟ چه کسی باعث ایجاد تهدید جدی شد؟ تمایز میان سلاح دارنده هوش مصنوعی و دقت بیشتر آن در شلیک گلوله به یک انسان و شناسایی دقیق وی به کمک هوش مصنوعی برای شلیک، یک هدف اصلی است.
با وجود دههها تجربه در مورد دقت سلاحهای نظامی، هنوز هم این سؤال مطرح میشود که باید به چه فردی شلیک شود. این مشکل در شناسایی به کمک هوش مصنوعی در بخش غیرنظامی وجود ندارد.
آماندا آسکِل (Amanda Askell)، از متخصصان شرکت اپن ایآی (Open AI) اعلام کرد:
مشکل اصلی اخلاق در هوش مصنوعی، اطمینان از حفظ اصول در موارد خاص، با سیستمهای خاص و در محیطهای خاص است. به عنوان مثال، یک سامانه ناوبری ویژه، برای حمل وسایل به خارج، راهاندازی شده است. قطعاً استفاده از این دستگاه خطرناک است و اگر بررسی نادرستی داشته باشید، یک جنگ غیرعمد با یک سیستم ناشناخته ایجاد کردهاید.
آسکِل پرسید:
به جای تکیه بر بررسیهای ناقص، سیاستمداران باید با همکاری مردم، به منظور درک درست سیستمها و نحوه شکست آنها، فناوری ایجاد کنند.
میرا لِین (Mira Lane)، رئیس اخلاق و جامعه در مایکروسافت پس از مشخص کردن محدودیتهای برنامهنویسان در پیشبینی کدهای ایجادشده و راههای ضروری در زمان جنگ برای طراحی سیستمهای سلاحی مستقل اظهار داشت:
این فقط معرفی فناوری جدید است.
وی بر اهمیت توسعه حلقههای تکرار تنگاتنگ و سیستمهای بازخورد در هوش مصنوعی برای مشخص شدن هرچه سریعتر نواقص و سازگاری بیشتر تأکید کرد.
لِین گفت:
با هر پیشرفت جدید فناوری، ظهور حوزههای جدید جهل ناگزیر و قابل پیشبینی است.