عملکرد سازمان سیا در حوزه هوش مصنوعی
به گزارش کارگروه فناوری اطلاعات سایبربان؛ همانطور که آژانس اطلاعات مرکزی (Central Intelligence Agency)، هوش مصنوعی و یادگیری ماشینی را برای بهینهسازی مأموریت خود کنترل میکند، کارمندان داخلی بهصورت تهاجمی با مسائل تعصبی و اخلاقی در این فناوری نوظهور دست و پنجه نرم میکنند.
بنجامین هابنر (Benjamin Huebner)، افسر آزادیهای مدنی و حفظ حریم خصوصی سازمان سیا در نشستی به میزبانی مؤسسه بروکینگز در واشنگتن گفت:
ما در مرکز یاد شده روی بیش از 100 طرح ابتکاری هوش مصنوعی کار میکنیم و این امر ادامه خواهد یافت. ما تمام مدت درمورد این مسئله بسیار پیچیده فکر میکنیم.
هابنر اعلام کرد یکی از بخشهای مورد علاقه شغلی وی همکاری با دانشمندان داده آژانس اطلاعاتی است. تیم حفظ حریم خصوصی او، بهطور مستقیم با همکاران فنآوری روی پروژههای آماری، برنامهنویسی و نمایشهای گرافیکی کار میکند.
وی افزود:
بخشی از کار، استفاده از تجزیه و تحلیلهای جدید بهویژه برای مجموعه دادههای بزرگ به منظور رسیدن به اطلاعاتی است که ما قبلاً قادر به انجام آن نبودیم. همچنین استفاده از پیشرفت در یادگیری ماشینی برای درک مواردی است که به عنوان انسان ظرفیت مشاهده آن را نداشتیم.
افسر آزادیهای مدنی و حفظ حریم خصوصی سازمان سیا، با یکسان فرض کردن چشمانداز و فنآوری جدید امروز با دهههای 1970 و 1980 – زمانی که کارگران شروع به استفاده از رایانه برای کار سازمانی کردند و روزهای ابتدایی که سازمان بازرسی فدرال شروع به استفاده از خودروها کرد – اظهار داشت:
من واقعاً دوست ندارم که مردم هوش مصنوعی را با عملکردی بسیار متفاوت در نظر بگیرند. این یکی از ابزارهایی است که احتمالاً در مکانهای مختلف استفاده خواهد شد. اما توضیح و تعصب در این فناوری نوظهور بدون عواقب نخواهند بود.
هابنر توضیح داد:
یکی از موضوعات جالب در مورد یادگیری ماشینی – که جنبه تقسیم اطلاعاتی ما محسوب میشود – این است که کارشناسان در موارد زیادی با تجزیه و تحلیلهایی با دقیقترین نتایج، حداقل توضیح در مورد نحوه رسیدن الگوریتم به پاسخ را ارائه میدهند. الگوریتمی که دادهها را نشان میدهد، یک جعبه سیاه است و به عنوان مأمور سازمان سیا این یک مشکل به حساب میآید.
سازمان نه تنها باید دقیق باشد، بلکه باید بتواند چگونگی رسیدن به نتیجه نهایی را نشان دهد. بنابراین اگر تحلیلی قابل توضیح نباشد، برای تصمیمگیری آماده نخواهد بود.
این مقام آمریکایی همچنین گفت:
تیم من با دانشمندان داده سازمان سیا برای کاهش تعصب در هوش مصنوعی قابل اجرا در سازمان بهطور مستقیم همکاری میکند. وقتی در مورد مسئلهای مانند تعصب، دادههای آموزشی یا نحوه آموزش تحلیل یادگیری ماشینی میاندیشید، بدان معنی است که احتمالا تعصب را وارد آنها میکنید. بنابراین میخواهید در رابطه با آن بدانید.
گاهی اوقات دادهها برای آموزش یک الگوریتم مفید هستند؛ اما شاید شامل اطلاعات خصوصی بدون ارتباط با اطلاعات خارجی نیز باشند. وظیفه هابنر و تیمش، درک نحوه تعادل استفاده از اطلاعات مناسب برای آموزش ماشینها و تأیید ابزارهای محدود حفظ حریم خصوصی است.
هابنر خاطرنشان کرد:
در حال حاضر، من به دنبال توسعه چارچوب عملی برای کارمندان داخلی به منظور استفاده از پروژههای جدیدی هستم که آنها را مجبور به تفکر در مورد حریم خصوصی، توضیح و تعصب پیش از ارائه تجزیه و تحلیل جدید برای مأموریتها میکنند.
وی ادامه دا:
خیلی خوب است که مردم از فناوری در فضای تجاری استفاده میکنند؛ اما ما شما را مجبور به انجام کاری نمیکنیم. ما نیاز به دقت بیشتری داریم و باید بدانیم که چطور به اینجا رسیدهاید.