نگرانی نسبت به تأثیرات هوش مصنوعی
به گزارش کارگروه فناوری اطلاعات سایبربان؛ آیندهی هوش مصنوعی یکی از اصلیترین موضوعات موردبحث در سومین نشست سالانهی امنیت سایبری سایبرسک (Cybersec Cybersecurity) بود که در شهر کراکوف لهستان برگزار شد و متخصصانی از لهستان، هلند، آلمان، انگلیس و چندین کشور دیگر در آن حضور داشتند. این افراد در نشست یاد شده، در حوزهی اشتباهات، ظرفیتهای هوش مصنوعی و نقش آن در شرکتها به گفتگو پرداختند.
اکسل پتری (Axel Petri)، معاون ارشد مدیر شرکت دویچه تلکام (Deutsche Telekom) گفت:
آیا خیلی زود است که نسبت به هوش مصنوعی نگران شویم؟ قطعاً خیر. هماکنون زمان آن رسیده است که ما در طول 10 تا 20 سال آینده به این سؤال پاسخ بدهیم.
امنیت سایبری که با هوش مصنوعی و یادگیری ماشینی پشتیبانی بشود، میتواند با کمک دادهها بینش بهتری پیدا کرده و با تهدیدات مقابله کند.
پتری افزود:
زمانی که از هوش مصنوعی بهره میبرید، میتوانید از نیروهای کاری خود به شکل بهتر و بهینهتری استفاده کنید. بسیار خوب است اگر بتوانیم یک تحلیلگر امنیتی جوان که به اندازهی باهوشترین فرد این زمینه حرفهای است، داشته باشیم، در حالی که بسیار کم یاب هستند.
آندره زایبتویچ (Andrzej Zybertowicz)، محقق دانشگاه نیکولاس کوپرنیک (Nicolaus Copernicus University) و مشاور ارشد رییسجمهور لهستان، توضیح داد در حالی که میتوان با استفاده از هوش مصنوعی امنیت سایبری را افزایش داد، تأثیرات فاجعهبار آن در مقیاس جهانی قابلرؤیت هستند.
زایبتویچ تأکید کرد زمان آن رسیده است نسبت به خطرات این فناوری گفتگو و قوانینی برای جلوگیری از آن تصویب بشود. دیگر حاضران در جلسه نیز موافقت خود را در این زمینه اعلام کردند.
نوئل شارکی (Noel Sharkey)، استاد هوش مصنوعی و روباتیک دانشگاه شفلید انگلیس و فردی که فرصتها و تهدیدهای این حوزه باور دارد گفت:
مشکل این است که خطرات بسیار زیادی وجود دارد
شارکی برای بیان صحبتهای خود مثالی را در زمینهی بهداشت و درمان، محلی که پزشکان میتوانند به کمک هوش مصنوعی روی بیماریها تحقیق کنند، مطرح کرد. چنین قابلیتی بسیار خوب است؛ اما چه اتفاقی رخ میدهد اگر پزشکان بعد از مدتی به اندازهی کافی طولانی، مورد سؤال قرار دادن سامانه را متوقف کنند؟ آیا آنها باید به صورت خودکار با ماشین موافقت کنند؟ این رویداد چه پیامدهایی خواهد داشت و چه میشود اگر یک روز دستگاه تصمیمی اشتباه بگیرد؟
وی ادامه داد:
ما باید نسبت به نوع مدیریتی که در زمینهی هوش مصنوعی جستجو میکنیم، نگران باشیم.
مطمئناً هوشهای مصنوعی برنامههایی که در زمینههایی مانند مراقبت از کودکان، سالمندان و حملونقل تولید میشوند به یادگیری عمیق، یادگیری تقویتی (reinforcement learning) نیاز پیدا میشود. اثبات آینده1 (Future-proofing) هوش مصنوعی باید پیامدهای حقوق بشری را در نظر بگیرد.
الکساندرا پرزگالیسنکا اسکرکوسکا (Aleksandra Przegalinska-Skierkowska)، استاد دانشگاه کومینسکی و همکار محقق هوش جمعی امآیتی گفت:
هوش مصنوعی همهی حوزههای اطراف ما را مانند تمام صنعتها، بهداشت و درمان و آموزش و پرورش دگرگون خواهد کرد. اگر ما خودروهای بی راننده یا دستیارهای مجازی میخواهیم، نیاز به دستورالعملهایی نیز برای آنها داریم.
اسکرکوسکا افزود:
ما در زمانی قرار داریم که مردم شروع به تفکر دربارهی مسائل مرتبط با اصول اخلاقی و پایبندی ماشینها به آنها کردهاند. از آنجایی که کسبوکارهای بیشتری به هوش مصنوعی روی خواهند آورد، ایجاد یک ساختار برای سامانههای هوش مصنوعی اخلاق مدار باید با به صورت یک تلاش جمعی صورت بگیرد.
پتری گفت:
به عنوان شرکتی که در حال فروش خدمات دیجیتالی است، ما باید یک مسئلهی خیلی مهم را در مرکز توجه قرار بدهیم: مشتری از هوش مصنوعی استفاده میکند. چیزی که ما میخواهیم اعتماد کاربران به همهی انواع سامانههای فنی است. اگر ما اعتماد آنها را نداشته باشیم، پس کاربری هم نخواهیم داشت.
زایبتویچ اشاره کرد بحث دربارهی قوانین نظارتی به زودی تبدیل به چیزی خواهد شد که عوامل بد آن را نقض خواهند کرد. تقریباً همهی فناوریها دارای دو جنبه بوده و ظرفیت تبدیل شدن به یک سلاح را دارند.
پتری افزود:
ما در اینجا دربارهی قوانین صحبت میکنیم؛ اما در حال مبارزه با بازیگران بدی هستیم که به مطابق با آنها عمل نمیکنند. به علاوه افراد بد سریعتر از مردم خوب دست به نوآوری میزنند.
_____________________________________
1-اثبات آینده، روندی برای پیشبینی آینده و روشهای توسعه است تا تأثیرات منفی حوادث آینده تا حد امکان کاهش پیدا کند.