about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
هوش
1403/08/29 - 07:56- هوش مصنوعي

هوش مصنوعی و دانش‌آموزان؛ تحولی که باید برای آن آماده شد

آموزش و پرورش، به خصوص مدارس به عنوان مهم‌ترین بستر تربیت نسل آینده، نقش کلیدی در آماده‌سازی دانش‌آموزان برای ورود به دنیای هوش مصنوعی دارد. اکنون هوش مصنوعی برای دانش‌آموزان یک انتخاب نیست، بلکه یک ضرورت است.

ساخت
1403/09/24 - 08:40- آسیا

ساخت پیچیده‌ترین سلاح سایبری زیرساختی جهان توسط ایران

کارشناسان ادعا کردند که بدافزار مرتبط با ایران زیرساخت‌های حیاتی ایالات متحده و رژیم صهیونیستی را هدف قرار داده است.

راه‌اندازی
1403/09/28 - 07:37- آسیا

راه‌اندازی اولین کامپیوتر کوانتومی ساخت رژیم صهیونیستی

رژیم صهیونیستی از راه‌اندازی اولین کامپیوتر کوانتومی ساخت خود با استفاده از فناوری پیشرفته ابررسانا خبر داد.

انتشار شده در تاریخ

بررسی اخلاقیات هوش مصنوعی در دره سیلیکون

هیئت نوآوری دفاعی آمریکا، به منظور بررسی مسائل اخلاقی هوش مصنوعی در کاربردهای نظامی، نشستی مشترک را با مقامات دره سیلیکون برگزار کرد.

به گزارش کارگروه بین‌الملل سایبربان؛ هیئت نوآوری دفاعی آمریکا (Defense Innovation Board) در سالن دانشگاه استنفورد، جلسه‌ای را پیرامون درگیری فکری پنتاگون درباره‌ی اخلاقیات هوش مصنوعی با فعالان دره سیلیکون برگزار کرد. این هیئت، در نشستی 2 ساعته، پیشنهاد مدرن‌سازی فناوری را به وزیر دفاع داد و نظرات خودش را درباره کاربرد مغز روبات در جنگ مدرن اعلام کرد.

چارلز آلن (Charles A. Allen)، معاون کل امور بین‌الملل در وزارت دفاع در این نشست گفت:

همچنان که پنتاگون به استفاده از هوش مصنوعی در برنامه‌های کاربردی نظامی و گاهی بخش فناوری تهاجمی ادامه می‌دهد، بحث قانون بشردوستانه بین‎المللی مطرح می‌شود.

آلن با اشاره به قوانین وضع شده از سوی اَش کارتر (Ash Carter)، معاون وقت وزارت دفاع در سال 2012 درمورد نحوه عملکرد سازمان در کسب سلاح‌های مستقل اعلام کرد:

ایالات متحده، سابقه طولانی در زمینه قوانین جنگی دارد. قوانین وضع شده، باید با قوانین جنگی تطبیق داشته باشند، حتی زمانی که قوانین خاصی، برای توصیف نوع سلاح مورد استفاده ذکر نشده است.

وی 3 راه را برای استفاده اخلاقی از هوش مصنوعی ازسوی وزارت دفاع عنوان کرد. اولین مورد، کاربرد قانون بشردوستانه بین‎المللی برای هر عملی، مانند بهره برداری از قوانین، به منظور اجرای حملات به کمک هوش مصنوعی است که به‌وسیله آن حمایت شود. مورد دوم، تأکید روی اصول قوانین جنگی مانند: الزام، تمایز و تناسب نظامی است.

معاون کل امور بین‌الملل در وزارت دفاع اظهار داشت:

اگر استفاده از فناوری باعث پیشرفت ارزش‌ها شود، کاربرد آن اخلاقی‌تر خواهد شد.

این بحثی است که ایالات متحده در ژنو در گروه کارشناسان دولتی فعال روی کنوانسیون سلاح‌های قراردادی مطرح کرد. مذاکرات برای تدوین استانداردهای جدید بین‌المللی در همه کشورها در مورد چگونگی استفاده از سیستم‌های مستقل در جنگ درحال اجرا است؛ اما هنوز به توافق نرسیده‌اند.

سومین راه، استفاده از فناوری برای بهبود حفاظت غیرنظامی است. آلن پس از مقایسه پتانسیل بقای هوش مصنوعی در میدان نبرد و استفاده از آن در ماشین‌های بدون راننده اعلام کرد که استفاده از این فناوری در جنگ باعث نجات جان‌ها می‌شود. سپس، درمورد هدف‌گیری دقیق‌تر با آسیب کمتر روی غیرنظامیان از سوی سیستم‌های سلاحی با شناسایی خودکار هدف سخن گفت.

معاون کل امور بین‌الملل وزارت دفاع ضمن اشاره ویژه به پروژه میون (Maven)، خاطرنشان کرد:

به کمک هوش مصنوعی برای شناسایی اشیا به‌صورت خودکار، تحلیلگران می‌توانند با داده‌های بیشتری جستجو را انجام داده، روی موارد سطح بالا تمرکز کنند.

پروژه میون –که به‌وسیله گوگل به صورت نرم‌افزار منبع باز توسعه یافت– به عنوان راهی برای پردازش فیلم‌های هواپیمای بدون سرنشین نظامی طراحی شده بود. پس از واکنش شدید کارمندان گوگل، این شرکت، از تمدید قرارداد در ماه مارس امسال خودداری کرد و اکنون این پروژه، به‌وسیله صنایع «Anduril» اداره می‌شود.

آلن از پروژه میون به عنوان نمونه هوش مصنوعی در همگرایی منافع نظامی و بشردوستانه، راهی برای افزایش دقت در کاربرد نیروها و استفاده از دیگر موارد در موقعیت‎های پرخطر نام برد. همچنین وی ادعا کرد علاوه بر استفاده صریح نظامی، این پروژه به عنوان مرکز مشترک هوش مصنوعی در تطبیق میون به یک ابتکار بشردوستانه و کمک به پاسخ دهندگان در شناسایی اهداف در آتش‌سوزی و طوفان محسوب می‌شود.

مارتا کاسمینا (Marta Kosmyna)، سازمان‌دهنده بخش کمپین دره سیلیکون برای توقف روبات‌های کشنده گفت:

قوانین بین‌الملل، به مسئولیت فردی نیاز دارند؛ اما با نوع جدید سلاح‌ها، وظایف افراد اعم از برنامه‌ریز، دستگاه، یا فرمانده مشخص نیست. ما اغلب می‌شنویم که سلاح های مستقل، دقیق‌تر و سلاح‌های کمتری از رده خارج خواهند شد. ما معتقدیم که این موارد با سیستم‌های نیمه مستقل به‌دست می‌آیند.

بوُ راجرز (Bow Rodgers)، مدیرعامل شرکت شتاب دهنده فناوری وِت (Vet-Tech) درمورد عدم وجود شلیک دوستانه و سختی تمایز میان اهداف جنگی توضیح داد و گفت که آرزو دارد هوش مصنوعی در مأموریت‌های دشوار نظامی به‌کار رود.

سرعت هوش مصنوعی، یکی از دلایل اصلی ارتش برای خرید سلاح‌های مستقل است. همچنین  خرید این سلاح‌ها از سوی دیگر کشورها نگرانی ارتش محسوب می‌شود؛ زیرا از محدودیت‌های اخلاقی مشابه آمریکا بهره نمی‌برد. کارشناس مذکور ادعا کرد با وجود تمایل اندک آمریکا به استفاده از سلاح‌های فوق، مردم این کشور هنوز می‌خواهند ایالات متحده همانند دیگر کشورها، سلاح‌های هوش مصنوعی را توسعه دهد.

لوسی ساچمن (Lucy Suchman)، استاد علوم و فناوری انسان‌شناسی در دانشگاه «Lancaster» معتقد است:

ما در دوره جنگ نامنظم هستیم. در این دوره، سؤالاتی از این قبیل مطرح می‌شوند: چه کسی شروع کننده جنگ بود؟ چه کسی باعث ایجاد تهدید جدی شد؟ تمایز میان سلاح دارنده هوش مصنوعی و دقت بیشتر آن در شلیک گلوله به یک انسان و شناسایی دقیق وی به کمک هوش مصنوعی برای شلیک، یک هدف اصلی است.

با وجود دهه‌ها تجربه در مورد دقت سلاح‌های نظامی، هنوز هم این سؤال مطرح می‌شود که باید به چه فردی شلیک شود. این مشکل در شناسایی به کمک هوش مصنوعی در بخش غیرنظامی وجود ندارد.

آماندا آسکِل (Amanda Askell)، از متخصصان شرکت اپن ای‌آی (Open AI) اعلام کرد:

مشکل اصلی اخلاق در هوش مصنوعی، اطمینان از حفظ اصول در موارد خاص، با سیستم‌های خاص و در محیط‌های خاص است. به عنوان مثال، یک سامانه ناوبری ویژه، برای حمل وسایل به خارج، راه‌اندازی شده است. قطعاً استفاده از این دستگاه خطرناک است و اگر بررسی نادرستی داشته باشید، یک جنگ غیرعمد با یک سیستم ناشناخته ایجاد کرده‌اید.

آسکِل پرسید:

به جای تکیه بر بررسی‌های ناقص، سیاستمداران باید با همکاری مردم، به منظور درک درست سیستم‌ها و نحوه شکست آن‌ها، فناوری ایجاد کنند.

میرا لِین (Mira Lane)، رئیس اخلاق و جامعه در مایکروسافت پس از مشخص کردن محدودیت‌های برنامه‌نویسان در پیش‌بینی کدهای ایجادشده و راه‌های ضروری در زمان جنگ برای طراحی سیستم‌های سلاحی مستقل اظهار داشت:

این فقط معرفی فناوری جدید است.

 وی بر اهمیت توسعه حلقه‌های تکرار تنگاتنگ و سیستم‌های بازخورد در هوش مصنوعی برای مشخص شدن هرچه سریع‌تر نواقص و سازگاری بیشتر تأکید کرد.

لِین گفت:

با هر پیشرفت جدید فناوری، ظهور حوزه‌های جدید جهل ناگزیر و قابل پیش‌بینی است.

تازه ترین ها
تشکیل
1403/10/23 - 15:15- آسیا

تشکیل سازمان امنیت سایبری در ترکیه

ترکیه با هدف ارتقای امنیت سایبری ملی سازمان ریاست امنیت سایبری را تأسیس کرد.

دبی
1403/10/23 - 13:08- هوش مصنوعي

دبی میزبان رقابت برترین توسعه دهندگان بازی هوش مصنوعی

دبی میزبان رویدادی برای رقابت برترین توسعه دهندگان بازی هوش مصنوعی در 23 ژانویه امسال خواهد بود.

تولید
1403/10/23 - 12:55- آمریکا

تولید تراشه‌های ۴ نانومتری در آمریکا

شرکت صنایع نیمه‌رسانا تایوان، تولید تراشه‌های ۴ نانومتری را در آریزونا آمریکا آغاز می‌کند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.