about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
هوش
1403/08/29 - 07:56- هوش مصنوعي

هوش مصنوعی و دانش‌آموزان؛ تحولی که باید برای آن آماده شد

آموزش و پرورش، به خصوص مدارس به عنوان مهم‌ترین بستر تربیت نسل آینده، نقش کلیدی در آماده‌سازی دانش‌آموزان برای ورود به دنیای هوش مصنوعی دارد. اکنون هوش مصنوعی برای دانش‌آموزان یک انتخاب نیست، بلکه یک ضرورت است.

ساخت
1403/09/24 - 08:40- آسیا

ساخت پیچیده‌ترین سلاح سایبری زیرساختی جهان توسط ایران

کارشناسان ادعا کردند که بدافزار مرتبط با ایران زیرساخت‌های حیاتی ایالات متحده و رژیم صهیونیستی را هدف قرار داده است.

راه‌اندازی
1403/09/28 - 07:37- آسیا

راه‌اندازی اولین کامپیوتر کوانتومی ساخت رژیم صهیونیستی

رژیم صهیونیستی از راه‌اندازی اولین کامپیوتر کوانتومی ساخت خود با استفاده از فناوری پیشرفته ابررسانا خبر داد.

انتشار شده در تاریخ

آموزش هنجارهای اجتماعی به روبات‌ها

به گزارش واحد فناوری اطلاعات سایبربان؛ پیشرفت در زمینه‌ی هوش مصنوعی باعث به وجود آمدن دستیاران مجازی و روباتیکی شده است که به صورت روزافزون می‌توانند وظایف پیچیده‌تری را انجام بدهند. این ابزارهای هوشمند به عنوان همکارانی ایمن و قابل‌اعتماد برای انسان‌ها در نظر گرفته می‌شوند. با وجود این روبات‌ها باید بتوانند ارزیابی سریعی از وضعیتی که در آن قرار دارند داشته و هنجارهای اجتماعی انسانی را به کار بگیرند. چنین هنجارهایی برای بیشتر مردم کاملاً مشخص هستند. به عنوان مثال از همان کودکی به انسان‌ها نحوه‌ی رفتار آن‌ها در جامعه، حضور در گروه‌ها یا عکس‌العمل نشان دادن در شرایط مختلف آموزش داده می‌شود؛ اما یاد دادن این موارد به روبات‌ها یک چالش جدید به شمار می‌رود.
برای برطرف کردن چالش بالا، محققانی با حمایت مالی دارپا اخیراً پروژه‌ای را به انجام رساندند که هدف آن ارائه چارچوبی نظری و رسمی در خصوص هنجارها و شبکه‌های هنجاری بود. این تحقیقات نحوه‌ی انجام فعل و انفعالات نسبت به هنجارها را در ذهن انسان مطالعه کرده و بررسی می‌کند چگونه می‌توان این هنجارها را از طریق الگوریتم‌های تعاملی جدید آموزش داد.
با توجه به اسناد منتشر شده پژوهشگران موفق به ایجاد یک مدل محاسبات شناختی (cognitive-computational model) از هنجارهای انسانی شده‌اند که می‌تواند آن‌ها را در ابزارهای هوشمند کدگذاری کند. به علاوه آن‌ها الگوریتم یادگیری ماشینی جدیدی توسعه دادند که به ماشین‌ها اجازه می‌دهد حتی در شرایطی که برای آن‌ها ناشناخته است با توجه به داده‌های انسانی هنجارها را یاد بگیرند.
پژوهشگران معتقدند تحقیقات بالا از اهمیت زیادی برخوردار است؛ زیرا باعث توسعه و به وجود آمدن سامانه‌های آگاهی می‌شود که با اطمینان بسیار مناسبی می‌توانند نوع رفتار مردم نسبت به هنجارها را در شرایط خاص درک کنند و بر اساس آن عمل کنند.
رضا قنادان (Reza Ghanadan)، مدیر برنامه‌ی دارپا گفت: «هدف از پژوه یاد شده درک و رسمی کردن سامانه‌های هنجاری انسانی و بررسی نحوه‌ی هدایت انسان‌ها توسط آن‌ها است. در نتیجه ما می‌توانیم دستورالعمل‌های جدید برای نحوه‌ی ساخت نسل‌های آینده‌ی هوش مصنوعی ایجاد بکنیم که قادر هستند به شکل مؤثرتری با انسان‌ها تعامل کنند.»
برای نمونه انسان‌ها با توجه به این که در محیط آرامی مانند کتابخانه قرار دارند زنگ تلفن‌های همراه خود را خاموش کرده و این هنجار را مستقیماً به اجرا می‌گذارند. اگر تماسی با یک فرد برقرار شود سعی می‌کند هر چه سریع‌تر صدای تلفن خود را قطع کرد و با صدایی آهسته به مخاطب بگوید ادامه‌ی مکالمه را در خارج از ساختمان انجام خواهد داد. در مقابل هوش‌های مصنوعی به کار رفته در این ابزارها نمی‌توانند به شکل خودکار به چنین هنجارهای اجتماعی حساسی واکنش نشان بدهند.
وی با اشاره به اینکه در بیشتر مسائل پیچیده، هنجارها به سرعت فعال می‌شوند افزود: «این چیزی است که همه‌ی ما با آن آشنا هستیم. مردم نقض هنجارها را به سرعت تشخیص می‌دهند. برای مردم، آموختن هنجارهای جدید یا پیش‌شرط‌های آن‌ها برای فعال‌سازی، در کنار شبکه هنجاری پیچیده‌ای که هم‌اکنون وجود دارد صورت می‌گیرد؛ آن هم نه از یک روش، بلکه بهروش‌های متعددی مانند مشاهده، استنباط و آموزش. عدم اطمینان در داده‌های ورودی توسط انسان‌ها یادگیری هنجارها را برای الگوریتم‌های یادگیری ماشینی بسیار پیچیده و دشوار است.»
وی توضیح داد برای ایجاد یک روبات اجتماعی یا حتی اخلاق مدار، آن‌ها نیاز به ظرفیت بالایی در یادگیری و اعمال حجم عظیمی از هنجارهایی دارند که مردم آن‌ها را به رسمیت شناخته و انتظار دارند از آن‌ها اطلاعات بشود. این کار نسبت به ایجاد سامانه‌های امروزی که تنها محتوای عکس را تشخیص می‌دهد بسیار پیچیده‌تر است؛ اما با ارائه‌ی یک چارچوب برای توسعه و آزمایش الگوریتم‌های پیچیده، سرعت ایجاد سامانه‌هایی که به بهترین شکل ممکن از رفتار انسان‌ها تقلید می‌کنند، بهبود می‌یابد.
قنادان ادامه داد: «اگر ما قرار است با روبات‌ها، خودروهای بی راننده و دستیارهای صوتی آینده‌ی موجود در تلفن یا خانه‌ی خود مطابق امروز ارتباط برقرار کنیم، این دستیارها باید بتوانند از هنجارهای ما پیروی کرده و مشابه آن رفتار کنند.»
برای نمونه روباتی که در آینده در کتابخانه به کار گرفته می‌شود، ممکن است انگشت خود را به نشانه‌ی سکوت بالا بیاورد.
البته باید متذکر شد چنین مسئله‌ای از مدت‌ها قبل در خودروهای بی راننده نیز وجود داشته است. برای نمونه اگر یک خودروی بی راننده با تعدادی عابر پیاده و مانع در مقابل خود مواجه شود، چه اقدامی باید بکند. آیا باید به مانع برخورد کرده و سرنشینان خود را از بین ببرد یا با برخورد به عابران، سرنشینان خود را از مرگ حتمی برهاند؟ این گونه تصمیم‌ها و هنجارها اخلاقی را چه فرد یا افرادی تعیین می‌کند. آیا تضمینی وجود دارد که برنامه نویسان، هنجارها را مطابق با نظر و خواسته‌ی خود به روبات‌ها آموزش ندهند؟ همچنین ممکن است با سو استفاده از چارچوب جدید یاد شده یا هک و جایگذاری هنجارهای جدید و نادرست در این سامانه‌ها، آن‌ها را تشویق به آسیب‌رسانی به مردم یا انجام اعمال مجرمانه کرد.

 

تازه ترین ها
تشکیل
1403/10/23 - 15:15- آسیا

تشکیل سازمان امنیت سایبری در ترکیه

ترکیه با هدف ارتقای امنیت سایبری ملی سازمان ریاست امنیت سایبری را تأسیس کرد.

دبی
1403/10/23 - 13:08- هوش مصنوعي

دبی میزبان رقابت برترین توسعه دهندگان بازی هوش مصنوعی

دبی میزبان رویدادی برای رقابت برترین توسعه دهندگان بازی هوش مصنوعی در 23 ژانویه امسال خواهد بود.

تولید
1403/10/23 - 12:55- آمریکا

تولید تراشه‌های ۴ نانومتری در آمریکا

شرکت صنایع نیمه‌رسانا تایوان، تولید تراشه‌های ۴ نانومتری را در آریزونا آمریکا آغاز می‌کند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.