about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
هوش
1403/08/29 - 07:56- هوش مصنوعي

هوش مصنوعی و دانش‌آموزان؛ تحولی که باید برای آن آماده شد

آموزش و پرورش، به خصوص مدارس به عنوان مهم‌ترین بستر تربیت نسل آینده، نقش کلیدی در آماده‌سازی دانش‌آموزان برای ورود به دنیای هوش مصنوعی دارد. اکنون هوش مصنوعی برای دانش‌آموزان یک انتخاب نیست، بلکه یک ضرورت است.

ساخت
1403/09/24 - 08:40- آسیا

ساخت پیچیده‌ترین سلاح سایبری زیرساختی جهان توسط ایران

کارشناسان ادعا کردند که بدافزار مرتبط با ایران زیرساخت‌های حیاتی ایالات متحده و رژیم صهیونیستی را هدف قرار داده است.

راه‌اندازی
1403/09/28 - 07:37- آسیا

راه‌اندازی اولین کامپیوتر کوانتومی ساخت رژیم صهیونیستی

رژیم صهیونیستی از راه‌اندازی اولین کامپیوتر کوانتومی ساخت خود با استفاده از فناوری پیشرفته ابررسانا خبر داد.

انتشار شده در تاریخ

مفهوم هوش مصنوعی برای آینده امنیت سایبری

هوش‌های مصنوعی نتیجه‌ی نبردهای سایبری آینده را در فضای مجازی مشخص کرده و تنظیم نادرست آن‌ها، مشکلات بزرگی را پدید می‌آورد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ با پیشرفت روزافزون هوش مصنوعی، تعدادی از متخصصان امنیت ملی آمریکا بیان می‌کنند که احتمالاً نتیجه نبردهای آینده، توسط رایانه‌هایی که در فضای سایبری با یکدیگر مبارزه می‌کنند، مشخص خواهد شد؛ اما پیش‌بینی دیگری نیز وجود دارد که توضیح می‌دهد، این فناوری، امنیتی مصنوعی و دروغینی را برای دفاع سایبری فراهم می‌کند؛ زیرا به سختی می‌توان عملکرد فناوری‌ها را پیش‌گویی کرد.

به تازگی 2 گزارش جدید منتشر شده‌اند که سعی دارند بینشی تازه را در رابطه با شیوه‌ی استفاده از هوش مصنوعی در امنیت سایبری آینده ارائه بدهند.

الکساندر نات (Alexander Knott)، دانشمند ارشد آزمایشگاه تحقیقاتی نیروی زمینی آمریکا (ARL) در گزارش‌های مذکور نوشته است:

ابزارهای مجهز به هوش مصنوعی به احتمال زیاد، به مبارزان سایبری اصلی در میدان نبرد آینده، تبدیل می‌شوند.

نات با اشاره به پیچیدگی روزافزون میدان مبارزه آینده ادامه داد:

وابستگی امروزی به مدافعان سایبری انسانی، در آینده قابل‌اعتماد نخواهد بود.

درگیری‌های آینده با توجه به گسترش ابزارهای متصل، روبات‌های جنگی و دیگر نوآوری‌های پیش رو، بسیار مشکل خواهند بود.

وی که به طور خاص روی امنیت سایبری میدان‌های نبرد آینده تحقیق می‌کند، اشاره کرد، هوش‌های مصنوعی فعلی مناسب نیستند؛ زیرا با توجه به ماهیت سیال گونه‌ی مبارزه، تعداد ابزارهای متصل و نقص‌های موجود در توان محاسباتی قابل‌حمل، فناوری یادگیری ماشینی باید پیشرفت عظیمی را برای حضور در میدان جنگ واقعی تجربه کند.

انتقاد وی از توانای هوش‌های مصنوعی کنونیِ حاضر در میدان جنگ، گلایه‌ی دیگر را در رابطه با پهنه‌ی گسترده‌ی صنعت امنیت سایبری بازتاب می‌دهد.

پیشرفته‌ترین فناوری‌های تشخیص تهدید فعلی، برای علامت‌گذاری رویدادهای بالقوه، از تعدادی هوش مصنوعی استفاده می‌کنند؛ اما کارشناسان معتقدند در صورت تنظیم نادرست سیستم، ممکن است یک مثبت کاذب (false positive) به سیستم وارد شده و «فرسودگی تهدید» (threat fatigue) ایجاد کند.

برای مثال با توجه به گزارش پونمون (Ponemon) سازمان‌های فناوری و امنیتی تقریباً در هر هفته هشداری در رابطه با 17 هزار بدافزار دریافت می‌کنند. با وجود این تنها 19 درصد پیام‌ها قابل‌اعتماد در نظر گرفته شده و از این تعداد 4 درصد آن‌ها موردبررسی قرار می‌گیرند.

در گزارش دوم اشاره شده است که استفاده از رویکردهای ترکیبی هوش مصنوعی احتمالاً باعث تقویت دفاع در امنیت سایبری خواهد شد.

بیشتر هوش‌های مصنوعی را می‌توان در 2 دسته‌ی سمبلیک (symbolic) و غیر سمبلیک (non-symbolic) طبقه‌بندی کرد که به شرح زیر هستند:

  • هوش مصنوعی سمبلیک: در این دسته از منطق خودمختاری از پیش برنامه‌ریزی شده مانند درخت‌های تصمیم‌گیری استفاده می‌شود.
  • هوش مصنوعی غیر سمبلیک: از برنامه‌هایی استفاده می‌کند که امکان یادگیری در رابطه با تهدیدها و شناسایی ناهنجاری‌ها را فراهم می‌آورند.

پژوهشگران هوش مصنوعی شرکت «Soar Technology»، در یک پروژه‌ی نیروی دریایی، به منظور تقویت امنیت سایبری، از ترکیب هر 2 مفهوم یادگیری ماشینی بالا استفاده می‌کنند.

اسکات لاثروپ (Scott Lathrop) و فرناندو میمی (Fernando Maymí)، پژوهشگران شرکت Soar و از نویسندگان گزارش یاد شده اظهار کردند:

به منظور پی بردن به ظرفیت کامل هوش مصنوعی، ما باید انواع مختلف آن را برای پوشش دادن محدودیت‌های یکدیگر، با هم ترکیب کنیم. هیچ‌یک از این رویکردها کامل و کافی نیستند؛ زیرا هرکدام با هدف برطرف سازی مجموعه‌ای از مشکلات خاص بهینه‌سازی شده‌اند.

پژوهشگران در حال حاضر روی محدودیت‌های فعلی هوش مصنوعی و برطرف سازی آن‌ها تحقیق می‌کنند.

برای مثال در زمینه روش‌های فریب خودمختار، محققان یادگیری عمیق برای مقابله با حملات اختلال سرویس توزیع شده (DDOS)، از رایانه‌های قدرتمند و شبکه‌های توزیع شده مستقل، بهره می‌گیرند.

پنتاگون در جولای سال 2018، قراردادی 5 ساله به ارزش 885 میلیون دلاری را با شرکت بوز آلن همیلتن (Booz Allen Hamilton)، پیمان‌کار دفاعی آمریکا، امضا کرد. البته جزئیات این قرارداد که در زمینه هوش مصنوعی است، هنوز مشخص نیست. از طرفی وزارت دفاع راهبرد هوش مصنوعی خود را در اوت همین سال منتشر ساخت. در این سند آمده است، وزارت خانه یاد شده در کوتاه مدت باید پایگاه داده‌ای از ظرفیت‌های بالقوه کشف شده یا آسیب‌پذیری‌های امنیت سایبری حسگرهای مختلف را توسعه بدهد که جزئی حیاتی از یادگیری ماشینی به حساب می‌آید.

تازه ترین ها
همکاری
1403/10/24 - 08:32- امنیت زیرساخت

همکاری ترند میکرو و اینتل برای مقابله با تهدیدات سایبری

شرکت ترند میکرو از همکاری جدید خود با اینتل خبر داد. این همکاری به‌منظور کمک به مشتریان سازمانی مشترک طراحی شده تا سیستم‌های حیاتی خود را در برابر تهدیدات مخفیانه مانند بدافزارهای بدون فایل و باج‌افزارهای پیشرفته محافظت کنند.

حمله
1403/10/24 - 08:19- جرم سایبری

حمله سایبری به دانشگاه آیندهوون؛ توقف آموزش در قلب صنعت تراشه

دانشگاه هلندی تحت حمایت هولدینگ ای اس ام ال که در جنگ تراشه آمریکا-چین موثر است، پس از حمله سایبری کلاس‌ها را متوقف کرد.

حمله
1403/10/24 - 07:44- جرم سایبری

حمله مجدد هکرهای روسی به زیرساخت‌های ایتالیا

پس از بازدید زلنسکی از ایتالیا، هکرهای طرفدار روسیه موسوم به «NONAME057» دوباره ایتالیا را هدف قرار دادند.