about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
هوش
1403/08/29 - 07:56- هوش مصنوعي

هوش مصنوعی و دانش‌آموزان؛ تحولی که باید برای آن آماده شد

آموزش و پرورش، به خصوص مدارس به عنوان مهم‌ترین بستر تربیت نسل آینده، نقش کلیدی در آماده‌سازی دانش‌آموزان برای ورود به دنیای هوش مصنوعی دارد. اکنون هوش مصنوعی برای دانش‌آموزان یک انتخاب نیست، بلکه یک ضرورت است.

ساخت
1403/09/24 - 08:40- آسیا

ساخت پیچیده‌ترین سلاح سایبری زیرساختی جهان توسط ایران

کارشناسان ادعا کردند که بدافزار مرتبط با ایران زیرساخت‌های حیاتی ایالات متحده و رژیم صهیونیستی را هدف قرار داده است.

راه‌اندازی
1403/09/28 - 07:37- آسیا

راه‌اندازی اولین کامپیوتر کوانتومی ساخت رژیم صهیونیستی

رژیم صهیونیستی از راه‌اندازی اولین کامپیوتر کوانتومی ساخت خود با استفاده از فناوری پیشرفته ابررسانا خبر داد.

انتشار شده در تاریخ

آینده هوش مصنوعی، در گرو پردازنده‌ گرافیکی

شرکت‌های فیس‌بوک و گوگل، برای تأمین قدرت هوش‌های مصنوعی خود، سخت‌افزارهای محاسباتی قدرت‌مندی، تولید کرده‌اند. این سخت‌افزارها، وظیفه تأمین قدرت محاسبات تنسورفلو گوگل (tensorflow)، دست‌یار صوتی فیس‌بوک، با نام ام، و تبلیغات هدف‌مند هر 2 شرکت را دارند.
قدرت رایانه‌های سفارشی‌شده‌ سرورهای فیس‌بوک - با اسم رمز بیگ سور (Big Sur) -  با استفاده از تعداد فراوانی پردازنده‌ گرافیکی (GPU) تأمین می‌شود. بخش عظیمی از قدرت سخت‌افزار هوش مصنوعی تنسورفلو نیز به همین شکل، ایجاد می‌گردد. این پردازنده‌ها، همان کارت‌های گرافیکی هستند که در رایانه‌های معمولی، وظیفه اجرای بازی‌های ویدئویی و پردازش‌های 3 بعدی را بر عهده دارند.

 

چرا در محاسبات هوش مصنوعی، از پردازنده‌های گرافیکی، به‌جای پردازنده‌های مرکزی (CPU) استفاده می‌شود؟
وظیفه‌ اصلی پردازنده‌های گرافیکی، کمک به پردازنده‌های مرکزی، در اجرای محاسبات است. در واقع پردازنده‌های گرافیکی، وظیفه‌ انجام دادن محاسبات گرافیکی را بر عهده گرفته، بار آن را از روی پردازنده‌های مرکزی برمی‌دارند.
ترسیم گرافیک 3 بعدی، به‌عنوان یکی از اصلی‌ترین مثال‌های پردازش موازی، شناخته می‌شود. در پردازش موازی، محاسبات، به تعداد فراوانی مسئله‌ کوچک، تقسیم می‌شوند؛ تا به‌صورت موازی، اجرا گردند. این موضوع، باعث می‌شود که کار، با سرعت بالاتری، صورت پذیرد.
قابلیت پردازش‌های موازی، در کارت‌های گرافیکی، باعث شده است که بسیاری از شرکت‌ها، به شکل دیگری، از ‌این کارت‌ها، استفاده کنند. با کمی تغییرات و بهینه‌سازی پردازنده‌های گرافیکی، علاوه بر این‌گونه محاسبات، می‌توان برای پردازش‌های موازی غیرگرافیکی نیز از آن‌ها،  بهره‌برداری کرد. این موضوع، باعث می‌شود؛ تا پردازنده‌های مرکزی، با سرعت بالاتری، محاسبات تک‌رشته‌ای را انجام دهند؛ زیرا بسیاری از نرم‌افزارهای امروزی، هنوز از پردازش موازی، پشتیبانی نمی‌کنند.
بهترین پردازنده‌های مرکزی موجود در بازار، معمولا 8 هسته دارند. این در حالی است که پردازنده‌های گرافیکی، از هزاران هسته، استفاده می‌کنند. به‌عنوان مثال، کارت گرافیکی «NVIDIA Tesla M40» به‌کاررفته در سرورهای فیس‌بوک، 3 هزار و 72 هسته‌ کودا1 (CUDA  core) دارد.

کارت گرافیک Nvidia Tesla M40


بهره‌گیری از این روش، هزینه‌های خاص خود را خواهد داشت؛ زیرا نرم‌افزارهایی که به شیوه یادشده، اجرایی می‌شوند، باید به صورتی نوشته شده باشند که پردازنده گرافیکی، از عهده محاسبات آن‌ها برآید.

 

چرا استفاده از پردازنده‌ گرافیکی، برای عمل‌کرد هوش مصنوعی، بهتر است؟
یکی از دلایلی که پردازنده‌های گرافیکی را به انتخابی مناسب، برای ابررایانه‌ها، تبدیل می‌کند، تعداد بالای محاسباتی است که به‌صورت موازی، انجام می‌گیرد.
در دهه 90، مفهوم شبکه‌های عصبی و الگوریتم‌های یادگیری عمیق (Deep Learning) - که از روش‌های ایجاد هوش مصنوعی هستند - به وجود آمد. با استفاده از پردازنده‌های گرافیکی و پردازش‌های موازی امروزی می‌توان با نتایجی بهتر، عمق و سرعت بیش‌تری به این نوع الگوریتم‌ها داد.
آموزش به شبکه‌های عصبی، با کمک پردازش‌های موازی کارت گرافیکی، سرعت بیش‌تری نسبت به پردازنده‌های مرکزی، ایجاد می‌کند.
شبکه‌های عصبی به‌کاررفته در ابررایانه‌های گوگل، توانایی تشخیص زبان گفتار، ترجمه‌ آن و جستجوی معنایی دارد.

بخشی از ابر رایانه‌ی بیگ سور که توسط 8 کارت گرافیک Tesla M4 پشتیبانی می‌شود.

آیا آینده محاسبات، در گرو پردازنده‌های گرافیکی است؟
قانون مور بیان می‌کند: «قدرت محاسبات رایانه‌ها، هر سال، نسبت به سال پیش، 2 برابر می‌شود. این موضوع، با کوچک‌تر شدن و تولید دمای کم‌تر قطعات، محقق می‌گردد؛ زیرا به پردازنده‌های مرکزی، امکان می‌دهد؛ با سرعت بیش‌تری، کار کنند.»
به نظر می‌رسد؛ این قانون، محدودیت‌هایی، داشته باشد؛ زیرا با کوچک‌تر شدن معماری پردازنده مرکزی، تولید آن، سخت‌تر می‌شود. تا مدتی قبل، بهره‌گیری از پردازنده‌های مرکزی چندهسته‌ای، بهترین راه برای پردازش‌های موازی، به شمار می‌آمد؛ اما پردازنده‌ گرافیکی، این کار را وارد مرحله‌ای جدید کرد. علاوه بر هوش مصنوعی، از پردازنده‌های گرافیکی، برای شبیه‌سازی مغز، موتورهای فیزیک و شبیه‌سازی رفتار سیالات و چندین مورد دیگر، استفاده می‌شود.
هم‌اینک ابررایانه‌های تیانهی دو (Tianhe-2)  و تایتان (Titan) که از قدرت‌مندترین ابررایانه‌های دنیا هستند، با پردازنده‌های گرافیکی انویدیا، تغذیه می‌شوند.
عده‌ای از تحلیل‌گران، پیش‌بینی می‌کنند که به‌وسیله پردازنده‌های گرافیکی بتوان نسبت به تکامل هوش مصنوعی، با سرعت بالاتری، اقدام نمود. با استفاده از این روش، اجرای محاسبات بسیار پیچیده‌تر و افزایش قدرت یادگیری هوش‌های مصنوعی، مقدور می‌گردد. ممکن است؛ در آینده، قدرت هوش‌های مصنوعی - که عمل‌کردی مشابه مغز دارند - به‌اندازه‌ای افزایش یابد که بتوانند بهتر از انسان، کار کنند.

ابر رایانه‌ی تایتان؛ دومین ابر رایانه‌ی فعلی دنیا

_______________________________

1-  کودا مخفف عبارت « Compute Unified Device Architecture » است. این فن‌آوری به‌وسیله شرکت انودیا و بر پایه پردازش موازی، ایجاد شد.

تازه ترین ها
تحریم
1403/10/24 - 09:28- سایرفناوری ها

تحریم کاربران ایرانی توسط گوگل؛ صدای پای ترامپ می‌آید

ابتدا گوگل اقدام به مسدود کردن حساب کاربران ایرانی در گوگل آنالیتیکس کرد و حالا سایت ایسوس هم به IP ایران اجازه دسترسی نمی‌دهد.

واتس‌اپ به‌زودی به قابلیت ساخت چت‌بات هوش مصنوعی سفارشی مجهز می‌شود

واتس‌اپ درحال آزمایش قابلیت ساخت چت‌بات‌های هوش مصنوعی شخصی‌سازی‌شده برای کاربران است.

اینستاگرام،
1403/10/24 - 09:20- فیس بوک

اینستاگرام، واتساپ و فیسبوک قطع می‌شوند؟

صفحات و کانال‌های بسیاری با انتشار یک متن مدعی شده‌اند که بر اساس اطلاعیه شرکت متا نرم افزارهای اینستاگرام، واتساپ و فیسبوک به زودی دچار قطعی سراسری می شوند!