آینده هوش مصنوعی، در گرو پردازنده گرافیکی
شرکتهای فیسبوک و گوگل، برای تأمین قدرت هوشهای مصنوعی خود، سختافزارهای محاسباتی قدرتمندی، تولید کردهاند. این سختافزارها، وظیفه تأمین قدرت محاسبات تنسورفلو گوگل (tensorflow)، دستیار صوتی فیسبوک، با نام ام، و تبلیغات هدفمند هر 2 شرکت را دارند.
قدرت رایانههای سفارشیشده سرورهای فیسبوک - با اسم رمز بیگ سور (Big Sur) - با استفاده از تعداد فراوانی پردازنده گرافیکی (GPU) تأمین میشود. بخش عظیمی از قدرت سختافزار هوش مصنوعی تنسورفلو نیز به همین شکل، ایجاد میگردد. این پردازندهها، همان کارتهای گرافیکی هستند که در رایانههای معمولی، وظیفه اجرای بازیهای ویدئویی و پردازشهای 3 بعدی را بر عهده دارند.
چرا در محاسبات هوش مصنوعی، از پردازندههای گرافیکی، بهجای پردازندههای مرکزی (CPU) استفاده میشود؟
وظیفه اصلی پردازندههای گرافیکی، کمک به پردازندههای مرکزی، در اجرای محاسبات است. در واقع پردازندههای گرافیکی، وظیفه انجام دادن محاسبات گرافیکی را بر عهده گرفته، بار آن را از روی پردازندههای مرکزی برمیدارند.
ترسیم گرافیک 3 بعدی، بهعنوان یکی از اصلیترین مثالهای پردازش موازی، شناخته میشود. در پردازش موازی، محاسبات، به تعداد فراوانی مسئله کوچک، تقسیم میشوند؛ تا بهصورت موازی، اجرا گردند. این موضوع، باعث میشود که کار، با سرعت بالاتری، صورت پذیرد.
قابلیت پردازشهای موازی، در کارتهای گرافیکی، باعث شده است که بسیاری از شرکتها، به شکل دیگری، از این کارتها، استفاده کنند. با کمی تغییرات و بهینهسازی پردازندههای گرافیکی، علاوه بر اینگونه محاسبات، میتوان برای پردازشهای موازی غیرگرافیکی نیز از آنها، بهرهبرداری کرد. این موضوع، باعث میشود؛ تا پردازندههای مرکزی، با سرعت بالاتری، محاسبات تکرشتهای را انجام دهند؛ زیرا بسیاری از نرمافزارهای امروزی، هنوز از پردازش موازی، پشتیبانی نمیکنند.
بهترین پردازندههای مرکزی موجود در بازار، معمولا 8 هسته دارند. این در حالی است که پردازندههای گرافیکی، از هزاران هسته، استفاده میکنند. بهعنوان مثال، کارت گرافیکی «NVIDIA Tesla M40» بهکاررفته در سرورهای فیسبوک، 3 هزار و 72 هسته کودا1 (CUDA core) دارد.
کارت گرافیک Nvidia Tesla M40
بهرهگیری از این روش، هزینههای خاص خود را خواهد داشت؛ زیرا نرمافزارهایی که به شیوه یادشده، اجرایی میشوند، باید به صورتی نوشته شده باشند که پردازنده گرافیکی، از عهده محاسبات آنها برآید.
چرا استفاده از پردازنده گرافیکی، برای عملکرد هوش مصنوعی، بهتر است؟
یکی از دلایلی که پردازندههای گرافیکی را به انتخابی مناسب، برای ابررایانهها، تبدیل میکند، تعداد بالای محاسباتی است که بهصورت موازی، انجام میگیرد.
در دهه 90، مفهوم شبکههای عصبی و الگوریتمهای یادگیری عمیق (Deep Learning) - که از روشهای ایجاد هوش مصنوعی هستند - به وجود آمد. با استفاده از پردازندههای گرافیکی و پردازشهای موازی امروزی میتوان با نتایجی بهتر، عمق و سرعت بیشتری به این نوع الگوریتمها داد.
آموزش به شبکههای عصبی، با کمک پردازشهای موازی کارت گرافیکی، سرعت بیشتری نسبت به پردازندههای مرکزی، ایجاد میکند.
شبکههای عصبی بهکاررفته در ابررایانههای گوگل، توانایی تشخیص زبان گفتار، ترجمه آن و جستجوی معنایی دارد.
بخشی از ابر رایانهی بیگ سور که توسط 8 کارت گرافیک Tesla M4 پشتیبانی میشود.
آیا آینده محاسبات، در گرو پردازندههای گرافیکی است؟
قانون مور بیان میکند: «قدرت محاسبات رایانهها، هر سال، نسبت به سال پیش، 2 برابر میشود. این موضوع، با کوچکتر شدن و تولید دمای کمتر قطعات، محقق میگردد؛ زیرا به پردازندههای مرکزی، امکان میدهد؛ با سرعت بیشتری، کار کنند.»
به نظر میرسد؛ این قانون، محدودیتهایی، داشته باشد؛ زیرا با کوچکتر شدن معماری پردازنده مرکزی، تولید آن، سختتر میشود. تا مدتی قبل، بهرهگیری از پردازندههای مرکزی چندهستهای، بهترین راه برای پردازشهای موازی، به شمار میآمد؛ اما پردازنده گرافیکی، این کار را وارد مرحلهای جدید کرد. علاوه بر هوش مصنوعی، از پردازندههای گرافیکی، برای شبیهسازی مغز، موتورهای فیزیک و شبیهسازی رفتار سیالات و چندین مورد دیگر، استفاده میشود.
هماینک ابررایانههای تیانهی دو (Tianhe-2) و تایتان (Titan) که از قدرتمندترین ابررایانههای دنیا هستند، با پردازندههای گرافیکی انویدیا، تغذیه میشوند.
عدهای از تحلیلگران، پیشبینی میکنند که بهوسیله پردازندههای گرافیکی بتوان نسبت به تکامل هوش مصنوعی، با سرعت بالاتری، اقدام نمود. با استفاده از این روش، اجرای محاسبات بسیار پیچیدهتر و افزایش قدرت یادگیری هوشهای مصنوعی، مقدور میگردد. ممکن است؛ در آینده، قدرت هوشهای مصنوعی - که عملکردی مشابه مغز دارند - بهاندازهای افزایش یابد که بتوانند بهتر از انسان، کار کنند.
ابر رایانهی تایتان؛ دومین ابر رایانهی فعلی دنیا
_______________________________
1- کودا مخفف عبارت « Compute Unified Device Architecture » است. این فنآوری بهوسیله شرکت انودیا و بر پایه پردازش موازی، ایجاد شد.