معماری جدید ترانزیستور بر پایه مغز انسان
به گزارش کارگروه فناوری اطلاعات سایبربان؛ قدرت رایانهها به صورت روزافزون در حال افزایش هستند. از طرفی ابررایانهها و پردازش موازی به یک استاندارد تبدیل شدهاند. با وجود این دانشمندان معتقدند در حال مواجه شدن با محدودیتهای کوچکسازی و مصرف انرژی هستند.
پژوهشگران دانشگاه ایالتی پنسیلوانیا به تازگی ابزاری 2 بعدی ایجاد کردهاند که عملکردی بیش از ارائه پاسخهای بله یا خیر داشته، معماری آن به مغز شباهت دارد.
محققان ذکر کردند:
مقیاس پیچیدگی نیز به دلیل عدم مقیاسپذیری معماری سنتی فون نیومان (Von Neumann) و چالش عصر سیلیکون تاریک (Dark Silicon) –که تهدیدی برای فناوری پردازنده چندهستهای به شمار میآید- در حال کاهش است.
عصر سیلیکون تاریک به این مسئله اشاره دارد که همه یا بیشتر ابزارهای موجود روی تراشههای رایانهای را نمیتوان به صورت همزمان تقویت کرد. این چالش به علت گرمای بیش از حد ایجاد شده در هنگام فعالیت به وجود میآید. در معماری فون نیومان که ساختار استاندارد بیشتر رایانههای امروزی است، به رویکرد دیجیتالی (پاسخهای بله/خیر یا 0/1 ) وابستگی وجود دارد. به این معنی که دستورالعملها و دادهها در یک حافظهی مشابه ذخیره میشوند و کانالهای ارتباطی مشترکی دارند.
ساپتارشی داس (Saptarshi Das)، دانشیار علوم مهندسی و مکانیک گفت:
به علت معماری مذکور نمیتوان به صورت همزمان به دادهها و دستورالعملها دسترسی پیدا کرد. برای تصمیمگیریهای پیچیده به واسطه شبکههای عصبی، شما احتمالاً به مجموعهای از ابررایانهها نیاز دارید که به صورت همزمان از پردازشهای موازی بهره میبرند. این بستر دارای ابعادی معادل یک زمین فوتبال است؛ اما برای مثال دستگاههای قابلحمل حوزه پزشکی نمیتوانند به این شیوه کار کنند.
داس توضیح داد، راهکار ایجاد شبکههای عصبی آنالوگ آماری به ابزارهایی که به سادگی خاموش و روشن میشوند، وابسته نیستند؛ اما طیف گستردهای از پاسخهای احتمالی را ارائه داده، آنها را با پایگاه داده آموختههای موجود در دستگاه مقایسه میکند. پژوهشگران یک ترانزیستور گاوسی (Gaussian field-effect transistor) را با استفاده از مواد دوبعدی توسعه دادند. سطح مصرف انرژی و گرمای تولید شده توسط این قطعه بسیار کم است که آن را برای تولید سامانههای مقیاسپذیر به یک نوآوری ایدئال تبدیل میکند. محققان ابزار خود را «سیناپس گاوسی» (Gaussian synapse) نامیدهاند.
وی ادامه داد:
مغز انسان به صورت یکپارچه روی توان 20 وات کار میکند. سطح مصرف انرژی بسیار کارآمد بوده و 100 میلیارد نورون را شامل میشود. به علاوه از معماری فون نیومان نیز استفاده نمیکند.
انرژی و گرمای تولید شده، تنها چالش پژوهشگران به حساب نمیآید؛ بلکه قرار دادن قطعات در کنار یکدیگر، در فضایی بسیار کوچک نیز مشکلی جداگانه است.
مقام یاد شده افزود:
مقیاسپذیری ابعاد متوقف شده است. ما تنها میتوانیم حدود یک میلیارد ترانزیستور را روی تراشه قرار دهیم. ما به پیچیدگی بیشتری مانند مغز نیاز داریم.
ایده شبکههای عصبی از دهه 80 مطرح شد؛ اما به وجود آوردن آن به ابزارهای خاصی نیاز دارد.
یکی دیگر از پژوهشگران شرح داد:
مشابه مغز، ویژگیهای کلیدی از میان مجموعهای از دادههای آموزشی استخراج میشوند تا به فرآیند یادگیری شبکه عصبی کمک کنند.
محققان شبکه عصبی خود را روی نوار مغز انسانیها که یک نمایش گرافیکی از امواج مغزی است، آزمایش کردند. پس از این که نمونههای بسیاری از کلاه الکترومغزنگاری (EEG) را به شبکه خود وارد کردند، این ابزار توانست سیگنالهای جدید را دریافت کرده و پردازش کند. همچنین قادر بود تشخیص دهد که آیا فرد داوطلب خواب است یا خیر.
داس اظهار کرد:
ما برای آموزش شبکه عصبی خود به حجم داده یا زمان بسیار زیاد نیاز نداریم.
محققان معتقدند شبکه عصبی آماری از کاربردهای گستردهای در زمینه پزشکی برخوردار است. همچنین آنها در زمان پژوهشهای خود دریافتند که دستگاههای پزشکی باید کوچک و قابلحمل باشند و به انرژی کمی نیاز داشته باشند.