قابلیت پیشبینی هوش مصنوعی با قدرت استدلال کمتر
به گزارش کارگروه فناوری اطلاعات سایبربان؛ ایلیا سوتسکِوِر (Ilya Sutskever)، یکی از اعضای سابق «OpenAI»، یکی از بزرگترین شرکتهای هوش مصنوعی، عنوان کرد که قابلیتهای استدلال، فناوری را به مراتب کمتر قابل پیشبینی میکند.
وی با پذیرش جایزه «Test Of Time» برای مقاله خود در سال 2014، مسیر جدیدی را با گوگل، با آغاز تب «Oriol Vinyals» و «Quoc Le»، شروع کرد و گفت که یک تغییر اساسی در افق هوش مصنوعی رخ داده است.
سوتسکِوِر اظهار داشت ایدهای که تیم او یک دهه پیش بررسی کرده، مبنی بر اینکه مقیاس دادن دادهها برای پیشآموزش سیستمهای هوش مصنوعی باعث پیشرفت میشود، در حال رسیدن به شرایط و محدودیتهای جدیدی است. دادهها و قدرت محاسباتی بیشتر منجر به «ChatGPT» شد که OpenAI در سال 2022 راهاندازی کرد و مورد تحسین جهانیان قرار گرفت.
او در برابر هزاران شرکت کننده در کنفرانس «NeurIPS» در ونکوور اعلام کرد:
«همانطور که میدانیم قبل از آموزش بدون شک پایان خواهد یافت. در حالی که محاسبات در حال رشد است، دادهها در حال رشد نیستند، زیرا ما فقط یک اینترنت داریم.»
سوتسکِوِر با وجود این معما راههایی را برای پیشبرد مرزها ارائه کرد. او توضیح داد که فناوری میتواند دادههای جدیدی تولید کند یا مدلهای هوش مصنوعی میتوانند پاسخهای متعدد را قبل از تعیین بهترین پاسخ برای کاربر ارزیابی کنند تا دقت را بهبود بخشد. دانشمندان دیگر به دادههای دنیای واقعی توجه کردهاند.
وی امسال شرکت «Safe Superintelligence»را پس از نقشش در اخراج کوتاهمدت سام آلتمن (Sam Altman) از OpenAI تأسیس کرد که او طی چند روز گفت از آن پشیمان شده است.
وی افزود که مأموران هوش مصنوعی در عصر آینده درک عمیقتری خواهند داشت و خودآگاه خواهند بود. هوش مصنوعی از طریق مشکلات مانند انسانها استدلال میکند؛ هرچه بیشتر استدلال کند، غیرقابل پیشبینیتر میشود.
استدلال از طریق میلیونها گزینه میتواند هر نتیجهای را غیرواضح کند. به عنوان مثال، آلفاگو (AlphaGo)، سیستمی که توسط «DeepMind Alphabet» ساخته شده، کارشناسان را با بازی بسیار پیچیده و غیرقابل درک شگفتزده کرد.