روشنگری چگونه پایان مییابد؟ (بخش دوم)
سامانههای هوش مصنوعی، بهواسطه رشته عملیات بیشمار خود، بهصورت پیوسته، درحال دریافت و واکاوی دادهها هستند. سپس بر پایه این اقدامات، وضعیت خود را بهبود میبخشند. هوش مصنوعی، به واسطه این سلسله پردازشها، ویژگیهایی را که از قبل برای انسان رزرو شده بودند، توسعه میبخشد. این فرآورده نوظهور، بر اساس اطلاعاتی که دریافت میکند (مانند قوانین یک بازی)، یا دادههایی که خود گردآوری مینماید (برای مثال از طریق تکرار یکمیلیون دفعهای یک پروسه تکراری)، راهبردهای آینده را مدیریت میآورد.
خودروهای بیراننده، تفاوت عملکرد میان کنترل سنتی ازسوی انسانها، نرمافزارهای رایانهای و هوش مصنوعی همهمنظورهای را که در پی جهتیابی است، نشان میدهند. رانندگی نیاز به اجرای تصمیمگیری در موقعیتهایی دارد که پیشبینی و برنامهریزی آنها غیرممکن است. چه اتفاقی میافتد اگر برای مثال، چنین خودرویی مجبور شود بین کشتن پدربزرگ و نوه، یکی را برگزیند؟ چه کسی باید این انتخاب را انجام دهد؟ چرا؟ در میان همه تعیین تکلیفها، کدام برگ خرید، باعث بهینهسازی کوششها میشود؟ و آیا میتوان دلیل آن را توضیح داد؟ این یک چالش است. اگر امکان برقراری ارتباط وجود داشت، پاسخ صادقانه به این مسئله میتوانست مشابه گزینه زیر باشد:
«نمیدانم؛ زیرا من، ریاضیات را دنبال میکنم؛ نه اصول انسانی را». یا «شما درک نمیکنید؛ زیرا من آموزش دیدم که به شیوهای خاص عمل کنم؛ اما توضیح آن را فرا نگرفتهام.» با وجود این، بهنظر میرسد خودروهای بیراننده در طول یک دهه آتی، بهشدت گسترش مییابند.
تحقیقات هوش مصنوعی، تاکنون در زمینههای خاصی محدود شده بودند؛ اما هماکنون پژوهشهای مربوط به آن، به سمتی سوق پیدا کرده است که هوشی برای اجرای وظایف در حوزههای گوناگون بهوجود آید. در یک بازه زمانی قابل اندازهگیری، درصد رو به رشدی از فعالیتهای انسانی، بهوسیله الگوریتمهای هوش مصنوعی هدایت خواهد شد؛ اما این الگوها، تفاسیر ریاضی بهدست آمده از دادهها هستند و هیچ توضیحی ارائه نمیکنند. جالب این که هر چه دنیا شفافتر شود، ابهامات آن نیز بهطور فزایندهای افزایش مییابد. چه چیزی باعث تمایز میان جهانی که ما میشناسیم، از هستی جدید خواهد شد؟ ما چگونه در آن زندگی خواهیم کرد؟ چگونه هوش مصنوعی را مدیریت کرده، بهبود میدهیم، یا از آسیبرسانی به آن - که یکی از اصلیترین نگرانیهای موجود است - جلوگیری میکنیم. هوش مصنوعی، با تسلط روی صلاحیتهای مشخص، بسیار سریعتر و قطعیتر از بشر میتواند در طول زمان، شرایط و خصلتهای انسانی را به داده تبدیل کند.
هوش مصنوعی، در آینده منافع بسیاری را برای عرصه علوم پزشکی، تأمین انرژی پاک، مسائل محیط زیست و زمینههای گوناگون دیگر به همراه دارد؛ اما دقیقا بهعلت این که قضاوت خاص خود را بر پایه آیندهای که هنوز نامشخص است تکمیل میکند، عدم قطعیت و وجود ابهام در نتایج آن طبیعی هستند. در این زمینه، 3 نگرانی اصلی وجود دارد:
اول:
هوش مصنوعی ممکن است دستآوردهایی غیرمنتظره پدید آورد. این فنآوری، در داستانهای عملی تخیلی به آفریننده تبدیل میشود. این خطر وجود دارد که بازدهی مورد بحث، بهعلت کمبود طبیعی، شیوهنامههای انسانی را اشتباه تفسیر کند. یکی از مشهورترین نمونههای اخیر در این رابطه، چت باتی به نام تای (Tay) است. این بات، بهمنظور ایجاد گفتوگویی دوستانه در قالب زبان گفتاری دختری 19 ساله طراحی شده بود؛ اما این هوش مصنوعی ثابت کرد؛ قادر به تعریف قواعد زبانی معقول و صمیمانهای که برای آن، تعریف نمودهاند، نیست و به جای آنها، از عبارات نژادپرستانه، جنسیتی و فسادآمیز در پاسخهای خود بهره میگیرد.
فعالان عالم فنآوری ادعا میکنند که این آزمایش، در اجرا، ضعف و نقص داشته است؛ اما یک ابهام اساسی در این میان وجود دارد. هوش مصنوعی، تا چه اندازهای بهمنظور درک دستورالعملهایی که برای آن تعریف میشود، قابل توسعه است؟ چه رسانهای میتواند به تای، در تعریف معنای تعرض به آن کمک کند؟ کلمهای که انسانها با آن موافق نیستند. آیا میتوانیم برنامه آن هوش مصنوعی را که بیرون از چارچوب انتظار ما عمل میکند، در مرحله ابتدایی، شناسایی و تصحیح کنیم؟ آیا ممکن است هوش مصنوعی، بهجز ابزارهای خودش، انحرافات کوچکی را بهوجود آورد که به مرور زمان، پیامدهای فاجعهبار داشته باشند؟
دوم:
هوش مصنوعی، در دستیابی به اهداف موردنظر، احتمالا فرآیندهای تعقل و ارزش انسانی را تغییر دهد. آلفاگو قهرمان بازی گو را از طریق بهکارگیری یک حرکت راهبردی دور از انتظار شکست داد. حرکتی که انسانها، توقع انجام دادنش را نداشتند و همچنان شیوه مقابله با آن را فرا نگرفتهاند. آیا این حرکات، فراتر از گنجایش مغز انسان است؟ آیا انسانها هماکنون توانایی یادگیری این حرکات را - که ازسوی اساتید جدید به نمایش گذاشته شدهاند - دارند؟
پیش از این که هوش مصنوعی، شروع به اجرای بازی گو کند، این سرگرمی، از اهدافی متنوع و چندلایه بهره میبرد. بازیکنان در این تفریح، نهتنها تلاش میکنند پیروز شوند؛ بلکه راهبردهای نوینی را یاد میگیرند که قابلیت کاربرد در دیگر ابعاد زندگی دارند. در مقابل، هوش مصنوعی فقط به قصد پیروزی، این سرگرمی را انجام میدهد. این محصول ویژه، هیچ مفهومی را جز ریاضیات، با تنظیم دوباره الگوریتمهای خود یاد نمیگیرد. درنتیجه گویا هوش مصنوعی، بهمنظور فراگیری بازی برای پیروزی، طبیعت و تأثیر آن را دگرگون کرده است. آیا این نوآوری تکبعدی را میتوان به همه هوشهای مصنوعی نسبت داد؟
دیگر پروژههای هوش مصنوعی، با گسترش ابزارهایی که توانایی ایجاد طیف وسیعی از پاسخها دارند، روی اصلاح انسان کار میکنند. فراتر از پرسشهای حقیقی مانند: دمای خارج از خانه چقدر است؟، سؤالاتی درباره واقعیت، یا معنای زندگی هستند که فهم مسائل را عمیقتر میکنند. آیا ما میخواهیم کودکانمان، ارزشهای خود را از طریق الگوریتمهای تهدیدآمیز فرا گیرند؟ آیا ما باید یادگیری هوش مصنوعی را در رابطه با پرسشگران، بهمنظور محافظت از حریم خصوصی محدود کنیم؟ اگر پاسخ مثبت است، چگونه به این اهداف دست یابیم؟
اگر هوش مصنوعی، پرشتابتر از انسان یاد بگیرد، ما باید منتظر باشیم که فرآیندهای آزمون و خطا نیز با سرعت بیشتری نسبت به آنان صورت میگیرد. درنتیجه اشتباهاتی بزرگتر و سریعتر از انسانها بهوجود میآیند. همانگونه که پژوهشگران هوش مصنوعی، در اغلب موارد پیشنهاد میدهند، ممکن است کاهش این اشتباهات، با افزوده شدن هشدارهای مورد نیاز، برای نتایج اخلاقی و نامعقول غیرممکن باشد. همه شاخههای دانشگاهی، در تعریف این اصطلاحات ناتوان هستند. درنتیجه آیا هوش مصنوعی باید قاضی خود باشد؟
سوم:
هوش مصنوعی یادشده ممکن است به اهداف موردنظر دست پیدا کند؛ اما نمیتواند برای ثمرات حاصلشده، دلایلی منطقی ارائه دهد. قابلیتهای این فنآوری، در تعدادی از زمینهها مانند: تشخیص الگو، تجزیه و تحلیل ابر داده و بازی، ممکن است از انسانها فراتر رفته باشند. قدرت برآورد هوش مصنوعی، بهصورت پیوسته افزایش پیدا میکند و احتمالا بهزودی میتواند راهکارهایی بهینه و دستکم اندکی متفاوت را نسبت به انسانها ایجاد کند. اما آیا در چنین حالتی قادر است اقدامات خود را بهگونهای قابل درک برای انسانها توضیح دهد؟ آیا تصمیمی که هوش مصنوعی میگیرد، از قدرت تفسیر زبانی و منطقی انسان بهتر است؟
در همه تاریخ بشر تاکنون، جامعه در پی ایجاد راههایی برای توضیح کیهان پیرامون خود است. این عامل در قرون وسطا، «دین»، در عصر روشنگری، دلیل، در قرن 19، تاریخ و در سده 20، ایدئولوژی نام داشت. مهمترین سؤالی که همچنان باقی مانده، این است: جهان ما، به چه سمتی هدایت میشود؟ اگر قدرت تشریح انسان بهوسیله هوش مصنوعی ارتقا یابد، چه مقدار از آگاهی برای وی پدید خواهد آمد؟ مردم جامعه نیز دیگر نمیتوانند برای جهانی که در آن زندگی میکنند، عبارتی معنیدار پیدا کنند؟
چگونه میتوان در دنیایی از ماشینها - که تجربه انسانها، به دادههای ریاضی تفسیرشده از خاطراتشان محدود میشود - اطلاعرسانی را تعریف کرد؟ چه کسی مسئول اقدامات هوش مصنوعی است؟ چطور باید رفتار اشتباه آن تعیین گردد؟ آیا یک سامانه حقوقی طراحیشده ازسوی انسان، قادر به پیشبینی فعالیت هوش مصنوعی است؟
درنهایت کاربرد ترکیب واژگان «هوش مصنوعی» ممکن است برای القای این مفهوم، نادرست باشد. اینگونه ماشینها میتوانند آن دسته مسائل پیچیده و انتزاعی را حل کنند که در گذشته گره شناساییشان، تنها بهوسیله انسان باز میشد. اما چه میشود اگر کاری که انجام میدهند، از روی تفکر و تجربه نباشد، بلکه تنها به حافظه و محاسبات بینظیر مربوط گردد؟
بهدلیل برتریهای طبیعی، هوش مصنوعی در این خصوص، در هر بازی که شرکت کند، پیروز خواهد شد؛ ولی برای اهداف ما، بهعنوان انسان، سرگرمی تنها برای پیروز شدن نیست؛ بلکه بهمنظور اندیشیدن است. با درنظر گرفتن یک فرآیند ریاضی مانند: روند فکری و تلاش انسانها از تقلید این فرآیندها، ما در خطر از دست دادن ظرفیت ادراک آدمی قرار میگیریم.
پیامدهای این تحول، در برنامهای به نام «آلفازیرو» (AlphaZero) - که بهتازگی طراحی شده – قابل مشاهده است. آلفازیرو در سطحی فراتر از استادان شطرنج، این بازی را انجام داد و از سبکی بهره گرفت که در گذشته بیسابقه بود. این هوش مصنوعی، تنها در طول چند ساعت، به سطحی از مهارت دست یافت که برای انسان، رسیدن به آن، یک هزار و 500 سال زمان نیاز دارد. در ابتدا، تنها قوانین پایه به هوش مصنوعی آموزش داده شده بودند. نه انسان و نه دادههای تولیدشده ازسوی وی، در این فرآیند خودآموزشی نقش نداشتند. اگر آلفازیرو، به این سرعت، چنین مهارتی را بهدست آورده است، در مدت 5 سال، آیا تا چه اندازهای پیشرفت میکند؟ تأثیر کلی آن، روی ادراک انسان چیست؟ نقش اصول اخلاقی، در این فرآیند که مربوط به برگزیدنها است، چه میتواند باشد؟
بهطور معمول، چنین سؤالاتی به فعالان فنآوری و روشنفکران حوزههای علمی مربوط میشود. فیلسوفان و دیگر افرادی که در علوم انسانی، به شکلگیری مفاهیم سابق نظم جهان کمک کردهاند، بهعلت عدم آگاهی از سازوکارهای هوش مصنوعی، یا از دست دادن توانایی خود، در معرض محرومیت قرار دارند. در مقابل، جهان علمی بهدنبال کشف فرصتهای فنی دستآوردهای آن است. در دنیای راهبردی، نگرانیهای تجاری، در مقیاسی افسانهای وجود دارند. انگیزه هر 2 بستر، روی محدود کردن اکتشافات، به جای درک آن تمرکز دارد. تا آنجا که به این موضوع مربوط میشود، در حکومتها، از برنامههای کاربردی هوش مصنوعی، به جای تحقیق در زمینه تحولات شرایط انسانی در حوزه امنیت و اطلاعات استفاده خواهد شد.
روشنگری اساسا با دیدگاه فلسفی آغاز شده، با فنآوریهای جدید گسترش مییابد؛ اما دوره ما، در خلاف جهت حرکت میکند. این فنآوری بهطور بالقوه در جستوجوی یک فلسفه راهنما است. دیگر کشورها، طرحهای عظیم و ملی هوش مصنوعی را ایجاد کردهاند. آمریکا هنوز بهعنوان یک ملت، محدوده خود را کاملا مورد مطالعه قرار نداده، دلایل را بررسی، یا روند یادگیری را آغاز نکرده است. توسعهدهندگان هوش مصنوعی، باید شماری از پرسشها را که من در بالا مطرح کردم، بهمنزله بخشی از تلاشهای خود پاسخ دهند. مقامات آمریکا نیز باید بهمنظور کمک به ایجاد توسعه دیدگاهی فراگیر، یک انجمن دولتی متشکل از متفکران برجسته پدید آورند. این موضوع قطعی است. اگر ما بهزودی تلاش خود را دراینباره آغاز نکنیم، پیش از آن که متوجه شویم، بسیار دیر خواهد شد.»
برای مطالعه بخش اول این نوشتار اینجا کلیک کنید.