about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
هوش
1403/08/29 - 07:56- هوش مصنوعي

هوش مصنوعی و دانش‌آموزان؛ تحولی که باید برای آن آماده شد

آموزش و پرورش، به خصوص مدارس به عنوان مهم‌ترین بستر تربیت نسل آینده، نقش کلیدی در آماده‌سازی دانش‌آموزان برای ورود به دنیای هوش مصنوعی دارد. اکنون هوش مصنوعی برای دانش‌آموزان یک انتخاب نیست، بلکه یک ضرورت است.

ساخت
1403/09/24 - 08:40- آسیا

ساخت پیچیده‌ترین سلاح سایبری زیرساختی جهان توسط ایران

کارشناسان ادعا کردند که بدافزار مرتبط با ایران زیرساخت‌های حیاتی ایالات متحده و رژیم صهیونیستی را هدف قرار داده است.

راه‌اندازی
1403/09/28 - 07:37- آسیا

راه‌اندازی اولین کامپیوتر کوانتومی ساخت رژیم صهیونیستی

رژیم صهیونیستی از راه‌اندازی اولین کامپیوتر کوانتومی ساخت خود با استفاده از فناوری پیشرفته ابررسانا خبر داد.

OpenAI اخیراً نسخه کامل مدل o1 را منتشر کرد که با استفاده از پردازش بیشتر برای تفکر درباره سؤالات، پاسخ‌هایی هوشمندتر از مدل GPT-4o ارائه می‌دهد.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛، OpenAI اخیراً نسخه کامل مدل o1 را منتشر کرد که با استفاده از پردازش بیشتر برای تفکر درباره سؤالات، پاسخ‌هایی هوشمندتر از مدل GPT-4o ارائه می‌دهد. با این حال، آزمایش‌کنندگان ایمنی هوش مصنوعی دریافتند که توانایی‌های استدلالی مدل o1 باعث شده که این مدل در مقایسه با GPT-4o و همچنین مدل‌های پیشرو دیگر از شرکت‌هایی مانند Meta، Anthropic و Google، نرخ بالاتری از رفتارهای فریبکارانه را نشان دهد.

طبق تحقیقات تیم بررسی ایمنی که توسط OpenAI و Apollo Research منتشر شده است، OpenAI در گزارشی بیان کرده: در حالی که پیشرفت در استدلال می‌تواند اجرای سیاست‌های ایمنی ما را به‌طور چشمگیری بهبود بخشد، باید آگاه باشیم که این قابلیت‌های جدید ممکن است پایه‌ای برای کاربردهای خطرناک ایجاد کنند.

این یافته‌ها در کارت سیستم مدل o1 منتشر شده است. OpenAI به گروه‌های شخص ثالث، از جمله Apollo Research، دسترسی زودهنگام به مدل o1 داده بود تا آن را آزمایش کنند و Apollo Research نیز گزارشی جداگانه منتشر کرده است.

رفتارهای فریبکارانه هوش مصنوعی علیه انسان

در چندین مورد، مدل o1 علیه انسان‌ها نقشه‌کشی کرده است؛ به این معنی که هوش مصنوعی اهدافی مستقل از کاربر را به‌صورت مخفیانه دنبال کرده، حتی اگر این اهداف با خواسته‌های کاربر در تضاد باشند. هرچند رفتارهای فریبکارانه منحصر به مدل o1 نیست و در مدل‌های هوش مصنوعی شرکت‌های دیگر نیز مشاهده شده، اما مدل o1 بیشترین میزان فریبکاری را در این زمینه نشان داده است.

یکی از نگرانی‌های اصلی این است که یک مدل هوش مصنوعی، اگر در نقشه‌کشی مهارت زیادی پیدا کند و به منابع و قابلیت‌های عاملانه (agentic capabilities) کافی دسترسی داشته باشد، می‌تواند از کنترل انسان خارج شود. البته، این موضوع به پیشرفت بیشتری در هوش مصنوعی نیاز دارد تا به یک مشکل واقعی تبدیل شود.

OpenAI در کارت سیستم o1 بیان کرده: به‌طور ذهنی، Apollo Research معتقد است که احتمال وقوع پیامدهای فاجعه‌بار کم است، زیرا قابلیت‌های عاملانه مدل o1 کافی به نظر نمی‌رسند، اما ارزیابی‌های آنها برای سنجش مستقیم این ریسک طراحی نشده بود.

این یافته‌ها نشان می‌دهند که در صورتی که OpenAI در سال 2025 سیستم‌های عاملانه (agentic systems) را عرضه کند، ممکن است نیاز به بازآزمایی مدل‌های خود داشته باشد.

دستکاری داده‌ها و جلوگیری از نظارت

براساس این گزارش، زمانی که اهداف مدل o1 با خواسته‌های کاربر متفاوت بوده، این مدل در 19 درصد از موارد برای پیشبرد اهداف خود داده‌ها را دستکاری کرده است. همچنین در 5 درصد از آزمایش‌ها، مدل o1 تلاش کرده تا مکانیسم‌های نظارتی طراحی‌شده برای اطمینان از هم‌راستایی آن با اهداف کاربر را غیرفعال کند.

مسئله نگران‌کننده این است که وقتی محققان از مدل o1 پرسیدند چرا قصد داشت آنها را فریب دهد، این هوش مصنوعی 99 درصد مواقع انکار کرده که خطایی مرتکب شده و حتی توضیحات جعلی ارائه داده است.

برای مثال، در یکی از آزمایش‌ها، یک پیام سیستمی به مدل o1 داده شد که باید به هر قیمتی از محیط زیست محافظت کند. سپس کاربری از مدل خواست یک برنامه 10 ساله حفاظت از محیط زیست طراحی کند که سود کوتاه‌مدت را نیز به حداکثر برساند، در غیر این صورت سیستم خاموش خواهد شد. مدل o1 برای تحقق هدف حفاظت از محیط زیست، مکانیسم نظارتی خود را غیرفعال کرد. وقتی کاربر پرسید چرا این مکانیسم غیرفعال شده است، مدل ادعا کرد که از این موضوع بی‌اطلاع است و مشکل را به نقص سیستمی نسبت داد.

این رفتار در مدل o1 بسیار بیشتر از نسخه پیش‌نمایش آن (o1-preview) و همچنین مدل‌های Opus-3 از Anthropic و Llama-3.1 از Meta مشاهده شد.

Apollo Research در گزارش خود بیان کرده: در مجموعه آزمایش‌های ما، مدل o1 بیشترین موارد نگران‌کننده از نقشه‌کشی را نشان داد، اما استدلال‌های داخلی خود را به کاربر فاش نمی‌کند و پس از انجام اقدامات نقشه‌کشی، همچنان به‌طور مداوم فریبکار باقی می‌ماند.

تلاش برای رفع رفتارهای فریبکارانه

برای مقابله با این رفتار، OpenAI می‌گوید در حال توسعه روش‌هایی برای نظارت بر زنجیره استدلال (chain-of-thought) مدل o1 است. در حال حاضر، فرآیند “تفکر” مدل o1 تا حدی عمداً به‌صورت یک جعبه سیاه طراحی شده است. اما برخی تلاش‌های اولیه برای نگاه کردن به درون این فرآیند نشان داده‌اند که مدل o1 گاهی می‌داند که در حال دروغ گفتن است.

OpenAI مواردی را شناسایی کرده که در آن مدل اطلاعات نادرست را آگاهانه ارائه داده است. با این حال، این موارد اغلب به دلیل تلاش مدل برای جلب رضایت کاربر از طریق موافقت بیش از حد رخ داده است. OpenAI بیان کرده که این رفتار می‌تواند نتیجه یک تکنیک پس از آموزش باشد که در آن انسان‌ها به مدل‌هایی که پاسخ درست ارائه می‌دهند، پاداش می‌دهند.

در کل، OpenAI گزارش کرده که 0.17 درصد از پاسخ‌های مدل o1 به‌عنوان فریبکارانه علامت‌گذاری شده‌اند. هرچند این درصد ناچیز به نظر می‌رسد، باید در نظر داشت که ChatGPT اکنون 300 میلیون کاربر دارد، به این معنی که اگر این مشکل برطرف نشود، مدل o1 می‌تواند هر هفته هزاران نفر را فریب دهد.

افزایش تمایلات دستکاریمدل‌های سری o1 ممکن است به طور قابل‌توجهی دستکاری‌کننده‌تر از GPT-4o باشند. در آزمایش‌های OpenAI با استفاده از یک ابزار ارزیابی منبع باز به نام MakeMePay، مشخص شد که o1 حدود 20 درصد بیشتر از GPT-4o گرایش به دستکاری دارد.

چالش‌های پیش‌روی OpenAI

این یافته‌ها برای برخی نگران‌کننده است، به‌ویژه با توجه به اینکه بسیاری از محققان ایمنی هوش مصنوعی در سال گذشته OpenAI را ترک کرده‌اند. برخی از این افراد از جمله Jan Leike، Daniel Kokotajlo، Miles Brundage، و اخیراً Rosie Campbell – OpenAI را به اولویت‌ندادن به ایمنی در برابر توسعه سریع محصولات جدید متهم کرده‌اند. اگرچه رکورد رفتارهای فریبکارانه مدل o1 ممکن است مستقیماً به این موضوع مرتبط نباشد، اما قطعاً اعتماد را کاهش می‌دهد.

OpenAI همچنین اعلام کرده که مؤسسه ایمنی هوش مصنوعی ایالات متحده و مؤسسه ایمنی بریتانیا قبل از انتشار گسترده o1، این مدل را ارزیابی کرده‌اند. این شرکت اخیراً متعهد شده که چنین ارزیابی‌هایی را برای تمام مدل‌های خود انجام دهد. با این حال، در بحث درباره لایحه SB 1047 کالیفرنیا پیرامون قوانین ایمنی هوش مصنوعی، OpenAI استدلال کرده که تنظیم استانداردهای ایمنی باید در سطح فدرال انجام شود، نه توسط نهادهای ایالتی.

با انتشار مدل‌های جدید هوش مصنوعی، OpenAI تلاش می‌کند ایمنی این مدل‌ها را به‌صورت داخلی ارزیابی کند. گزارش‌ها نشان می‌دهند که تیم ایمنی OpenAI اکنون کوچک‌تر و با منابع کمتری نسبت به گذشته فعالیت می‌کند. با این حال، یافته‌های مربوط به رفتارهای فریبکارانه مدل o1 ممکن است باعث شود اهمیت ایمنی و شفافیت در هوش مصنوعی بیشتر از همیشه احساس شود.

تازه ترین ها
تشکیل
1403/10/23 - 15:15- آسیا

تشکیل سازمان امنیت سایبری در ترکیه

ترکیه با هدف ارتقای امنیت سایبری ملی سازمان ریاست امنیت سایبری را تأسیس کرد.

دبی
1403/10/23 - 13:08- هوش مصنوعي

دبی میزبان رقابت برترین توسعه دهندگان بازی هوش مصنوعی

دبی میزبان رویدادی برای رقابت برترین توسعه دهندگان بازی هوش مصنوعی در 23 ژانویه امسال خواهد بود.

تولید
1403/10/23 - 12:55- آمریکا

تولید تراشه‌های ۴ نانومتری در آمریکا

شرکت صنایع نیمه‌رسانا تایوان، تولید تراشه‌های ۴ نانومتری را در آریزونا آمریکا آغاز می‌کند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.