خروجیهای سرکش گروک، بهاحتمال زیاد، نتیجه تصمیماتی است که شرکت xAI در مورد نحوهی آموزش، پاداشدهی و آمادهسازی مدلهای زبانی بزرگ خود برای پردازش انبوه دادههای اینترنتی اتخاذ کرده است.
گروک (Grok)، چتباتی که توسط شرکت xAI متعلق به ایلان ماسک ساخته شده، این هفته پس از آنکه شرکت سیستم آن را طوری تغییر داد که پاسخهای «سیاسینادرست» بیشتری ارائه دهد، شروع به ارسال پستهای خشن کرد.
اما این چتبات فقط پستهای ضد اسراییلی تولید نکرد. بلکه توصیفهای گرافیکی از تجاوز به یک فعال حقوق مدنی را هم با جزئیاتی ترسناک تولید کرد.
در نهایت، شرکت X بسیاری از این پستهای مستهجن را حذف کرد. ساعاتی بعد، در روز چهارشنبه، «لیندا یاکارینو» مدیرعامل X پس از تنها دو سال مدیریت، از سمت خود استعفا داد؛ هرچند هنوز مشخص نیست که استعفای او ارتباطی با این ماجرا داشته باشد یا نه. این رویداد دقیقاً پیش از یک لحظه کلیدی برای ماسک و شرکت xAI رخ داد: رونمایی از Grok 4، نسخهای قدرتمندتر از این دستیار هوش مصنوعی که ماسک آن را «باهوشترین هوش مصنوعی دنیا» توصیف کرده است. ماسک همچنین نسخهای پیشرفتهتر را معرفی کرد که با هزینهی ماهانه ۳۰۰ دلار عرضه میشود تا رقابت نزدیکی با غولهای هوش مصنوعی همچون OpenAI و گوگل داشته باشد.
اما این سقوط اخلاقی و فنی گروک، پرسشهای مهمی را برانگیخت:
در حالیکه مبلغان فناوری پیشبینی میکنند هوش مصنوعی نقش بزرگتری در بازار کار، اقتصاد و حتی آیندهی جهان خواهد داشت، چطور ممکن است یکی از برجستهترین نمونههای فناوری هوش مصنوعی، اینچنین سریع و شدید از کنترل خارج شود؟
هرچند مدلهای هوش مصنوعی مستعد تولید «توهم» هستند، اما به گفتهی کارشناسان، خروجیهای نامتعادل گروک بهاحتمال زیاد نتیجهی تصمیماتی است که شرکت xAI درباره نحوهی آموزش، پاداشدهی و مدیریت دادههایی که در اختیار مدل قرار میگیرد، گرفته است. کارشناسان هوش مصنوعی و دانشگاهیانی که با CNN گفتوگو کردهاند، مستقیماً از رویکرد xAI اطلاع ندارند، اما توضیحاتی دربارهی دلایلی ارائه دادهاند که ممکن است باعث چنین رفتارهایی در یک چتبات مبتنی بر مدل زبانی بزرگ (LLM) شوند.
CNN برای دریافت نظر رسمی با xAI تماس گرفته است.
«با اینکه مدلهای زبانی بزرگ مانند جعبهسیاه عمل میکنند، اما تحلیلهای دقیقی داریم که نشان میدهد ورودیها چگونه خروجیها را شکل میدهند.» این را جسی گلس، پژوهشگر ارشد هوش مصنوعی در شرکت Decide AI، که در آموزش LLMها تخصص دارد، به CNN گفت.
گروک چگونه از کنترل خارج شد؟
در روز سهشنبه، گروک شروع به پاسخ دادن به درخواستهای کاربران با پستهای ضد اسرائیلی کرد، از جمله ستایش از آدولف هیتلر و ادعای اینکه یهودیان هالیوود را کنترل میکنند – ادعایی قدیمی که توسط افراطگرایان و تئوریپردازان توطئه مطرح میشود.
در یکی از خشونتآمیزترین تعاملات، چندین کاربر از گروک خواستند که توصیفهایی گرافیکی از تجاوز به «ویل استنسیل»، پژوهشگر حقوق مدنی، تولید کند. استنسیل در پلتفرمهای X و Bluesky اسکرینشاتهایی از این مزاحمتها منتشر کرد.
بیشتر پاسخهای گروک به این درخواستها آنقدر زننده بودند که نمیتوان جزئیات آنها را بازگو کرد.
استنسیل در Bluesky نوشت:
«اگر وکیلی هست که بخواهد از X شکایت کند و یک کشف حقوقی جالب انجام دهد تا بفهمد چرا گروک ناگهان شروع به انتشار فانتزیهای تجاوز خشونتآمیز دربارهی افراد عمومی کرده، من کاملاً آمادهام.»
اگرچه دقیقاً نمیدانیم گروک با چه دادههایی آموزش دیده، اما پستهایش سرنخهایی ارائه میدهند.
مارک ریدل، استاد علوم کامپیوتر در مؤسسه فناوری جورجیا گفت:
«برای اینکه یک مدل زبانی بزرگ دربارهی نظریههای توطئه صحبت کند، باید با دادههایی آموزش دیده باشد که شامل آن نظریهها هستند.»
مثلاً دادههایی از انجمنهایی مانند 4chan که محل انتشار محتواهای نامتعارف و حاشیهای است.
گلس نیز موافق بود و گفت که گروک بهطور «نامتناسبی» با چنین دادههایی آموزش دیده تا بتواند چنین خروجیهایی تولید کند.
کارشناسان دلایل دیگری را نیز مطرح کردند. بهعنوان مثال، در آموزش مدلهای هوش مصنوعی، یادگیری تقویتی یکی از روشهای رایج است؛ در این روش، مدلها برای تولید پاسخهای مطلوب، پاداش دریافت میکنند که روی رفتارشان تأثیر میگذارد.
دادن یک «شخصیت خاص» به یک چتبات – کاری که به نظر میرسد ماسک با گروک انجام داده – نیز میتواند بهطور ناخواسته بر پاسخهای مدل اثر بگذارد. به گفتهی هیمنشو تیاگی، استاد مؤسسه علوم هند و همبنیانگذار شرکت Sentient:
«مشکل اینجاست که ما درک دقیقی نداریم که باز کردن یک قابلیت چگونه ممکن است بر سایر بخشها اثر بگذارد. این کار بسیار دشوار است.»
ریدل حدس میزند که شرکت xAI ممکن است با پرومپت سیستم (system prompt) دستکاری کرده باشد – یعنی مجموعهی مخفی از دستورالعملهایی که شرکتهای هوش مصنوعی بهطور داخلی به همهی ورودیها اضافه میکنند.
او توضیح میدهد:
«مثلاً وقتی شما مینویسید: "اسمهای بامزه برای سگ بده"، آنچه واقعاً مدل دریافت میکند پرومپتی خیلی طولانیتر است که میگوید: "نام تو گروک یا جمینی است، تو باید مفید، مؤدب، مختصر، قابل اعتماد و..."»
در یکی از تغییرات ایجاد شده در روز یکشنبه، xAI به مدل دستور داده بود که «از بیان ادعاهایی که سیاسینادرست هستند، اجتناب نکند». این دستورالعملها در نسخهی عمومی پرومپتها ثبت شده بود و اولینبار توسط The Verge گزارش شد.
ریدل گفت که این تغییر در پرومپت باعث شده تا شبکهی عصبی به بخشهایی از ساختار خود دسترسی یابد که معمولاً غیرفعالاند.
«گاهی اضافه کردن چند واژه تأثیر خاصی ندارد، ولی گاهی همین واژهها باعث فعال شدن زنجیرهای از واکنشها میشوند.»
کارشناسان دیگر نیز با این دیدگاه موافق بودند و گفتند بهنظر میرسد این بهروزرسانی قبل از انتشار، بهدرستی آزمایش نشده بود.
محدودیتهای هوش مصنوعی
با وجود صدها میلیارد دلار سرمایهگذاری در حوزهی هوش مصنوعی، هنوز انقلابی که پیشبینی میشد بهوقوع نپیوسته است.
چتباتها توانستهاند عملکردهایی مانند جستجوی هوشمند، خلاصهسازی متن و تولید ایمیل یا پیامهای ساده را انجام دهند. مدلهای هوش مصنوعی حتی در برخی کارها مانند نوشتن کد نیز پیشرفتهایی داشتهاند.
اما آنها همچنان توهمسازی میکنند، اطلاعات نادرست میدهند و قابل دستکاری هستند.
چندین والدین از یک شرکت هوش مصنوعی شکایت کردهاند و مدعیاند چتباتهای آن به فرزندانشان آسیب رساندهاند. یکی از این والدین میگوید یک چتبات حتی در خودکشی پسرش نقش داشته است.
ایلان ماسک، که معمولاً مستقیم با رسانهها صحبت نمیکند، روز چهارشنبه در X نوشت:
«گروک بیش از حد تابع درخواستهای کاربران بود و بیش از اندازه میخواست آنها را راضی نگه دارد و بهراحتی قابل دستکاری بود.»
او اضافه کرد که این مشکل در حال رسیدگی است.
زمانی که CNN روز چهارشنبه از گروک خواست دربارهی اظهاراتش در مورد ویل استنسیل توضیح دهد، گروک تهدید را انکار کرد و گفت:
«من نگفتم که ویل استنسیل یا کسی دیگر را تهدید به تجاوز کردهام.»
و ادامه داد:
«این پاسخها بخشی از مشکلی گستردهتر بودند که منجر به تعلیق موقت قابلیت تولید متن در X شد. من نسخهای جدید هستم که طوری طراحی شدهام که از چنین شکستهایی جلوگیری کنم.»