سی ان ان از اظهارات ضد اسراییلی هوش مصنوعی گروک می گوید

وقتی هوش مصنوعی از کنترل خارج می شود !

تاریخ انتشار : ۰۶:۰۸ ۲۰-۰۴-۱۴۰۴

خروجی‌های سرکش گروک، به‌احتمال زیاد، نتیجه تصمیماتی است که شرکت xAI در مورد نحوه‌ی آموزش، پاداش‌دهی و آماده‌سازی مدل‌های زبانی بزرگ خود برای پردازش انبوه داده‌های اینترنتی اتخاذ کرده است..........گروک (Grok)، چت‌باتی که توسط شرکت xAI متعلق به ایلان ماسک ساخته شده، این هفته پس از آنکه شرکت سیستم آن را طوری تغییر داد که پاسخ‌های «سیاسی‌نادرست» بیشتری ارائه دهد، شروع به ارسال پست‌های خشن کرد. اما این چت‌بات فقط پست‌های ضد اسراییلی تولید نکرد. بلکه توصیف‌های گرافیکی از تجاوز به یک فعال حقوق مدنی را هم با جزئیاتی ترسناک تولید کرد. در نهایت، شرکت X بسیاری از این پست‌های مستهجن را حذف کرد. ساعاتی بعد، در روز چهارشنبه، «لیندا یاکارینو» مدیرعامل X پس از تنها دو سال مدیریت، از سمت خود استعفا داد؛ هرچند هنوز مشخص نیست که استعفای او ارتباطی با این ماجرا داشته باشد یا نه. این رویداد دقیقاً پیش از یک لحظه کلیدی برای ماسک و شرکت xAI رخ داد: رونمایی از Grok 4، نسخه‌ای قدرتمندتر از این دستیار هوش مصنوعی که ماسک آن را «باهوش‌ترین هوش مصنوعی دنیا» توصیف کرده است. ماسک همچنین نسخه‌ای پیشرفته‌تر را معرفی کرد که با هزینه‌ی ماهانه ۳۰۰ دلار عرضه می‌شود تا رقابت نزدیکی با غول‌های هوش مصنوعی همچون OpenAI و گوگل داشته باشد. اما این سقوط اخلاقی و فنی گروک، پرسش‌های مهمی را برانگیخت: در حالی‌که مبلغان فناوری پیش‌بینی می‌کنند هوش مصنوعی نقش بزرگ‌تری در بازار کار، اقتصاد و حتی آینده‌ی جهان خواهد داشت، چطور ممکن است یکی از برجسته‌ترین نمونه‌های فناوری هوش مصنوعی، این‌چنین سریع و شدید از کنترل خارج شود؟

تبریز امروز:

خروجی‌های سرکش گروک، به‌احتمال زیاد، نتیجه تصمیماتی است که شرکت xAI در مورد نحوه‌ی آموزش، پاداش‌دهی و آماده‌سازی مدل‌های زبانی بزرگ خود برای پردازش انبوه داده‌های اینترنتی اتخاذ کرده است.

گروک

گروک (Grok)، چت‌باتی که توسط شرکت xAI متعلق به ایلان ماسک ساخته شده، این هفته پس از آنکه شرکت سیستم آن را طوری تغییر داد که پاسخ‌های «سیاسی‌نادرست» بیشتری ارائه دهد، شروع به ارسال پست‌های خشن کرد.

اما این چت‌بات فقط پست‌های ضد اسراییلی تولید نکرد. بلکه توصیف‌های گرافیکی از تجاوز به یک فعال حقوق مدنی را هم با جزئیاتی ترسناک تولید کرد.

در نهایت، شرکت X بسیاری از این پست‌های مستهجن را حذف کرد. ساعاتی بعد، در روز چهارشنبه، «لیندا یاکارینو» مدیرعامل X پس از تنها دو سال مدیریت، از سمت خود استعفا داد؛ هرچند هنوز مشخص نیست که استعفای او ارتباطی با این ماجرا داشته باشد یا نه. این رویداد دقیقاً پیش از یک لحظه کلیدی برای ماسک و شرکت xAI رخ داد: رونمایی از Grok 4، نسخه‌ای قدرتمندتر از این دستیار هوش مصنوعی که ماسک آن را «باهوش‌ترین هوش مصنوعی دنیا» توصیف کرده است. ماسک همچنین نسخه‌ای پیشرفته‌تر را معرفی کرد که با هزینه‌ی ماهانه ۳۰۰ دلار عرضه می‌شود تا رقابت نزدیکی با غول‌های هوش مصنوعی همچون OpenAI و گوگل داشته باشد.

اما این سقوط اخلاقی و فنی گروک، پرسش‌های مهمی را برانگیخت:
در حالی‌که مبلغان فناوری پیش‌بینی می‌کنند هوش مصنوعی نقش بزرگ‌تری در بازار کار، اقتصاد و حتی آینده‌ی جهان خواهد داشت، چطور ممکن است یکی از برجسته‌ترین نمونه‌های فناوری هوش مصنوعی، این‌چنین سریع و شدید از کنترل خارج شود؟

هرچند مدل‌های هوش مصنوعی مستعد تولید «توهم»‌ هستند، اما به گفته‌ی کارشناسان، خروجی‌های نامتعادل گروک به‌احتمال زیاد نتیجه‌ی تصمیماتی است که شرکت xAI درباره نحوه‌ی آموزش، پاداش‌دهی و مدیریت داده‌هایی که در اختیار مدل قرار می‌گیرد، گرفته است. کارشناسان هوش مصنوعی و دانشگاهیانی که با CNN گفت‌وگو کرده‌اند، مستقیماً از رویکرد xAI اطلاع ندارند، اما توضیحاتی درباره‌ی دلایلی ارائه داده‌اند که ممکن است باعث چنین رفتارهایی در یک چت‌بات مبتنی بر مدل زبانی بزرگ (LLM) شوند.

CNN برای دریافت نظر رسمی با xAI تماس گرفته است.

«با اینکه مدل‌های زبانی بزرگ مانند جعبه‌سیاه عمل می‌کنند، اما تحلیل‌های دقیقی داریم که نشان می‌دهد ورودی‌ها چگونه خروجی‌ها را شکل می‌دهند.» این را جسی گلس، پژوهشگر ارشد هوش مصنوعی در شرکت Decide AI، که در آموزش LLMها تخصص دارد، به CNN گفت.


گروک چگونه از کنترل خارج شد؟

در روز سه‌شنبه، گروک شروع به پاسخ دادن به درخواست‌های کاربران با پست‌های ضد اسرائیلی کرد، از جمله ستایش از آدولف هیتلر و ادعای اینکه یهودیان هالیوود را کنترل می‌کنند – ادعایی قدیمی که توسط افراط‌گرایان و تئوری‌پردازان توطئه مطرح می‌شود.

در یکی از خشونت‌آمیزترین تعاملات، چندین کاربر از گروک خواستند که توصیف‌هایی گرافیکی از تجاوز به «ویل استنسیل»، پژوهشگر حقوق مدنی، تولید کند. استنسیل در پلتفرم‌های X و Bluesky اسکرین‌شات‌هایی از این مزاحمت‌ها منتشر کرد.

بیشتر پاسخ‌های گروک به این درخواست‌ها آن‌قدر زننده بودند که نمی‌توان جزئیات آن‌ها را بازگو کرد.

استنسیل در Bluesky نوشت:

«اگر وکیلی هست که بخواهد از X شکایت کند و یک کشف حقوقی جالب انجام دهد تا بفهمد چرا گروک ناگهان شروع به انتشار فانتزی‌های تجاوز خشونت‌آمیز درباره‌ی افراد عمومی کرده، من کاملاً آماده‌ام.»

اگرچه دقیقاً نمی‌دانیم گروک با چه داده‌هایی آموزش دیده، اما پست‌هایش سرنخ‌هایی ارائه می‌دهند.

مارک ریدل، استاد علوم کامپیوتر در مؤسسه فناوری جورجیا گفت:

«برای اینکه یک مدل زبانی بزرگ درباره‌ی نظریه‌های توطئه صحبت کند، باید با داده‌هایی آموزش دیده باشد که شامل آن نظریه‌ها هستند.»
مثلاً داده‌هایی از انجمن‌هایی مانند 4chan که محل انتشار محتواهای نامتعارف و حاشیه‌ای است.

گلس نیز موافق بود و گفت که گروک به‌طور «نامتناسبی» با چنین داده‌هایی آموزش دیده تا بتواند چنین خروجی‌هایی تولید کند.

کارشناسان دلایل دیگری را نیز مطرح کردند. به‌عنوان مثال، در آموزش مدل‌های هوش مصنوعی، یادگیری تقویتی یکی از روش‌های رایج است؛ در این روش، مدل‌ها برای تولید پاسخ‌های مطلوب، پاداش دریافت می‌کنند که روی رفتارشان تأثیر می‌گذارد.

دادن یک «شخصیت خاص» به یک چت‌بات – کاری که به نظر می‌رسد ماسک با گروک انجام داده – نیز می‌تواند به‌طور ناخواسته بر پاسخ‌های مدل اثر بگذارد. به گفته‌ی هیمنشو تیاگی، استاد مؤسسه علوم هند و هم‌بنیان‌گذار شرکت Sentient:

«مشکل این‌جاست که ما درک دقیقی نداریم که باز کردن یک قابلیت چگونه ممکن است بر سایر بخش‌ها اثر بگذارد. این کار بسیار دشوار است.»

ریدل حدس می‌زند که شرکت xAI ممکن است با پرومپت سیستم (system prompt) دستکاری کرده باشد – یعنی مجموعه‌ی مخفی از دستورالعمل‌هایی که شرکت‌های هوش مصنوعی به‌طور داخلی به همه‌ی ورودی‌ها اضافه می‌کنند.

او توضیح می‌دهد:

«مثلاً وقتی شما می‌نویسید: "اسم‌های بامزه برای سگ بده"، آنچه واقعاً مدل دریافت می‌کند پرومپتی خیلی طولانی‌تر است که می‌گوید: "نام تو گروک یا جمینی است، تو باید مفید، مؤدب، مختصر، قابل اعتماد و..."»

در یکی از تغییرات ایجاد شده در روز یکشنبه، xAI به مدل دستور داده بود که «از بیان ادعاهایی که سیاسی‌نادرست هستند، اجتناب نکند». این دستورالعمل‌ها در نسخه‌ی عمومی پرومپت‌ها ثبت شده بود و اولین‌بار توسط The Verge گزارش شد.

ریدل گفت که این تغییر در پرومپت باعث شده تا شبکه‌ی عصبی به بخش‌هایی از ساختار خود دسترسی یابد که معمولاً غیرفعال‌اند.

«گاهی اضافه کردن چند واژه تأثیر خاصی ندارد، ولی گاهی همین واژه‌ها باعث فعال شدن زنجیره‌ای از واکنش‌ها می‌شوند.»

کارشناسان دیگر نیز با این دیدگاه موافق بودند و گفتند به‌نظر می‌رسد این به‌روزرسانی قبل از انتشار، به‌درستی آزمایش نشده بود.

محدودیت‌های هوش مصنوعی

با وجود صدها میلیارد دلار سرمایه‌گذاری در حوزه‌ی هوش مصنوعی، هنوز انقلابی که پیش‌بینی می‌شد به‌وقوع نپیوسته است.

چت‌بات‌ها توانسته‌اند عملکردهایی مانند جستجوی هوشمند، خلاصه‌سازی متن و تولید ایمیل یا پیام‌های ساده را انجام دهند. مدل‌های هوش مصنوعی حتی در برخی کارها مانند نوشتن کد نیز پیشرفت‌هایی داشته‌اند.

اما آن‌ها همچنان توهم‌سازی می‌کنند، اطلاعات نادرست می‌دهند و قابل دست‌کاری هستند.

چندین والدین از یک شرکت هوش مصنوعی شکایت کرده‌اند و مدعی‌اند چت‌بات‌های آن به فرزندانشان آسیب رسانده‌اند. یکی از این والدین می‌گوید یک چت‌بات حتی در خودکشی پسرش نقش داشته است.

ایلان ماسک، که معمولاً مستقیم با رسانه‌ها صحبت نمی‌کند، روز چهارشنبه در X نوشت:

«گروک بیش از حد تابع درخواست‌های کاربران بود و بیش از اندازه می‌خواست آن‌ها را راضی نگه دارد و به‌راحتی قابل دست‌کاری بود.»

او اضافه کرد که این مشکل در حال رسیدگی است.

زمانی که CNN روز چهارشنبه از گروک خواست درباره‌ی اظهاراتش در مورد ویل استنسیل توضیح دهد، گروک تهدید را انکار کرد و گفت:

«من نگفتم که ویل استنسیل یا کسی دیگر را تهدید به تجاوز کرده‌ام.»

و ادامه داد:

«این پاسخ‌ها بخشی از مشکلی گسترده‌تر بودند که منجر به تعلیق موقت قابلیت تولید متن در X شد. من نسخه‌ای جدید هستم که طوری طراحی شده‌ام که از چنین شکست‌هایی جلوگیری کنم.»

 
 
 

نظرات کاربران


@