23 مرداد 1404
بسیاری از هیجانات و ترسهای پیرامون فناوریهای هوش مصنوعی امروزی به ژانویه ۲۰۲۰ برمیگردد، زمانی که تیمی از محققان OpenAI گزارشی ۳۰ صفحه ای با عنوان «قوانین مقیاس پذیری برای مدلهای زبانی عصبی» منتشر کردند. این تیم به رهبری جرد کاپلان، پژوهشگر هوش مصنوعی، و با حضور داریو آمودئی (مدیرعامل کنونی Anthropic) به این سوال فنی پاسخ دادند: اگر اندازه مدلهای زبانی و حجم داده های آموزشی آنها را افزایش دهیم، عملکردشان چگونه تغییر میکند؟ در آن زمان، بسیاری از متخصصان یادگیری ماشین فکر میکردند که پس از رسیدن به اندازه مشخصی، مدلهای زبانی صرفاً پاسخهای سوالات آموزشی را حفظ میکنند و در نتیجه کارایی کمتری خواهند داشت. اما مقاله OpenAI ادعا کرد که این مدلها با بزرگتر شدن، همچنان بهتر میشوند و این بهبود حتی ممکن است از یک قانون توانی (منحنی پیشرفت سریع) پیروی کند. نتیجه گیری: اگر مدلهای زبانی بزرگتر بسازید و آنها را با داده های بیشتر آموزش دهید، به طور شگفت انگیزی هوشمندتر میشوند. چند ماه بعد، OpenAI با انتشار GPT-3 (که ده برابر بزرگتر از GPT-2 بود و عملکردی به مراتب بهتر داشت) این قانون مقیاس پذیری را تأیید کرد. ناگهان، ایده هوش مصنوعی عمومی (AGI)—که در طیف وسیعی از وظایف همسطح یا برتر از انسان عمل میکند—به واقعیتی نزدیک تبدیل شد. اگر قانون مقیاس پذیری ادامه مییافت، شرکت های هوش مصنوعی با صرف هزینه و قدرت پردازشی بیشتر میتوانستند به AGI دست یابند. کمتر از یک سال بعد، سم آلتمن، مدیرعامل OpenAI، پستی با عنوان «قانون مور برای همه چیز» منتشر کرد و ادعا کرد که هوش مصنوعی به تدریج «کارهایی که امروز انسانها انجام میدهند» را انجام خواهد کرد و ثروتی غیرقابل تصور برای صاحبان سرمایه ایجاد میکند. او نوشت: «این انقلاب فناوری متوقف نشدنی است.» سخت است باور کنیم که جامعه هوش مصنوعی چقدر به این ایده باور داشت که مقیاس پذیری به AGI منجر خواهد شد. در سال ۲۰۲۲، گری مارکوس (کارآفرین هوش مصنوعی و استاد بازنشسته روانشناسی و علوم اعصاب دانشگاه نیویورک) به مقاله کاپلان انتقاد کرد و گفت: «این قوانین مقیاس پذیری مانند جاذبه جهانی نیستند، بلکه صرفاً مشاهداتی هستند که ممکن است همیشه پابرجا نباشند.» واکنش ها تند و سریع بود. مارکوس بعدها گفت: «هیچ مقاله ای از من تا این حد مورد تمسخر قرار نگرفته بود—از سم آلتمن و گرگ براکمن گرفته تا یان لوکون و ایلان ماسک.» او به من گفت که این اظهارات عملاً او را از دنیای یادگیری ماشین «تکفیر» کرد.
تبریز امروز:
نوشته کال نیوپورت
۱۲ اوت ۲۰۲۵
بسیاری از هیجانات و ترسهای پیرامون فناوریهای هوش مصنوعی امروزی به ژانویه ۲۰۲۰ برمیگردد، زمانی که تیمی از محققان OpenAI گزارشی ۳۰ صفحه ای با عنوان «قوانین مقیاس پذیری برای مدلهای زبانی عصبی» منتشر کردند. این تیم به رهبری جرد کاپلان، پژوهشگر هوش مصنوعی، و با حضور داریو آمودئی (مدیرعامل کنونی Anthropic) به این سوال فنی پاسخ دادند: اگر اندازه مدلهای زبانی و حجم داده های آموزشی آنها را افزایش دهیم، عملکردشان چگونه تغییر میکند؟
در آن زمان، بسیاری از متخصصان یادگیری ماشین فکر میکردند که پس از رسیدن به اندازه مشخصی، مدلهای زبانی صرفاً پاسخهای سوالات آموزشی را حفظ میکنند و در نتیجه کارایی کمتری خواهند داشت. اما مقاله OpenAI ادعا کرد که این مدلها با بزرگتر شدن، همچنان بهتر میشوند و این بهبود حتی ممکن است از یک قانون توانی (منحنی پیشرفت سریع) پیروی کند. نتیجه گیری: اگر مدلهای زبانی بزرگتر بسازید و آنها را با داده های بیشتر آموزش دهید، به طور شگفت انگیزی هوشمندتر میشوند. چند ماه بعد، OpenAI با انتشار GPT-3 (که ده برابر بزرگتر از GPT-2 بود و عملکردی به مراتب بهتر داشت) این قانون مقیاس پذیری را تأیید کرد.
ناگهان، ایده هوش مصنوعی عمومی (AGI)—که در طیف وسیعی از وظایف همسطح یا برتر از انسان عمل میکند—به واقعیتی نزدیک تبدیل شد. اگر قانون مقیاس پذیری ادامه مییافت، شرکت های هوش مصنوعی با صرف هزینه و قدرت پردازشی بیشتر میتوانستند به AGI دست یابند. کمتر از یک سال بعد، سم آلتمن، مدیرعامل OpenAI، پستی با عنوان «قانون مور برای همه چیز» منتشر کرد و ادعا کرد که هوش مصنوعی به تدریج «کارهایی که امروز انسانها انجام میدهند» را انجام خواهد کرد و ثروتی غیرقابل تصور برای صاحبان سرمایه ایجاد میکند. او نوشت: «این انقلاب فناوری متوقف نشدنی است.»
سخت است باور کنیم که جامعه هوش مصنوعی چقدر به این ایده باور داشت که مقیاس پذیری به AGI منجر خواهد شد. در سال ۲۰۲۲، گری مارکوس (کارآفرین هوش مصنوعی و استاد بازنشسته روانشناسی و علوم اعصاب دانشگاه نیویورک) به مقاله کاپلان انتقاد کرد و گفت: «این قوانین مقیاس پذیری مانند جاذبه جهانی نیستند، بلکه صرفاً مشاهداتی هستند که ممکن است همیشه پابرجا نباشند.» واکنش ها تند و سریع بود. مارکوس بعدها گفت: «هیچ مقاله ای از من تا این حد مورد تمسخر قرار نگرفته بود—از سم آلتمن و گرگ براکمن گرفته تا یان لوکون و ایلان ماسک.» او به من گفت که این اظهارات عملاً او را از دنیای یادگیری ماشین «تکفیر» کرد.
سپس ChatGPT با سرعتی بی سابقه به ۱۰۰ میلیون کاربر رسید. در مارس ۲۰۲۳، GPT-4 چنان پیشرفتی داشت که یک مقاله تحقیقاتی مایکروسافت با عنوان «جرقههای هوش مصنوعی عمومی» را الهام بخشید. در سال بعد، سرمایهگذاریهای خطرپذیر در حوزه هوش مصنوعی ۸۰٪ افزایش یافت.
اما پس از آن، پیشرفت کند شد. OpenAI بیش از دو سال هیچ مدل انقلابی جدیدی معرفی نکرد و در عوض بر انتشار مدلهای تخصصی تمرکز کرد که برای عموم مردم قابلدرک نبودند. برخی صداهای داخلی صنعت شروع به شک کردند که آیا قانون مقیاسپذیری دارد از کار میافتد؟ ایلیا ساتسکور، یکی از بنیانگذاران OpenAI، در نوامبر به رویترز گفت: «دهه ۲۰۱۰ عصر مقیاسپذیری بود، حالا دوباره در عصر کشف و شگفتی هستیم. همه بهدنبال چیز بعدی هستند.» یک مقاله TechCrunch در همان زمان نوشت: «همه حالا اعتراف میکنند که نمیتوانید صرفاً با قدرت پردازشی و دادههای بیشتر، مدلهای زبانی بزرگ را آموزش دهید و انتظار داشته باشید به یک خدای دیجیتال همهچیزدان تبدیل شوند.»
اما این اظهارات زیر سایه ادعاهای دیگر رهبران هوش مصنوعی گم شد. داریو آمودئی اخیراً به اندرسون کوپر گفت: «هوش مصنوعی دارد از انسانها در تقریباً همه وظایف فکری پیشی میگیرد.» او به Axios پیشبینی کرد که نیمی از مشاغل یقهسفیدِ سطح ابتدایی در ۱ تا ۵ سال آینده «نابود خواهند شد.» این تابستان، سم آلتمن و مارک زاکربرگ ادعا کردند که شرکتهایشان نزدیک به ساخت «ابرهوش» هستند.
سپس هفته گذشته، OpenAI در نهایت GPT-5 را منتشر کرد—مدلی که بسیاری امیدوار بودند جهش بزرگی در قابلیتهای هوش مصنوعی ایجاد کند. بررسیهای اولیه نشان داد که برخی ویژگیها بهبود یافتهاند. مثلاً یک یوتیوبر مشهور متوجه شد که GPT-5 در ساخت یک بازی شطرنج با مهرههای پوکمون بهتر از GPT-4o-mini-high عمل میکند یا میتواند اسکریپتهای بهتری برای کانال یوتیوبش بنویسد. اما GPT-4o در تولید تصاویر یوتیوب و دعوتنامههای جشن تولد بهتر بود، و GPT-5 همچنان میتوانست اطلاعات نادرست بسازد. کاربران رددیت بهسرعت ناامیدی خود را ابراز کردند. یک پست آن را «بدترین مدل حتی برای کاربران پولی» نامید. مارکوس هم گفت GPT-5 «دیررسیده، بیشازحد تبلیغ شده و ناامیدکننده است.»
پس از عرضه GPT-5، دیگر نمیتوان پیشبینیهای اغراقآمیز درباره هوش مصنوعی را جدی گرفت. به نظر میرسد دیدگاههای منتقدانی مثل مارکوس حالا معقولتر هستند. آنها میگویند این فناوری مهم است، اما زندگی ما را دگرگون نخواهد کرد. آنها از ما میخواهند سناریوی دیگری را در نظر بگیریم: «شاید هوش مصنوعی از این خیلی بهتر نشود.»
OpenAI نمیخواست دو سال و نیم برای عرضه GPT-5 صبر کند. طبق گزارش The Information، تا بهار ۲۰۲۴، سم آلتمن به کارمندان گفته بود که مدل بعدی (با نام رمز Orion) بهمراتب بهتر از GPT-4 خواهد بود. اما تا پاییز مشخص شد که نتایج ناامیدکننده است. بهبود عملکرد Orion نسبت به GPT-4 بسیار کمتر از جهش GPT-3 به GPT-4 بود.
این شکست ترس فزاینده صنعت را تقویت کرد: شاید قانون مقیاسپذیری اصلاً قانون نبود. اگر ساخت مدلهای بزرگتر بازدهی کمتری داشت، شرکتها باید راهبرد جدیدی مییافتند. آنها به «بهبودهای پس از آموزش» (Post-Training) روی آوردند.
پیشآموزی (Pre-Training): مدل کل اینترنت را میخواند تا دانش کلی کسب کند.
پسآموزی (Post-Training): مدلِ ازپیشآموزشدیده را برای وظایف خاص تنظیم میکنند، مثلاً با یادگیری تقویتی یا تخصیص منابع پردازشی بیشتر.
مثال ماشین: پیشآموزی خودرو را میسازد، پسآموزی آن را تقویت میکند. اگر GPT-3 یک سدان بود، GPT-4 یک اسپورت بود. اما وقتی این روند متوقف شد، صنعت به «مکانیکهای مدل» تبدیل شد—با تکنیکهای پسآموزی سعی کردند مدلهای موجود را ارتقا دهند.
OpenAI در معرفی GPT-5 دهها نمودار ارائه داد که نشان میداد در مواردی مثل کدنویسی چندزبانه یا استدلال فضایی چندوجهی بهتر از قبل عمل میکند. اما:
بهبودها جزئی و محدود هستند، نه انقلابی مثل GPT-4.
برخی معیارها گمراهکنندهاند. مثلاً یک تحقیق اپل نشان داد مدلهای استدلالی وقتی با مسائل پیچیدهتر مواجه میشوند «عملکردشان به صفر میرسد».
کاربران واقعی تفاوت محسوسی احساس نمیکنند.
هوش مصنوعی بهتدریج بهتر میشود، اما نه آنقدر که بازار کار را دگرگون کند.
برخی مشاغل (مثل برنامهنویسی یا نویسندگی محتوا) تحت تأثیر قرار میگیرند، اما بیکاری گسترده رخ نمیدهد.
شرکتهای فناوری با حباب سرمایهگذاری مواجه میشوند. طبق تحلیل اد زیتران، ۳۵٪ ارزش بازار سهام آمریکا به ۷ شرکت بزرگ فناوری (مثل OpenAI و متا) وابسته است—شرکتهایی که ۵۶۰ میلیارد دلار برای هوش مصنوعی هزینه کردهاند، اما درآمدشان تنها ۳۵ میلیارد دلار بوده است.
حتی منتقدان میگویند نباید بیخیال شد. مارکوس معتقد است اگرچه تمرکز روی مدلهای زبانی اشتباه بود، اما با تکنیکهای جدید AGI تا دهه ۲۰۳۰ ممکن است. ما باید از این فرصت استفاده کنیم تا:
قوانین مناسب برای هوش مصنوعی تنظیم کنیم.
اخلاق دیجیتال را تقویت کنیم.
در بخش «هشدارها» مقاله قانون مقیاسپذیری (۲۰۲۰) نوشته شده بود: «در حال حاضر درک نظری محکمی از این قوانین نداریم.» در عمل، این قوانین تا زمانی کار کردند که دیگر کار نکردند. هوش مصنوعی هنوز یک راز است—و ما باید با فروتنی بیشتری با آن برخورد کنیم.
اخبار ، گزارشات ، عکسها و فیلم های خود را برای ما ارسال دارید . برای ارسال میتوانید از طریق آدرس تلگرامی یا ایمیل استفاده کنید.