13 مرداد 1402
یکی از سوالاتی که اغلب از مقامات واشنگتن دریافت می شود این است: "چه کسی برنده مسابقه هوش مصنوعی آمریکا و چین است؟" پاسخ ساده و نگرانکننده است: هوش مصنوعی برنده است و ما برای آنچه که به ارمغان خواهد آورد، آماده نیستیم. در دهه گذشته، سیستمهای پیشرفته هوش مصنوعی از شکست دادن بازیهای ویدیویی ساده به حل چالشهای علمی چند دههای مانند تا کردن پروتئین، سرعت بخشیدن به اکتشافات علمی و تسریع توسعه داروهای با مولکولهای کوچک حرکت کردند. سریعترین شاخه هوش مصنوعی در حال تولید مدلهای زبانی بزرگ مانند ChatGPT OpenAI است، . پیشرفت زیادی در این مدلها ناشی از یک بینش مهندسی نسبتاً ساده - فرضیه مقیاسبندی - است که با استفاده از نرمافزارهای تخصصی و آرایههای وسیعی از رایانههای تحت شبکه به دقت پیادهسازی شده است. این فرضیه پیشبینی میکند که هرچه یک مدل هوش مصنوعی بزرگتر باشد - دادهها، محاسبات و پارامترهای بیشتری را در خود جای دهد - عملکرد بهتری خواهد داشت و بدون در نظر گرفتن اینکه آیا در حال تولید پیشنویس یک سخنرانی است، میتواند بیشتر به هوش تقلید کند یا به آن نوشتن نرم افزار کامپیوتری، طراحی سلاح های جدید، یا آموزش ریاضی به بچه ها دست یابد.
تبریز امروز:
نوشته ماریانو فلورنتینو کوئلار، رئیس بنیاد کارنگی برای صلح بینالمللی، و مت شیهان، یکی از اعضای بنیاد کارنگی برای صلح بینالمللی.
یک تصویر ترسیمی بافتی نشان میدهد که یک بازوی هوش مصنوعی رباتیک پرچمی را از میان قاب سیمی کرهای حاوی دو فیگور به شکل انسان در حال کشتی با رنگهای ایالات متحده و چین روی هر کدام نشان میدهد تا داستانی درباره رقابت جهانی بر سر هوش مصنوعی داشته باشد.
تصویر برایان استاوفر
یکی از سوالاتی که اغلب از مقامات واشنگتن دریافت می شود این است: "چه کسی برنده مسابقه هوش مصنوعی آمریکا و چین است؟" پاسخ ساده و نگرانکننده است: هوش مصنوعی برنده است و ما برای آنچه که به ارمغان خواهد آورد، آماده نیستیم.
در دهه گذشته، سیستمهای پیشرفته هوش مصنوعی از شکست دادن بازیهای ویدیویی ساده به حل چالشهای علمی چند دههای مانند تا کردن پروتئین، سرعت بخشیدن به اکتشافات علمی و تسریع توسعه داروهای با مولکولهای کوچک حرکت کردند. سریعترین شاخه هوش مصنوعی در حال تولید مدلهای زبانی بزرگ مانند ChatGPT OpenAI است، . پیشرفت زیادی در این مدلها ناشی از یک بینش مهندسی نسبتاً ساده - فرضیه مقیاسبندی - است که با استفاده از نرمافزارهای تخصصی و آرایههای وسیعی از رایانههای تحت شبکه به دقت پیادهسازی شده است. این فرضیه پیشبینی میکند که هرچه یک مدل هوش مصنوعی بزرگتر باشد - دادهها، محاسبات و پارامترهای بیشتری را در خود جای دهد - عملکرد بهتری خواهد داشت و بدون در نظر گرفتن اینکه آیا در حال تولید پیشنویس یک سخنرانی است، میتواند بیشتر به هوش تقلید کند یا به آن نوشتن نرم افزار کامپیوتری، طراحی سلاح های جدید، یا آموزش ریاضی به بچه ها دست یابد.
تصویر روی جلد مجله فارین پالیسی یک تصویر درخشان هوش مصنوعی را نشان می دهد که از انبوهی از ماشین آلات فناورانه و نیمه هادی ها بیرون می آید. متن روی تصویر چنین است: تقلا برای هوش مصنوعی. پل شار، استنلی مک کریستال، آلوندرا نلسون و متفکران دیگر در طلوع عصر جدیدی در ژئوپلیتیک.
دانشمندان هوش مصنوعی در مورد اینکه همه اینها به کجا میرود تقسیم شدهاند. برخی میبینند که فرضیه مقیاسبندی همچنان به ثمر مینشیند، زیرا سیستمهای مربوطه توسط انسانها و در نهایت توسط خود ماشینها پالایش میشوند، تا زمانی که مدلهایی را بسازیم که از هوش انسانی پیشی بگیرند. برخی دیگر نسبت به مدلهای زبانی بزرگ بدبین هستند و تردید دارند که افزایش آنها چیزی قابل مقایسه با هوش انسانی به همراه داشته باشد. اگر گروه مقیاسپذیر درست باشد، خطرات ناشی از مدلهای قدرتمندی که غیرقابل پیشبینی رفتار میکنند، میتوانند فاجعهبار یا حتی وجودی باشند. این مدل ها در حال حاضر قادر به بیان برنامه هایی برای دور زدن محدودیت های اعمال شده توسط طراحان خود هستند.
اما حتی اگر شک و تردیدها درست باشد، هوش مصنوعی امروزی همچنان قرار است اقتصاد و جامعه ما را متحول کند. الگوریتمها در حال حاضر بر افرادی که در ایالات متحده آزادی مشروط میگیرند تأثیر میگذارند و آماده افزایش اطلاعات نادرست هستند. مدلهای زبانی بزرگ فرصتهای آموزشی را گسترش میدهند، اما احتمالاً سوگیریها و دروغهای «توهم» را بازتولید میکنند، و متنی را تولید میکنند که به نظر معقول میآید اما ریشه در واقعیت ندارد. این مدلها با استفاده از اینترنت، کارگران را استخدام میکنند، مردم را فریب میدهند و روابط اجتماعی را تغییر میدهند. در مجموع، این امر ساختار اقتصادی، سیاسی و اجتماعی ما را تحت فشار قرار خواهد داد.
صرف نظر از اینکه کدام اردو درست است، محرکهای فنی پیشرفتهای اخیر هوش مصنوعی - بازگشت به مقیاس در ساخت مدلها - به این معنی است که ایالات متحده نمیتواند قاطعانه روی «برنده شدن» در مسابقه هوش مصنوعی با چین و سپس تنظیم فناوری بعد از آن سرمایهگذاری کند. پیشرفتهای الگوریتمی اصلی که مدلهای زبان بزرگ امروزی را تقویت میکند، سالهاست که وجود دارد. بسیاری از پیشرفتهای اخیر از آزمایشگاهها به دست میآید که به سادگی ایدههای الگوریتمی اصلی را تغییر میدهند و از مدلهای بزرگتر برای یادگیری از حجم وسیعی از دادهها استفاده میکنند. به عبارت دیگر، پیشرفت چین در زمینه هوش مصنوعی می تواند کند شود، اما به احتمال زیاد نمی توان آن را متوقف کرد. با پیشرفت و انتشار هوش مصنوعی در سراسر جامعه، ایالات متحده و جامعه باز آن را به همان اندازه – اگر نه بیشتر – چین به چالش بکشد.
بنابراین، رهبران ایالات متحده برای رسیدن به این لحظه باید تعریف خود را از موفقیت در سیاست هوش مصنوعی تغییر دهند. موفقیت در سیاست هوش مصنوعی تنها پیشی گرفتن از چین نیست. این امر مستلزم ایجاد رابطه ای با فناوری است که آمریکایی ها می توانند با آن زندگی کنند و ارتباطی که خطر حوادث فاجعه بار در تعاملات ایالات متحده را کاهش دهد.
با چین بهجای اینکه هرچه سریعتر به سرعت پیش برویم، باید کار سخت لازم را انجام دهیم تا تعادلی بین ارتقای پیشرفت در هوش مصنوعی و مدیریت محتاطانه فناوری بهگونهای که برای آمریکاییها و جهان منطقی باشد، ایجاد کنیم.
بازدیدکنندگان در نمایشگاه بینالمللی امنیت و امنیت عمومی چین در سال 2018، به یک برنامه نرمافزار امنیتی هوش مصنوعی روی صفحهای پر از نمودارها و گرافیکهایی با متن به حروف چینی نگاه میکنند.
ترس از اینکه چین در زمینه هوش مصنوعی از ایالات متحده پیشی بگیرد در تمام بحث های سیاستی در مورد این فناوری در واشنگتن وجود دارد. چین در واقع یک رقیب جدی است که مقالات تحقیقاتی برتر هوش مصنوعی را همتراز با ایالات متحده تولید می کند و این فناوری را در اقتصاد و دستگاه نظارت داخلی خود به کار می گیرد. وقتی صحبت از ساخت قویترین مدلهای هوش مصنوعی به میان میآید، چین پیرو سریع آزمایشگاههای ایالات متحده بوده و اغلب مدلهای قابل مقایسه را ظرف چند سال تولید میکند.
و از نظر ژئوپلیتیکی، منافع متفاوت چین چالشهای بزرگی برای ایالات متحده ایجاد میکند. استفاده مستبدانه آن از هوش مصنوعی - برای نظارت و ردیابی اقلیتهای قومی - به عنوان یک الهام برای خودکامگان و یک علامت هشدار برای جوامع دموکراتیک است.
روی هم رفته، این تنشها دولت ایالات متحده را بر آن داشته تا مجموعهای از سیاستها را برای هدف قرار دادن توسعه هوش مصنوعی چین اجرا کند که مؤثرترین آنها کنترل صادرات سال گذشته بر روی تراشههای مورد استفاده برای آموزش سیستمهای هوش مصنوعی است. ممکن است محدودیتهای بیشتری برای دسترسی چینیها به سختافزار و نرمافزار مرتبط با هوش مصنوعی اعمال شود.
اما با وجود این محدودیت ها، قابلیت های هوش مصنوعی چین از بین نمی رود. این کشور دارای اکوسیستم هوش مصنوعی داخلی - استعداد پژوهشی، دادهها و سرمایهگذاری شرکتی - است تا نزدیک به لبه برش جهانی باقی بماند. و ماهیت پیشرفتهای اخیر هوش مصنوعی - بازگشت آن به مقیاس - به این معنی است که پیشرفت تحقیقاتی مخفی وجود ندارد که ما فقط باید از دست چین دور نگه داریم. کنترلهای تراشههای سال گذشته نشاندهنده یک مانع مهم اما غیرقابل غلبه در افزایش مقیاسپذیری مدلهای بزرگ است. چین می تواند با استفاده از تراشه ها، استعدادهای پژوهشی و دانش در دسترس خود، به مقیاس بندی، تکرار و بهبود بهترین مدل های خود ادامه دهد. دولت ایالات متحده باید به کار برای ایجاد یک مزیت استراتژیک ادامه دهد، اما همچنین باید با این واقعیت روبرو شود که چین احتمالاً در اینجا در هوش مصنوعی باقی خواهد ماند.
این برای سیاست هوش مصنوعی ایالات متحده چه معنایی دارد؟ ایالات متحده نمی تواند «برنده شدن» در مسابقه هوش مصنوعی را پیش نیازی برای اداره موثر این فناوری و تنظیم آن در صورت لزوم قرار دهد. در عوض باید همزمان برای جهانی آماده شود که در آن چین به سیستمهای هوش مصنوعی بسیار پیشرفته مجهز شود و همچنین جهانی که هوش مصنوعی خود ایالات متحده را متحول کند. کسبوکارها از مدلهای هوش مصنوعی مولد برای جابجایی کارگران و ایجاد محصولات جدید خیرهکننده استفاده خواهند کرد، در حالی که سایرین از همان مدلها برای کلاهبرداری از افراد، انتشار اطلاعات نادرست و دستیابی به دانش جدید استفاده میکنند که خطرات امنیت زیستی و امنیت سایبری را به همراه دارد.
مقابله با این چالشها در خانه نه تنها نیازمند قدردانی از تمام مزایایی است که ممکن است از این مدلهای جدید و نوظهور هوش مصنوعی حاصل شود، بلکه به تمایل به آزمایش ساختارهای حکمرانی جدید برای هوش مصنوعی نیز نیاز دارد. حکمرانی مسئولانه به معنای قواعد فرمان و کنترل ناهموار نیست، بلکه رویکردهای متناسبی است که ظرفیتی را برای مقابله با چالش های پیچیده هوش مصنوعی ایجاد می کند. دادگاه ها برای حل و فصل اختلافات مربوط به مسئولیت مربوط به هوش مصنوعی در دسترس هستند. آژانسها در سراسر دولت فدرال ایالات متحده در حال حاضر با نیاز به توضیح الگوریتمی زمانی که متقاضی اعتباری ندارد و قوانین مربوط به تبلیغات بومی را برای سیستمهای تولیدی که کاربران را دستکاری میکنند، با مسائل مشخصی دست و پنجه نرم میکنند. تخصیص پول بیشتر برای اینکه این آژانس ها بتوانند مشاوران سیاستی با سواد هوش مصنوعی را استخدام کنند، توانایی های فنی دولت را تسریع می کند. این استخدامهای جدید میتوانند سیاستهای دپارتمان را برای مقابله با چالشهای هوش مصنوعی خاص بخش ایجاد کنند. اگر اقدام دولت برای جلوگیری از خطرات فاجعهبار هوش مصنوعی ضروری باشد، این سیاستگذاران فنی ماهر میتوانند به تدوین این سیاستها کمک کنند.
چه با تدوین دقیق قوانین و چه از طریق اقدامات اجرایی مناسب، استفاده جامعه از مدلهای هوش مصنوعی میتواند مشمول الزامات شفافیت معنیداری باشد که با نیاز به معیارهای شخص ثالث و ممیزی برای موسسات بیشتر تقویت شود.
مدلهای قدرتمند با قابلیتهای بالقوه که اهداف یا محدودیتهای سازندگان خود را به چالش میکشند. ایجاد بازارهای نظارتی پیچیده برای این نوع ممیزی ها - با اجازه دادن به اشخاص ثالث تأیید شده مناسب برای تأیید اینکه مدل های خاص ایمن هستند و در غیر این صورت تقریباً مطابق با پیش بینی رفتار می کنند - زمان می برد. اما یک گام موقت مفید، الزامات توسعه دهندگان بزرگ ترین و تواناترین مدل ها برای انجام یک "ارزیابی ریسک فاجعه آمیز" قابل اعتماد، با تشریح اقدامات انجام شده برای بررسی و کاهش این خطرات و انتشار نتایج است. یک طرح ثبت نام با دقت طراحی شده و غیر بوروکراتیک می تواند به اطمینان حاصل شود که این مدل ها قبل از در دسترس قرار گرفتن در اختیار صدها میلیون یا حتی میلیاردها نفر، بررسی لازم را دریافت می کنند.
از قبل میتوانیم مخالفت اصلی را پیشبینی کنیم: اگر حتی اقدامات محدودی را برای کنترل هوش مصنوعی اجرا کنیم، به چین برتری خواهیم داد. اما کسانی که می ترسند این نوع مقررات هوش مصنوعی در ایالات متحده به چین کمک کند، احتمالاً به اقدامات حاکمیتی هوش مصنوعی خود چین توجه نکرده اند. در دو سال گذشته، چین برخی از دقیقترین و سختگیرانهترین مقررات را برای شرکتهای هوش مصنوعی خود وضع کرده است، از جمله ارزیابیهای امنیتی برای الگوریتمها و افشای اجباری دادههای آموزشی و مشخصات مدل. در ماه آوریل، چین این موضوع را با پیش نویس مقرراتی که به طور خاص هوش مصنوعی مولد را هدف قرار می دهد، دنبال کرد. این پیش نویس تعهدات منحصر به فرد برای نظام سیاسی چین را ترکیب می کند، مانند اینکه محتوای تولید شده منعکس کننده «ارزش های اصلی سوسیالیستی» باشد، با خواسته های اصلی بین المللی، مانند حمایت از مالکیت معنوی. به طور قابلتوجه، این مقررات الزاماتی را تحمیل میکند که دادههای آموزشی و خروجیهای تولید شده «درست و دقیق» باشند - این یک کار بسیار دلهرهآور برای مدلهایی است که در میلیاردها صفحه وب آموزش داده میشوند و به طور منظم اظهارات نادرست واقعی تولید میکنند.
پیشنویس مقررات موضوع بحثهای زیادی در محافل خطمشی هوش مصنوعی چین است و تلاش خود دولت چین برای ایجاد تعادل بین مقررات مؤثر و رهبری هوش مصنوعی را نشان میدهد. علیرغم تمایل حزب کمونیست چین برای هدایت توسعه هوش مصنوعی چین، اکثریت عمده کارهای معنادار هنوز در آزمایشگاههای بخش خصوصی و محیطهای دانشگاهی انجام میشود، جایی که محققان با محدودیتهای منابع روبرو هستند و میترسند که مقررات طاقتفرسا مانع کار آنها شود.
ممکن است با انگیزههای دولت چین برای تنظیم هوش مصنوعی (حفظ کنترلهای موجود بر روی اطلاعات) یا روشهای آن برای انجام این کار (محدودیتهای تعریفشده توسط ایالت برای دادهها و خروجیهای آموزشی) موافق نباشیم. اما ما همچنین نمیتوانیم اجازه دهیم فانتزی یک رقیب فنآوری کاملاً غیرقانونی مانع از اداره هوش مصنوعی بهگونهای شود که با ارزشهای ما سازگار باشد.
مردی در جریان نمایش آزمایشگاه واقعیت ترکیبی ناسا در کنفرانس فناوری GPU Nvidia، که هوش مصنوعی، یادگیری عمیق، واقعیت مجازی و ماشینهای مستقل را در واشنگتن در 1 نوامبر 2017 به نمایش میگذارد، از یک هدست واقعیت مجازی استفاده میکند.
در سطح بین المللی، ما باید دو کار را همزمان انجام دهیم: رقابت تهاجمی و آماده شدن برای دنیای برابر و همچنین فرصت ها و خطرات فرامرزی. ما باید به دنبال حفظ برتری نسبت به چین باشیم و کنترل نیمه هادی ها به عنوان بهترین ابزار ما باشد. از سه واحد سازنده هوش مصنوعی مدرن - داده ها، نیمه هادی ها و استعدادهای مهندسی - تراشه ها به مراتب راحت ترین کنترل هستند. تراشههای پیشرو و ابزارهای بسیار تخصصی مورد نیاز برای ساخت آنها، هنوز در مکانهای انگشت شماری تولید میشوند که همگی به طور گسترده با دولت ایالات متحده هماهنگ هستند. با محدود کردن دسترسی چین به این تراشه ها، ایالات متحده می تواند به طور معناداری صنعت هوش مصنوعی چین را مختل کند. اما هیچکدام از این کنترلها تاثیر ندارند، و در میانمدت و بلندمدت، چین ممکن است کنترلها را دور بزند، چه با توسعه روشهایی برای آموزش مدلهای هوش مصنوعی بر روی تراشههای قدیمیتر یا با یادگیری نحوه ساخت تراشههای پیشرفته. در پایان، محدودیتهای روی تراشهها ممکن است به عنوان یک مالیات معنادار بر توسعه هوش مصنوعی چین عمل کند، اما محدودیت سختی نیست.
این بدان معناست که ما همچنین باید برای روابط بلندمدت ایالات متحده و چین آماده شویم که در آن هر دو کشور مجهز به سیستمهای هوش مصنوعی قدرتمندی هستند که در صورت عدم رسیدگی دقیق میتوانند فاجعه ایجاد کنند. همانطور که سیستم های هوش مصنوعی امروزی چشمگیر هستند، شکننده هستند و مستعد رفتار غیرقابل پیش بینی هستند. از آنجایی که این سیستم ها در اقتصاد و ارتش هر دو کشور بافته می شوند، خطر تصادفات هوش مصنوعی افزایش می یابد. به عنوان مثال، سیستمهای هوش مصنوعی نظامی که برای شناسایی و پاسخ به یک حمله دریافتی در نظر گرفته شدهاند، میتوانند سطوح غیرعادی تابش خیرهکننده را با فعالیت جنبشی اشتباه بگیرند و اقدامات دفاعی یا تلافیجویانه را آغاز کنند که به سرعت تشدید میشوند. این همان چیزی است که در اواخر جنگ سرد اتفاق افتاد، زمانی که سیستم خودکار تشخیص موشک اتحاد جماهیر شوروی تابش خیره کننده ابرها را با حمله اتمی دریافتی اشتباه گرفت. در آن زمان، تصمیم یکی از سربازان شوروی برای برچسب زدن مثبت کاذب به احتمال زیاد مانع از هولوکاست هسته ای شد. با وجود چندین دهه پیشرفت در هوش مصنوعی از آن زمان، سیستمهای امروزی در صورت مواجهه با ورودیهای بسیار غیرعادی مستعد این نوع اشتباهات هستند.
این برای ایالات متحده کافی نیست که به سادگی سیستم هوش مصنوعی قدرتمندتر را داشته باشد. ایمنی معنادار برای آمریکایی ها مستلزم آن است که هر دو طرف پادمان هایی را در سیستم های خود اجرا کنند.
تحت این شرایط، داشتن سیستم هوش مصنوعی قدرتمندتر برای ایالات متحده کافی نخواهد بود. ایمنی معنادار برای آمریکایی ها مستلزم آن است که هر دو طرف پادمان هایی را در سیستم های خود اجرا کنند. اینها میتواند شامل توافقهایی برای عدم الحاق هوش مصنوعی به فرماندهی هستهای و مبادلات فنی گستردهتر بین دانشمندان هوش مصنوعی در دو کشور در مورد تکنیکهای تضمین ایمنی سیستمهای هوش مصنوعی پیشرفته باشد.
رسیدن به آنجا مستلزم گفتگوهای سیاسی و فنی سخت بین ایالات متحده و چین است. در طول برخی از پرتنشترین و خطرناکترین لحظات جنگ سرد، کنفرانسهای پاگواش به عنوان مجمعی عمل کرد که در آن دانشمندان ایالات متحده و اتحاد جماهیر شوروی میتوانستند به تعامل با یکدیگر برای کاهش خطرات هستهای ادامه دهند و به ایجاد زمینهای برای ممنوعیت آزمایش هسته ای و معاهدات منع اشاعه و کسب جایزه صلح نوبل. با پیشرفت و انتشار هوش مصنوعی در هر دو کشور، تعامل استراتژیک برای کاهش خطرات دنبالهروی ابزاری ضروری برای ایمن نگه داشتن آمریکاییها خواهد بود.
از آنجایی که چین و ایالات متحده به طور همزمان با یکدیگر رقابت می کنند در حالی که گهگاه راه هایی برای کاهش تنش ها را بررسی می کنند، هوش مصنوعی در آستانه تغییر شکل جامعه ما در سطحی اساسی است. نمیتوانیم اجازه دهیم امیدهای سادهلوحانه یا ترسهای ژئوپلیتیکی ما را از مواجهه با این لحظه باز دارد. بله، ایالات متحده باید برای حفظ برتری هوش مصنوعی بر چین تلاش کند. اما این نمیتواند به قیمت سیاستهایی تمام شود که به آمریکاییها - و در نهایت، بسیاری از سایر نقاط جهان - کمک میکند تا از مدلهای هوش مصنوعی بیشترین بهره را ببرند و بزرگترین خطرات خود را دور نگه دارند. ایالات متحده نمی تواند اجازه دهد که اصول یا ایمنی خود در تلاش برای پیشی گرفتن از چین به هر قیمتی آسیبی جانبی به خود بگیرد.
این مقاله در شماره تابستان 2023 فارین پالیسی آمده است.
اخبار ، گزارشات ، عکسها و فیلم های خود را برای ما ارسال دارید . برای ارسال میتوانید از طریق آدرس تلگرامی یا ایمیل استفاده کنید.