میم‌ها و درگیری: مطالعه‌ای نشان می‌دهد که افزایش تصاویر و جعل‌ها می‌تواند مقدم بر خشونت‌های سیاسی و بین‌المللی باشد

تاریخ انتشار : ۱۷:۰۱ ۰۴-۰۲-۱۴۰۴

تصور کنید کشوری با شکاف‌های عمیق سیاسی، جایی که گروه‌های مختلف به هم اعتماد ندارند و خشونت قریب‌الوقوع به نظر می‌رسد. حالا تصور کنید سیلی از تصاویر سیاسی، میم‌های نفرت‌انگیز و ویدیوهای تمسخرآمیز از منابع داخلی و خارجی، شبکه‌های اجتماعی را فرا بگیرد. به نظر شما چه اتفاقی خواهد افتاد؟ استفاده گسترده از شبکه‌های اجتماعی در زمان‌های بحران سیاسی و خشونت، پیشگیری از درگیری و ساخت صلح را دشوارتر کرده است. رسانه‌های اجتماعی در حال تغییرند، با فناوری‌ها و راهبردهای جدیدی که برای تأثیرگذاری بر افکار عمومی در دوران بحران سیاسی به‌کار می‌روند. این موارد شامل راه‌های تازه‌ای برای تبلیغ عقاید و اهداف، کسب حمایت، غیرانسانی‌کردن مخالفان، توجیه خشونت، و ایجاد تردید یا رد واقعیت‌های ناخوشایند هستند. در عین حال، خود این فناوری‌ها نیز پیچیده‌تر شده‌اند. هر چه بیشتر، کمپین‌های رسانه‌ای از تصاویر مانند میم‌ها، ویدیوها و عکس‌ها – چه ویرایش‌شده و چه نشده – بهره می‌گیرند که تأثیر روانی بیشتری نسبت به متن صرف دارند. درک تصاویر برای سامانه‌های هوش مصنوعی دشوارتر از متن است. مثلاً ردگیری پست‌هایی که می‌گویند «اوکراینی‌ها نازی هستند» بسیار راحت‌تر از تشخیص و درک تصاویری جعلی است که مثلاً سربازان اوکراینی را با نمادهای نازی نشان می‌دهند. اما این نوع تصاویر روز به روز رایج‌تر می‌شوند. همان‌طور که یک تصویر ارزش هزار کلمه را دارد، یک میم می‌تواند به اندازه هزار توییت تأثیرگذار باشد.

تبریز امروز:

 ۲۴ آوریل ۲۰۲۵

نویسندگان:
تیم ونینگر (Tim Weninger)
استاد مهندسی در دانشگاه نوتردام

ارنستو وردخا (Ernesto Verdeja)
دانشیار مطالعات صلح و سیاست جهانی، دانشگاه نوتردام

ابزارهای هوش مصنوعی نشان میدهند که تصاویر چگونه دستکاری شدهاند.

ابزارهای هوش مصنوعی نشان میدهند که تصاویر چگونه دستکاری شدهاند. 


میم  یک تصویر، ویدیو، جمله یا ترکیبی از این‌ها که به‌سرعت در اینترنت منتشر می‌شود و اغلب به شکل طنزآمیز، انتقادی یا کنایه‌آمیز مفهومی اجتماعی، سیاسی یا فرهنگی را منتقل می‌کند.تعریف شده است

 

تصور کنید کشوری با شکاف‌های عمیق سیاسی، جایی که گروه‌های مختلف به هم اعتماد ندارند و خشونت قریب‌الوقوع به نظر می‌رسد. حالا تصور کنید سیلی از تصاویر سیاسی، میم‌های نفرت‌انگیز و ویدیوهای تمسخرآمیز از منابع داخلی و خارجی، شبکه‌های اجتماعی را فرا بگیرد. به نظر شما چه اتفاقی خواهد افتاد؟

استفاده گسترده از شبکه‌های اجتماعی در زمان‌های بحران سیاسی و خشونت، پیشگیری از درگیری و ساخت صلح را دشوارتر کرده است. رسانه‌های اجتماعی در حال تغییرند، با فناوری‌ها و راهبردهای جدیدی که برای تأثیرگذاری بر افکار عمومی در دوران بحران سیاسی به‌کار می‌روند. این موارد شامل راه‌های تازه‌ای برای تبلیغ عقاید و اهداف، کسب حمایت، غیرانسانی‌کردن مخالفان، توجیه خشونت، و ایجاد تردید یا رد واقعیت‌های ناخوشایند هستند.

در عین حال، خود این فناوری‌ها نیز پیچیده‌تر شده‌اند. هر چه بیشتر، کمپین‌های رسانه‌ای از تصاویر مانند میم‌ها، ویدیوها و عکس‌ها – چه ویرایش‌شده و چه نشده – بهره می‌گیرند که تأثیر روانی بیشتری نسبت به متن صرف دارند.

درک تصاویر برای سامانه‌های هوش مصنوعی دشوارتر از متن است. مثلاً ردگیری پست‌هایی که می‌گویند «اوکراینی‌ها نازی هستند» بسیار راحت‌تر از تشخیص و درک تصاویری جعلی است که مثلاً سربازان اوکراینی را با نمادهای نازی نشان می‌دهند. اما این نوع تصاویر روز به روز رایج‌تر می‌شوند. همان‌طور که یک تصویر ارزش هزار کلمه را دارد، یک میم می‌تواند به اندازه هزار توییت تأثیرگذار باشد.

موجی از میم‌ها

تیم ما متشکل از دانشمندان علوم رایانه و علوم اجتماعی، چالشی را برای تفسیر محتوای تصویری با ترکیب روش‌های هوش مصنوعی و تخصص انسان‌محور پذیرفت. هدف‌مان بررسی این بود که پست‌های تصویری در شبکه‌های اجتماعی چگونه در شرایط پرخطر تغییر می‌کنند. تحقیقات ما نشان می‌دهد که این تغییرات – به‌ویژه در پست‌های تصویری – شاخص‌های قدرتمندی از خشونت جمعی در آینده هستند.

در تحلیل اخیر ما مشخص شد که در دو هفته منتهی به تهاجم روسیه به اوکراین در سال ۲۰۲۲، حدود ۹۰۰۰ درصد افزایش در تعداد پست‌ها و بیش از ۵۰۰۰ درصد افزایش در تصاویر دست‌کاری‌شده از سوی میلی‌بلاگرهای روسی مشاهده شد. «میلی‌بلاگر»ها وبلاگ‌نویسانی هستند که بر درگیری‌های نظامی جاری تمرکز دارند.

این افزایش شدید نشان‌دهنده شدت کمپین تبلیغاتی آنلاین روسیه و استفاده از رسانه‌های اجتماعی برای تأثیرگذاری بر افکار عمومی و توجیه تهاجم است.

برای انجام تحلیل، کل تاریخچه پست‌ها و تصاویر از حساب‌های ۹۸۹ میلی‌بلاگر روسی در اپلیکیشن تلگرام جمع‌آوری شد – نزدیک به ۶ میلیون پست و بیش از ۳ میلیون تصویر، که همگی دارای برچسب زمانی و دسته‌بندی دقیق بودند.

تحلیل رسانه‌ای

ما پیش‌تر مجموعه‌ای از ابزارهای هوش مصنوعی را توسعه داده بودیم که قادر به تشخیص تغییرات و دست‌کاری در تصاویر هستند. برای نمونه، یکی از تصاویر کشف‌شده، میم طرفدار روسیه‌ای را نشان می‌داد که روزنامه‌نگار ضددولتی و سرباز سابق روسی، «آرکادی بابچنکو» را تمسخر می‌کرد – کسی که مرگش توسط سرویس‌های امنیتی اوکراین جعل شده بود تا نقشه ترورش را افشا کنند.

ما پیش‌تر مجموعه‌ای از ابزارهای هوش مصنوعی را توسعه داده بودیم که قادر به تشخیص تغییرات و دست‌کاری در تصاویر هستند. برای نمونه، یکی از تصاویر کشف‌شده، میم طرفدار روسیه‌ای را نشان می‌داد که روزنامه‌نگار ضددولتی و سرباز سابق روسی، «آرکادی بابچنکو» را تمسخر می‌کرد – کسی که مرگش توسط سرویس‌های امنیتی اوکراین جعل شده بود تا نقشه ترورش را افشا کنند.

در این میم، نوشته‌ای روی پیراهن مرد وجود دارد که بعداً به تصویر اضافه شده، و سر بابچنکو نیز ظاهراً روی بدن شخص دیگری قرار داده شده است. این تصویر با عبارت «گیمرها نمی‌میرند، آن‌ها دوباره ظاهر می‌شوند» به شکل طنزآمیز به وضعیت بابچنکو اشاره دارد و نمونه‌ای از استفاده از تصاویر دست‌کاری‌شده برای انتقال پیام‌های سیاسی است.

این تنها یکی از میلیون‌ها تصویری است که به‌صورت راهبردی برای پیشبرد روایت‌های خاص دست‌کاری شده‌اند. تحلیل آماری ما نشان داد که پیش از تهاجم، هم در تعداد تصاویر و هم در میزان دست‌کاری آن‌ها افزایش عظیمی رخ داده است.

زمینه سیاسی بسیار مهم است

هرچند این سامانه‌های هوش مصنوعی در تشخیص جعلیات تصویری بسیار توانمندند، اما نمی‌توانند زمینه سیاسی تصاویر را درک کنند. بنابراین، همکاری نزدیک میان دانشمندان هوش مصنوعی و علوم اجتماعی برای تفسیر درست یافته‌ها ضروری است.

سامانه‌های ما همچنین تصاویر را بر اساس شباهت دسته‌بندی می‌کنند تا کارشناسان انسانی بتوانند خوشه‌های تصویری را از نظر محتوای روایی و معنای سیاسی و فرهنگی بررسی کنند – کاری که در مقیاس وسیع بدون پشتیبانی هوش مصنوعی ممکن نیست.

مثلاً، یک تصویر جعلی از رئیس‌جمهور فرانسه امانوئل مکرون با فرماندار اوکراینی ویتالی کیم ممکن است برای دانشمند رایانه بی‌معنا باشد، اما برای دانشمند علوم سیاسی، این تصویر قصد دارد شهامت بی‌نظیر اوکراینی‌ها را در مقابل رهبران خارجی‌ای که از تهدیدات اتمی روسیه می‌ترسند برجسته کند. هدف، تقویت تردید اوکراینی‌ها نسبت به متحدان اروپایی‌شان است.

مثلاً، یک تصویر جعلی از رئیس‌جمهور فرانسه امانوئل مکرون با فرماندار اوکراینی ویتالی کیم ممکن است برای دانشمند رایانه بی‌معنا باشد، اما برای دانشمند علوم سیاسی، این تصویر قصد دارد شهامت بی‌نظیر اوکراینی‌ها را در مقابل رهبران خارجی‌ای که از تهدیدات اتمی روسیه می‌ترسند برجسته کند. هدف، تقویت تردید اوکراینی‌ها نسبت به متحدان اروپایی‌شان است.

جنگ میمی

چرخش به رسانه‌های بصری در سال‌های اخیر نوع جدیدی از داده‌ها را به همراه آورده که هنوز در پژوهش‌ها به‌خوبی بررسی نشده است.

مشاهده تصاویر می‌تواند به پژوهشگران کمک کند تا درک کنند دشمنان چگونه یکدیگر را چارچوب‌بندی می‌کنند و چگونه این کار می‌تواند به درگیری سیاسی منجر شود. بررسی محتوای بصری به ما کمک می‌کند بفهمیم داستان‌ها و ایده‌ها چگونه گسترش می‌یابند و عوامل روانی و اجتماعی مؤثر بر آن‌ها چیست.

این کار به‌ویژه در شناسایی راه‌های پیشرفته‌تر و ظریف‌تری که مردم تحت تأثیر قرار می‌گیرند، اهمیت دارد. پروژه‌هایی مانند این همچنین می‌توانند به بهبود هشدارهای اولیه و کاهش خطرات خشونت و بی‌ثباتی کمک کنند.


 

نظرات کاربران


@