خبر های ویژه

بانک جهانی زنگ خطری را در مورد «واژگونی تاریخی» توسعه برای فقیرترین کشورها به صدا در می آورد

28 فروردین 1403

برای مایاها، خورشید گرفتگی نشانه برخوردهای آسمانی بود - و ستاره شناسان آنها سوابق پیچیده ای را برای پیش بینی آنها نگه داشتند.

17 فروردین 1403

تغییرات آب و هوایی به ظهور و نابودی امپراتوری نئوآسوری، ابرقدرت دنیای باستان دامن زد.

17 اسفند 1402

آنچه امپراتوری عثمانی می تواند در مورد پیامدهای تغییرات آب و هوایی به ما بیاموزد - و چگونه خشکسالی می تواند مردم را ریشه کن کند و به جنگ دامن بزند.

17 اسفند 1402

ماه رمضان در مدارس آمریکایی معرفی می شود

17 اسفند 1402

کووید-19 اثر خود را بر روی مغز باقی می گذارد

10 اسفند 1402

روزگاری که ۱۱ کنسولگری در تبریز و ۷ سفارتخانه درتهران نبض سیاست خارجی ایران بودند.

10 اسفند 1402

"مغز من را ربوده است" - تیمی از متخصصان راه هایی برای کمک به جوانان معتاد به رسانه های اجتماعی برای کاهش ولع پیدا کردند.

30 بهمن 1402

بودجه برای پناهندگان مدت هاست که سیاسی شده است - اقدامات تنبیهی علیه انروا و فلسطینی ها با این الگو مطابقت دارد.

12 بهمن 1402

رشد بازار جهانی خودروهای برقی در سال جاری با کاهش یارانه ها کاهش می یابد

30 دی 1402

اولین شاهکارهای هوش مصنوعی

5 دی 1402

شیوه‌های معماری افغانستان با نگاهی به معماری اسلامی

3 دی 1402

تحقیقات رو به افزایش اثرات مضر استفاده از رسانه های اجتماعی بر سلامت روان، از جمله تصویر بدن و ایجاد اختلالات خوردن را مستند می کند

1 دی 1402

یادداشتی کوتاه برای قدر دانی از تصمیم دیوان عدالت اداری

29 آذر 1402

خندیدن برای ذهن و بدن شما مفید است - این چیزی است که تحقیقات نشان می دهد

28 آذر 1402

تربیت ملایم فرزند می تواند برای والدین بسیار سخت باشد

13 آذر 1402

26 مهر 1402

چگونه رسانه های اجتماعی مسئولیت صحت اخبار را کنار گذاشتند؟

در دنیای مجازی خبرها راست هستند یا دروغ ؟

X، که قبلاً به نام توییتر شناخته می شد، تحت مالکیت ایلان ماسک، کارکنان نظارت بر محتوا را از بین برد، دسترسی نشریات خبری را محدود کرد، و به هر کاربری اجازه داد تا تأییدیه چک آبی را خریداری کند، و چیزی را که زمانی به عنوان نشان اعتماد تلقی می شد، تبدیل کرد.

 تبریز امروز:

 

گفتمان
در فوریه سال گذشته، زمانی که روسیه به اوکراین حمله کرد، وحشت جنگ از طریق ویدیوهای تولید شده توسط کاربران در تیک توک به جهان منتقل شد. سربازان اوکراینی در خط مقدم و غیرنظامیانی که در خانه‌هایشان پناه گرفته‌اند، ویدئوهایی را منتشر کردند که نشان می‌دهد تانک‌ها در حال پیشروی، بلوک‌های آپارتمانی بمباران‌شده و بسته‌های جیره‌ای در حال تحویل به سربازان هستند. هم حجم و هم صمیمیت فیلم بی سابقه به نظر می رسید. این درگیری به سرعت "نخستین جنگ تیک توک" نام گرفت. ده روز پیش، فوران خشونت بین حماس و اسرائیل به دومین جنگ بزرگ آن دوره جدید رسانه های اجتماعی تبدیل شد. اما رسانه های اجتماعی در یک سال و نیم گذشته به میزان شگفت انگیزی تغییر کرده اند. در سرتاسر پلتفرم‌های اصلی، فیدهای ما به دلیل تصمیماتی که توسط خود پلتفرم‌ها گرفته می‌شود، منابع کمتر قابل اعتمادی برای اخبار معتبر جمع‌سپاری نسبت به گذشته هستند - که برای شروع کار چندانی نبود.

X، که قبلاً به نام توییتر شناخته می شد، تحت مالکیت ایلان ماسک، کارکنان نظارت بر محتوا را از بین برد، دسترسی نشریات خبری را محدود کرد، و به هر کاربری اجازه داد تا تأییدیه چک آبی را خریداری کند، و چیزی را که زمانی به عنوان نشان اعتماد تلقی می شد، تبدیل کرد. بر روی پلت فرم به نشانه ای از حمایت از رژیم ماسک است. فیسبوک متا، پس از سال‌ها بحث بر سر نقش این شرکت در انتشار اطلاعات نادرست، تعداد مقالات خبری را که در فیدهای کاربران ظاهر می‌شوند، به حداقل رسانده است. و TikTok، تحت نظارت فزاینده ای در ایالات متحده به دلیل رابطه شرکت مادرش با دولت چین، از محتوای خبری فاصله می گیرد. کمی بیش از یک دهه پیش، رسانه های اجتماعی به عنوان ابزاری برای شفافیت در مقیاس جهانی به دلیل توانایی آن در توزیع اسناد روی زمین در طول قیام هایی که به بهار عربی معروف شد، معرفی شد. اکنون به نظر می‌رسد که همان پلتفرم‌ها به جای شفاف‌تر کردن، درگیری‌ها را مبهم‌تر می‌کنند. در روزهای پس از حملات حماس، ما با فوریت تازه ای خطرات تکیه بر فیدهای خود را برای به روز رسانی اخبار مشاهده کرده ایم.

یک روزنامه‌نگار سیل اطلاعات نادرست و فیلم‌های دارای برچسب غلط در X را توصیف می‌کند: «مه جنگی الگوریتمی آرما 3 همه به دروغ به عنوان صحنه هایی از اسرائیل یا غزه برچسب خورده اند. (پرس و جوهایی که برای X ارسال کردم با ایمیلی مواجه شد که در آن نوشته شده بود: «فعلا مشغول است، لطفاً بعداً دوباره بررسی کنید.») در 8 اکتبر، ماسک توییتی ارسال کرد که در آن توصیه می‌کند دو حساب را برای اطلاعات در مورد درگیری دنبال کنید، @WarMonitors و @sentdefender. ، که هیچ کدام یک شرکت رسانه ای رسمی نیستند، اما هر دو مشترک X پولی هستند. بعد از آن روز، پس از اینکه کاربران به این نکته اشاره کردند که هر دو حساب مرتباً اشتباهات ارسال می کنند، ماسک این توصیه را حذف کرد. جایی که توییتر زمانی یکی از پلتفرم‌های دیجیتالی با تعدیل بهتر بود، X به عنوان منبعی برای یافتن آنچه که صاحبش می‌خواهد شما را ببینید قابل اعتماد است.

فیس‌بوک قبلاً محتوا را در «فید خبری» جمع‌آوری می‌کرد و به شرکت‌های رسانه‌ای برای انتشار داستان‌ها در پلتفرم خود پول می‌داد. اما پس از سال‌ها همدستی در انتشار دروغ‌های ترامپی - در مورد انتخابات 2016، همه‌گیری کووید و شورش‌های 6 ژانویه - این شرکت ظاهراً به نمایش درآمده است. چه به دلیل افکار عمومی منفی و چه به دلیل تهدید مقررات، واضح است که تبلیغ اخبار دیگر هدف هیچ یک از رسانه های اجتماعی متا نیست. در روزهای اخیر، فید فیس‌بوک من با همان میم‌های سرگرمی و صنعت هرزنامه‌ای که در این پلتفرم گسترش یافته است، پر شده است، گویی هیچ چیز قابل توجهی در جهان فراتر از آن اتفاق نمی‌افتد. در اینستاگرام، برخی از کاربران طرفدار فلسطین از «سایه‌بانی شدن» - که ظاهراً بدون هشدار از تبلیغات الگوریتمی قطع شده بودند - شکایت کردند و نکاتی را برای دور زدن آن به اشتراک گذاشتند. (متا مشکل را به یک "اشکال" نسبت داد)

در ماه ژوئیه، متا جدیدترین شبکه اجتماعی خود را به نام Threads راه اندازی کرد تا کاربران را از X مورد حمله ماسک دور کند. اما برخلاف X، Threads از خدمت به عنوان یک جمع‌آوری خبر در زمان واقعی خودداری کرده است. هفته گذشته، آدام موسری، رئیس اینستاگرام و ناظر Threads، اعلام کرد که این پلتفرم قرار نیست مانعی بر سر راه محتوای خبری شود، اما قرار نیست آن را تقویت کند. او ادامه داد: «این کار با توجه به بلوغ پلتفرم، جنبه‌های منفی بیش از حد امیدوار کردن، و مخاطرات بسیار خطرناک است.» من Threads را مفیدتر از X به عنوان منبع اخبار درباره جنگ اسرائیل و حماس یافتم. خلق و خوی آرام‌تر و سنجیده‌تر است، و فید من تمایل دارد پست‌هایی را برجسته کند که قبلاً از صداهای معتبر درگیر شده‌اند. اما من همچنین تعداد زیادی از روزنامه نگاران را در Threads دیده ام که می گویند توصیه های الگوریتمی زیادی دریافت کرده اند و به اندازه کافی نیست.

پست های لحظه ای کاربران Threads اکنون این گزینه را دارند که به یک فید سازماندهی شده زمانی تغییر کنند. اما در تنظیمات پیش‌فرض که اکثر مردم از آن استفاده می‌کنند، هیچ تضمینی وجود ندارد که پلتفرم آخرین اطلاعات را در هر زمان به شما نشان دهد.

TikTok اقداماتی را که برای مبارزه با محتوای جعلی اسرائیل و حماس انجام می‌دهد، از جمله با اختصاص کارکنانی که به زبان‌های عبری و عربی مسلط هستند برای بررسی ویدیوها مشخص کرده است. این شرکت همچنین با سازمان‌های حقیقت‌سنجی خارجی مانند Agence France-Presse و Lead Stories همکاری می‌کند. اما این بدان معنا نیست که TikTok نقش خود را به عنوان یک منبع خبری پذیرفته است. مطالعه اخیر منتشر شده توسط مجله New Media & Society به این نتیجه رسید که این پلتفرم به پست های مرتبط با اخبار تبلیغات الگوریتمی کمتری نسبت به سایر انواع محتوا می دهد. نویسندگان این مطالعه نوشتند: «الگوریتم For You Page تقریباً هیچ محتوای خبری را نشان نمی‌دهد، حتی زمانی که با سیگنال‌های تعامل فعال آماده شود». (طبق گفته یکی از نمایندگان TikTok، الگوریتم آن با تمام محتوای بررسی شده یکسان رفتار می کند.)

تجربه حکایتی من حاکی از آن است که درگیری اسرائیل و حماس به گونه‌ای متفاوت از جنگ اوکراین به خوراک‌های TikTok می‌رسد. ویدیوهای اول شخص کمتر و پست‌های بیشتری از انتشارات تأیید شده وجود دارد. اظهار نظر از سرهای سخنگو بیشتر از گزارش دادن است. به نظر می رسد که آرگومان های صاحب نظر نسبت به اسناد مستقیم، زمان آسان تری برای یافتن تبلیغ دارند، اما با توجه به اینکه فرمول های الگوریتمی پلتفرم ها تا حد زیادی مخفی نگه داشته می شوند، نمی توان با اطمینان گفت. در X، بسیاری از کاربران را دیده ام که شکایت دارند که فیدهایشان به طور فزاینده یک طرفه به نظر می رسد. یکی از کاربران با تعجب گفت: "همه توئیتر طرفدار فلسطین است یا این فقط الگوریتم من است." یکی دیگر نوشت: «الگوریتم اینستاگرام اکنون بدون وقفه ویدیوهای طرفدار اسرائیل را به من نشان می دهد که انگار می خواهد نظر من را تغییر دهد. فیدها پیش‌بینی می‌کنند که کاربران احتمالاً با چه مطالبی درگیر هستند و آن‌ها را به صورت تهوع به آنها ارائه می‌کنند. از آنجایی که توصیه‌های خودکار جایگزین انتخاب کاربر می‌شوند، همه ما در حباب‌های فیلتر خودتقویت‌شونده‌مان حتی بیشتر از این تحت فشار قرار می‌گیریم.

اگر رسانه‌های اجتماعی دیگر به عنوان منبعی برای اطلاعات واقعی تأیید شده استفاده نمی‌شوند، همچنان به میدان نبردی برای هدایت افکار عمومی تبدیل شده‌اند. در اوایل 10 اکتبر، شایعه هولناکی مبنی بر قطع سر نوزادان اسرائیلی توسط حماس در X منتشر شد. هنگامی که رئیس جمهور بایدن در هفته گذشته سخنانی درباره جنگ ایراد کرد، تلویحاً گفت که تصاویری از چنین جنایاتی را با چشمان خود دیده است. اما دولت بعداً از اظهارات بایدن رد شد و این شایعه ظاهراً رد شد: نوزادان توسط حماس به قتل رسیده بودند، اما هیچ مدرکی دال بر سر بریدن وجود نداشت. روز پنجشنبه، اکانت X @Israel که به عنوان «حساب رسمی توییتر دولت اسرائیل» شناخته می‌شود و این شایعه را ترویج کرده بود، تصاویری از اجساد نوزادان را منتشر کرد. به برخی از کاربران X این پست به عنوان یک تبلیغ ارائه شد که نشان می‌دهد این حساب برای تبلیغ پیام پول پرداخت کرده است. آیا یک آگهی به عنوان خبر معتبر محسوب می شود؟ شیوه‌ای که کاربران به تنهایی و بدون راهنمایی پلتفرم‌ها تعیین می‌کنند دقیق است، نوعی پوچ تلخ است. اگر واقعاً یک مه جنگی الگوریتمی وجود داشته باشد، به نظر می‌رسد که شرکت‌های فناوری از پذیرش هرگونه مسئولیتی برای رفع آن بیزارند.

مقررات جدیدی که مسئولیت پذیری را تشویق می کند ممکن است به طور ناخواسته تأثیر سرد کننده ای بر انتشار اخبار آنلاین داشته باشد. بر اساس قانون خدمات دیجیتال اتحادیه اروپا، که در ماه اوت اجرایی شد، شبکه‌های اجتماعی به دلیل عدم تعدیل محتوای خود تا شش درصد از درآمد جهانی خود را جریمه می‌کنند. هفته گذشته، کمیسیون اروپا نامه‌ای به ماسک و ایکس ارسال کرد که در آن مدعی شد که X "برای انتشار محتوای غیرقانونی و اطلاعات نادرست در اتحادیه اروپا استفاده می‌شود" و اطلاعاتی درباره نحوه مدیریت این پلتفرم درگیری در اسرائیل را درخواست کرد. قانون خبر آنلاین کانادا که در ماه ژوئن تصویب شد، پلتفرم‌های دیجیتال را مجبور می‌کند تا به شرکت‌های رسانه‌ای برای محتوایی که عرضه می‌کنند، غرامت بپردازند. در پاسخ، پلتفرم‌های متا به کاربران کانادایی اجازه مشاهده یا اشتراک‌گذاری مقالات خبری را نمی‌دهند. در ایالات متحده، قانون پیشنهادی مشابهی برای رقابت و حفظ روزنامه نگاری، متا را به انجام همین کار در ایالات متحده واداشته است.

درگیری اسرائیل و حماس همچنان در شبکه های اجتماعی پخش می شود. ما هر روز غرق در بخش‌های وحشیانه‌ای هستیم که کیسه‌های اجساد، ساختمان‌های تسطیح‌شده، بمب‌گذاری بیمارستانی را نشان می‌دهد که صدها کشته برجای گذاشت. برخی از کلیپ‌های ویروسی نماد بحران شده‌اند: یک خبرنگار بی‌بی‌سی در غزه متوجه می‌شود که دوستانش در بیمارستانی هستند که او در آنجا گزارش می‌دهد و گریه می‌کند. یک پزشک در بیمارستانی در اسرائیل بر سر وزیر مهمان از حزب لیکود بنیامین نتانیاهو فریاد می زند: "تو همه چیز را خراب کردی!" فیدهای ما همچنان به ایجاد احساس شفافیت و ریزه کاری ادامه می دهند، در حالی که تعداد کمتری از تابلوهای راهنما را ارائه می دهند که برای ترسیم مسیر روشنی از میان انبوه محتوا نیاز داریم. آنچه باقی می ماند، شاید به درستی، فضایی از هرج و مرج و بلاتکلیفی است که هر روزه جنگ بر روی صفحه نمایش ما رخ می دهد. ♦

 


کایل چایکا یکی از نویسندگان کارمند نیویورکر و نویسنده کتاب «لرزش کمتر: زندگی با مینیمالیسم» است.

 

ارتباط با تبریز امروز

اخبار ، گزارشات ، عکسها و فیلم های خود را برای ما ارسال دارید . برای ارسال میتوانید از طریق آدرس تلگرامی یا ایمیل استفاده کنید.

info@tabriz-emrooz.ir

اشتراک در خبرنامه

برای اطلاع از آخرین خبرهای تبریز امروز در کانال تلگرام ما عضو شوید.

کانل تلگرام تبریز امروز

فرم تماس با تبریز امروز

کلیه حقوق این سایت متعلق به پایگاه خبری تبریز امروز بوده و استفاده از مطالب آن با ذکر منبع بلامانع است.
طراحی وتولید توسططراح وب سایت