تلاش شبکه‌های اجتماعی برای فرار از شفافیت و نظارت بر محتوا به قلم مایکل ورکمن و کوین نگوین؛
وزیر فناوری بریتانیا: «من به طور واضح اعلام کرده‌ام که این غیرقابل‌قبول است که مردم از شبکه‌های اجتماعی برای ایجاد آسیب، نگرانی و ویرانی در جوامع ما استفاده کنند.»

گروه جامعه و اقتصاد «سدید»؛ ۳۰ جولای ۲۰۲۴، به دنبال انتشار گزارش‌هایی درباره قتل سه دختر خردسال در شهر «ساوتپورت» انگلیس، آشوب سراسر این کشور را فراگرفت. این‌طور ادعا شد که قاتل، فردی از میان مهاجران مسلمان بوده که اخیراً به شکل قاچاقی و با قایق‌های کوچک به انگلستان وارد شده است. در این میان، نقش شبکه‌های اجتماعی در انتشار گسترده این شایعه و جرقه اولیه آشوب‌ها بسیار مهم بود. شبکه‌های اجتماعی در انگلیس با انتشار گسترده گزارش‌های خلاف واقع درباره نقش مسلمانان، زمینه‌ساز اقدامات تحریک‌آمیز و خشونت‌بار افراط‌گرایان راست‌گرا و مهاجر ستیزان، علیه جامعه مسلمانان این کشور شدند. انتشار شایعات در شبکه ایکس (توییتر) و به‌ویژه توسط اینفلوئنسرهایی که هرکدام دنبال‌کننده‌های میلیونی داشتند، در تقویت این ادعای دروغین سهم بسزایی داشت. در این میان، «ایلان ماسک» نیز نقش برجسته‌ای در آشوب‌ها داشت. توییت ماسک با ۱۹۳ میلیون دنبال‌کننده در بازنشر یک خبر جعلی در رابطه با قصد نخست‌وزیر انگلیس برای ایجاد یک بازداشتگاه اضطراری برای شورشیان در جزایر «مالویناس»، آن هم به نقل از رهبر یکی از گروه‌های راست‌گرای افراطی موسوم به «بریتانیا اول»، آن‌قدر جنجال‌برانگیز بود که وی را وادار کرد در کمتر از ۳۰ دقیقه، آن را حذف کند. علاوه بر این، توییت دیگر او در مورد «اجتناب‌ناپذیر بودن جنگ داخلی» در بریتانیا، خشم شدید مقامات انگلیسی را به دنبال داشت؛ به‌طوری‌که نخست‌وزیر انگلیس، صراحتاً به شبکه‌های اجتماعی و مالکان آنها در مورد نفرت‌پراکنی و نقض قوانین هشدار داد. به دلیل نقش شبکه‌های اجتماعی در این آشوب‌ها، توجه بسیاری در رسانه‌های غربی به موضوع شبکه‌های اجتماعی و ضرورت سروسامان دادن به آن و اعمال حکمرانی مؤثر دولتی جلب شده است. «مایکل ورکمن» [1] - محقق و گزارشگر - و «کوین نگوین» [2] - روزنامه‌نگار تحقیقی - در یادداشت مشترکی که وب‌سایت «abc.net» آن را منتشر کرده است، به بهانه آشوب‌های انگلیس نگاهی به تلاش شبکه‌های اجتماعی برای فرار از شفافیت و عدم کنترل بر انتشار محتوا انداخته‌اند.
 

 
اوباش فضای مجازی و آشوب‌های انگلیس

یک هفته قبل از شروع شورش‌های نژادی در سراسر انگلیس و ایرلند شمالی، اوباش فضای مجازی صفحه‌ای در فیس‌بوک به نام «میهن‌پرستان بریتانیا» راه‌اندازی کردند. آن‌ها از لحظه‌ای که این صفحه در اواخر ژوئیه ایجاد شد، شروع به انتشار اطلاعات غلط ضدمهاجرتی کردند و محتوای آن را با دنبال‌کنندگان جعلی از کشورهایی مثل ویتنام و هند، با هدف احتمالی جذب مخاطبی که بعداً بتوانند آن‌ها را به وب‌سایت‌هایی با تبلیغات هدایت کنند، تقویت کردند. پس از چاقوکشی مرگبار علیه سه دختر خردسال در شهر ساحلی «ساوتپورت» در ۲۹ ژوئیه، پست‌های اینترنتی جعلی که به اشتباه قاتل را به‌عنوان یک مهاجر اسلام‌گرا معرفی می‌کرد، باعث خشونت گسترده در بریتانیا شد. اینجا بود که مدیران صفحه «میهن‌پرستان بریتانیا» فرصت را فراهم دیدند. آنها شروع به انتشار شایعاتی درباره «باندهای مخفی که در بریتانیا به دنبال مردم هستند» کردند و فراخوان‌هایی برای شرکت مردم در تظاهراتی که توسط گروه‌های ضدمهاجرتی سازماندهی شده بود، به اشتراک گذاشتند. 

  شرکت متا تصمیم گرفته است مهم‌ترین ابزار شفافیت خود که محتوای نادرست را در فیس‌بوک شناسایی می‌کرد؛ تعطیل کند.

در ۲ آگوست، مدیران این صفحه در فیس‌بوک، تصویری از یک مرد کارتونی خندان با چاقویی که از سینه‌اش بیرون زده بود، با عنوان «لوگوی جدید ساوتپورت» منتشر کردند. زمانی که «ای بی سی نیوز» رفتار غیراصولی این صفحه را به متا - شرکت مادر فیس‌بوک - گزارش داد، بلافاصله این تصویر حذف شد. عمر کوتاه «میهن‌پرستان بریتانیا» باعث شد تأثیر آن حداقلی باشد، اما صفحات مشابهی که اطلاعات غلط و بالقوه خطرناکی را منتشر می‌کنند، ممکن است از دیدگان ما پنهان بمانند. بخش راستی‌آزمایی «ای بی سی» توانست این صفحه را با استفاده از ابزار متعلق به متا به نام «کراود تنگل» (CrowdTangle) شناسایی کند. امروز پس از سال‌ها که این ابزار شفافیت، باعث شرمساری عمومی فیس‌بوک شده بود، این شرکت تصمیم به حذف دائمی آن گرفته است.

 

«کراود تنگل» چیست و چرا بسته می‌شود؟

متا «کراود تنگل» را در سال ۲۰۱۶ خریداری کرد؛ در آن زمان بیشتر از آن به‌عنوان یک ابزار بازاریابی و مدیریت رسانه‌های اجتماعی استفاده می‌شد. «کراود تنگل» به طور مؤثر یک موتور جستجوی قوی برای شبکه‌های اجتماعی بود و راهی رایگان و نادر برای ورود به داخل فیس‌بوک و اینستاگرام و پیگیری آنچه که در حال گسترش بود و افرادی که مسئول آن بودند، ارائه می‌داد. «کراود تنگل» ابزاری تحلیلی بود که برای سال‌ها به محققان، روزنامه‌نگاران و گروه‌های جامعه مدنی کمک می‌کرد تا بفهمند اطلاعات، چگونه در فیس‌بوک و اینستاگرام منتشر می‌شود. این اطلاعات به‌راحتی در یوتیوب و ایکس (که قبلاً توییتر نامیده می‌شد) در دسترس نبود. اکثر ۳ میلیارد کاربر فعال ماهانه فیس‌بوک، هرگز از آن استفاده نکرده‌اند و حتی در ابتدا متوجه نمی‌شوند که از بین رفته است؛ بااین‌حال، بسته‌شدن قریب‌الوقوع آن، دانشگاهیان، روزنامه‌نگاران و گروه‌های مدنی که به آن متکی هستند را برای افشای اطلاعات نادرست به وحشت انداخته است.

گزارش‌ها از آمریکا حاکی از آن است که «متا»، از سال ۲۰۲۱ به‌آرامی منابع «کراود تنگل» را از بین برده است و قصد داشت آن را در سال ۲۰۲۲ غیرفعال کند؛ اما به دلیل قانون خدمات دیجیتال اتحادیه اروپا که شرکت‌های رسانه‌های اجتماعی را ملزم می‌کند به محققان اجازه دسترسی به داده‌های پلتفرم را بدهد، مجبور شد آن را عملیاتی نگه دارد. متا در حال راه‌اندازی یک جایگزین به نام کتابخانه محتوای متا (MCL) است، اما دسترسی به آن را محدود به دانشگاهیان و محققان غیرانتفاعی تأییدشده کرده است. این غول فناوری، از فراخوان‌های سطح بالا، از جمله کنگره ایالات متحده و کمیسیون اروپا، برای زنده نگه‌داشتن «کراود تنگل» سرپیچی کرده و آن را در ۱۴ آگوست به طور رسمی غیرفعال خواهد کرد.

کمیسیونر ایمنی دیجیتال استرالیا - «جولی اینمن گرانت» [3] - که به دنبال افزایش شفافیت از سوی فناوری‌های بزرگ بوده است، به‌خاطر ازدست‌دادن یک ابزار نظارت اجتماعی پیش از انتخابات ریاست‌جمهوری آمریکا در ماه نوامبر، ابراز تأسف کرد. وی گفت: «ممکن است شاهد ظهور روش‌های جدیدی از آسیب و گسترش اطلاعات نادرست و مغرضانه باشیم. اگر ما ابزارهای نظارت بر شبکه‌های اجتماعی که حداقلی از شفافیت را به ما می‌دهند، از بین ببریم، این موضوع توانایی ما را برای مداخله و جلوگیری از فعالیت‌های مضر که فرایندهای دموکراتیک را تضعیف می‌کند، محدود خواهد کرد.»

علی‌رغم فشار دولت‌ها در سرتاسر جهان برای شفافیت، شرکت‌های بزرگ فناوری به‌تدریج به‌سوی ایجاد ابهام بیشتر حرکت می‌کنند.

ابزار شفافیت، سال‌هاست که خاری در چشم متا بوده است. داده‌های «کراود تنگل»، مکرراً توسط خبرنگاران و دانشگاهیان استفاده شده است تا نشان دهند که محتوای پرطرف‌دار فیس‌بوک، اغلب بیش از حد سیاسی یا مملو از اطلاعات نادرست است. در سال ۲۰۲۰، نیویورک‌تایمز بر این ابزار تکیه کرد تا نشان دهد که چگونه پلاندمیک[4]- یک فیلم تئوری توطئه با شهادت یک فعال ضد واکسن بدنام - یکی از بهترین پست‌ها در سراسر زمان همه‌گیری بیماری کووید ۱۹ بود.
شبکه «ای بی سی» به ابزار «کراود تنگل» تکیه کرده است تا یک شبکه هماهنگ از صفحات فیس‌بوک مدیریت‌شده توسط آفریقایی‌ها را که سعی در تأثیرگذاری بر نتیجه انتخابات عمومی امسال بریتانیا داشتند، شناسایی کند. ما همچنین از این ابزار استفاده کردیم تا نشان دهیم که اطلاعات نادرست و نظریه‌های توطئه نژادپرستانه چگونه در رأی‌گیری سال گذشته استرالیا در مورد حقوق بومیان این کشور غلبه داشت.

 
بخش راستی‌آزمایی «ای بی سی نیوز»، متوجه شده است که برخی از اعضای دولت بریتانیا نیز از «کراود تنگل» استفاده کرده‌اند. وقتی مشخص شد که پست‌های جنجالی به شعله‌ورشدن ناآرامی‌های نژادی کمک می‌کنند، دولت با شرکت‌های بزرگ شبکه‌های اجتماعی تماس گرفت. «پیتر کایل» [5] - وزیر فناوری بریتانیا - گفت: «من به طور واضح اعلام کرده‌ام که این غیرقابل‌قبول است که مردم از شبکه‌های اجتماعی برای ایجاد آسیب، نگرانی و ویرانی در جوامع ما استفاده کنند. من جلسات مفیدی با تیک‌تاک، متا، گوگل و ایکس داشته‌ام تا مسئولیت آن‌ها برای ادامه همکاری با ما برای جلوگیری از انتشار اطلاعات نادرست، تحریک‌آمیز و نفرت‌آمیز را روشن کنم. حجم قابل‌توجهی از محتوای نادرست در حال گردش است که پلتفرم‌ها باید با سرعت با آن برخورد کنند.»

 

حرکت شبکه‌های اجتماعی در مسیر ابهام بیشتر

صدها نفر به‌خاطر مشارکت در ناآرامی‌های انگلیس دستگیر شده‌اند و برخی از متخلفان نیز حکم زندان دریافت کرده‌اند. اگرچه پلیس بریتانیا «اکسل روداکوبانا» [6]، ۱۷ساله، متولد «کاردیف» در انگلیس را به‌عنوان مظنون اصلی چاقوکشی «ساوتپورت» معرفی کرد، پست‌های رسانه‌های اجتماعی در مورد حمله به مهاجران مسلمان، همچنان در فضای مجازی منتشر می‌شود.

نخست‌وزیر بریتانیا - «کر استارمر» - همچنین تحت‌فشار بوده است تا تحقیقات درباره نقش پلتفرم‌های اجتماعی در تشدید ناآرامی‌ها را آغاز کند. علی‌رغم فشار دولت‌ها در سرتاسر جهان برای شفافیت، شرکت‌های بزرگ فناوری به‌تدریج به‌سوی ایجاد ابهام بیشتر می‌روند. «مارک اوون جونز» [7] - نویسنده و کارشناس اطلاعات نادرست دیجیتال از دانشگاه «نورث وسترن» قطر - می‌گوید: «من این را اثر ماسک می‌نامم». ایلان ماسک - مالک ایکس - پس از انتشار پست خود در این پلتفرم مبنی بر اینکه «جنگ داخلی، اجتناب‌ناپذیر است»، در پاسخ به پستی که خشونت را به مهاجرت دسته‌جمعی و مرزهای باز نسبت می‌داد، شخصاً به تحریک ناآرامی‌ها متهم شده است.
دکتر جونز می‌گوید: «او تیم اعتماد و ایمنی توییتر (اکنون ایکس) را که مسئول مبارزه با اطلاعات نادرست، سخنان نفرت‌انگیز و دست‌کاری پلتفرم بود، بست. او تمام تیم را اخراج کرد تا در هزینه‌ها صرفه‌جویی کند. اگر ماسک کاری انجام دهد، شرکت‌های دیگر نیز می‌توانند از او پیروی کنند.»

 

نقش هوش مصنوعی

تصاویر و فیلم‌هایی نژادپرستانه و آزاردهنده که با هوش مصنوعی تولید شده، به یکی از محبوب‌ترین محتواهای منتشر شده در شبکه‌های اجتماعی تبدیل شده است.

اینجا فقط صفحاتی نیستند که لفاظی‌های خشونت‌آمیزی دارند که بدون «کراود تنگل» نمی‌توان آنها را شناسایی کرد. رونق اخیر هوش مصنوعی، باعث شده است تا فیس‌بوک و اینستاگرام پر از محتواهای عجیب‌وغریب و ناراحت‌کننده شوند. در طول سال گذشته، تصاویر تولید شده توسط هوش مصنوعی به یکی از محبوب‌ترین و پربازدیدترین انواع محتوا در پلتفرم‌های متا تبدیل شده‌اند. تصاویر تولید شده توسط هوش مصنوعی از عیسی مسیح که در ابرهای سفید ظاهر می‌شود یا کارهای قهرمانانه انجام می‌دهد تا ۱.۶ میلیون واکنش و به‌اشتراک‌گذاری را به خود اختصاص داده است که آنها، با محبوب‌ترین پست‌های «تیلور سوئیفت» برابری می‌کند. برخی از محتواهای تولید شده در این مسابقه برق‌آسای تولید شده توسط هوش مصنوعی، استثمارگرانه است و عمیقاً ریشه در کلیشه‌های نژادپرستانه دارد؛ از جمله مواردی که کودکان بیمار و بدشکل را از کشورهای درحال‌توسعه نشان می‌دهد که از درد به خود می‌پیچند. بر اساس گزارش رصدخانه اینترنتی «استنفورد»، بسیاری از این محتواها، مانند صفحه «میهن‌پرستان بریتانیا»، از طریق فعالیت‌های غیراصولی تقویت شده و احتمالاً توسط هرزنامه‌ها و کلاهبرداران اداره می‌شود. رسانه ۴۰۴ که در حوزه فناوری فعالیت می‌کند، دریافته است که تولید انبوه این تصاویر تا حدی توسط برنامه سازنده محتوای خود - متا - تقویت شده است که به کاربران دعوت‌شده به این برنامه برای پست‌هایی که عملکرد خوبی دارند، پاداش پرداخت می‌کند.

متا مستقیماً به سؤالات «ای بی سی» در مورد اینکه چرا «کراود تنگل» را تعطیل می‌کند، پاسخ نداد؛ اما در عوض، ما را به یک پست وبلاگی هدایت کرد که ابزار تحقیقاتی جایگزین خود، تحت عنوان کتابخانه محتوای متا (MCL) در آنجا بود. پاسخ به عملکرد کتابخانه محتوای متا (MCL) از سوی کسانی که از آن استفاده کرده‌اند، متفاوت بوده است. «آکسل برانس» [8] - کارشناس اطلاعات نادرست در دانشگاه فناوری «کوئینزلند» - گفت که کتابخانه محتوای متا، یک محصول نسبتاً قوی است که برخی از خلأهای «کراود تنگل» را پر می‌کند و به محققان اجازه می‌دهد تا محتوای تولید شده را در سطح جزئی بررسی کنند. بااین‌حال، پروفسور «برونز» به «ای بی سی نیوز» گفت: «محدودکردن دسترسی به ابزار جایگزین، مسئولیت علامت‌گذاری اطلاعات نادرست و محتوای مضر را تقریباً به طور کامل بر دوش دانشگاهیان می‌گذارد». او گفت: «ما به سازمان‌های بیشتری نیاز داریم که این نوع کار را انجام دهند؛ زیرا واضح است که اطلاعات نادرست و عملیات نفوذ زیادی در شبکه‌های اجتماعی وجود دارد. متا در واکنش به بازیگران بدی که بحران‌ها را دست‌کاری می‌کنند تا سخنان نفرت‌انگیز را گسترش دهند، بهتر از رقبای خود عمل کرد؛ اما بسته‌شدن یک ابزار شفاف‌سازی در دسترس عموم به این معنی بود که ما نقطه فشاری را از دست خواهیم داد که آنها را در مسیر درست نگه دارد. بدون «کراود تنگل»، اطلاعات نادرست قطعاً بدتر منتشر خواهد شد. بدون اینکه بتوانیم شواهدی را ارائه کنیم که بگوییم... این به نظر دست‌کاری است. فیس‌بوک می‌تواند ما را نادیده بگیرد و مشکل را انکار کند و ما نیز توانایی زیرسؤال‌بردن آن را نداریم.»

[1] . Michael Workman
[2] Kevin Nguyen
[3] . Julie Inman Grant
[4] . Plandemic
[5] . Peter Kyle
[6] . Axel Rudakubana
[7] . Marc Owen Jones
[8] . Axel Bruns

/ انتهای پیام / 

ارسال نظر
captcha

جنگ پنهان هویتی در درون اسرائیل

چرا قوانین داخل خانه تغییر نمی‌کند؟

قتل و ترور، یقه سیاستمدار غربی را گرفته است!

راست افراطی با اروپا و آمریکا چه می‌کند؟

سواری‌گرفتن مخاطب از سلبریتی!

نابودی هژمونی لیبرال غربی در دانشگاه‌های آمریکا

عرفی شدن، نخستین گام جنسیت‌زدگی

در برابر عادی‌سازی شرارت و بی‌عدالتی اسرائیل مقاومت کنید

عصر کاهش جمعیت؛ چالش‌ها و راهکارها

دانشگاه‌های آمریکا، بازوهای دولت پلیسی

علم؛ قدرتی که آمریکا دارد از دستش می‌دهد!

مسئله نافهمیِ تحلیل‌های اجتماعی: کجا ایستاده‌ایم و چگونه برویم؟!

چگونه با اطلاعات نادرست مقابله کنیم؟

مدیریت مُد در بن‌بست؛ نمی‌توانیم یا نمی‌خواهیم؟

چه چیزی باعث خشونت سیاسی در آمریکا می‌شود؟

جنگ غزه مرا در هم شکست

«هاروارد» بی‌طرف نیست!

چرا ترامپ به سمت رمزارزها متمایل شد؟

قصه‌هایی از بیم و امید زنان فراری از مصائب اعتیاد!

جهان در کنار عدالت می‌ایستد یا قانون جنگلی که آمریکا از آن حمایت می‌کند؟

پرونده ها