گروه جامعه و اقتصاد «سدید»؛ ۳۰ جولای ۲۰۲۴، به دنبال انتشار گزارشهایی درباره قتل سه دختر خردسال در شهر «ساوتپورت» انگلیس، آشوب سراسر این کشور را فراگرفت. اینطور ادعا شد که قاتل، فردی از میان مهاجران مسلمان بوده که اخیراً به شکل قاچاقی و با قایقهای کوچک به انگلستان وارد شده است. در این میان، نقش شبکههای اجتماعی در انتشار گسترده این شایعه و جرقه اولیه آشوبها بسیار مهم بود. شبکههای اجتماعی در انگلیس با انتشار گسترده گزارشهای خلاف واقع درباره نقش مسلمانان، زمینهساز اقدامات تحریکآمیز و خشونتبار افراطگرایان راستگرا و مهاجر ستیزان، علیه جامعه مسلمانان این کشور شدند. انتشار شایعات در شبکه ایکس (توییتر) و بهویژه توسط اینفلوئنسرهایی که هرکدام دنبالکنندههای میلیونی داشتند، در تقویت این ادعای دروغین سهم بسزایی داشت. در این میان، «ایلان ماسک» نیز نقش برجستهای در آشوبها داشت. توییت ماسک با ۱۹۳ میلیون دنبالکننده در بازنشر یک خبر جعلی در رابطه با قصد نخستوزیر انگلیس برای ایجاد یک بازداشتگاه اضطراری برای شورشیان در جزایر «مالویناس»، آن هم به نقل از رهبر یکی از گروههای راستگرای افراطی موسوم به «بریتانیا اول»، آنقدر جنجالبرانگیز بود که وی را وادار کرد در کمتر از ۳۰ دقیقه، آن را حذف کند. علاوه بر این، توییت دیگر او در مورد «اجتنابناپذیر بودن جنگ داخلی» در بریتانیا، خشم شدید مقامات انگلیسی را به دنبال داشت؛ بهطوریکه نخستوزیر انگلیس، صراحتاً به شبکههای اجتماعی و مالکان آنها در مورد نفرتپراکنی و نقض قوانین هشدار داد. به دلیل نقش شبکههای اجتماعی در این آشوبها، توجه بسیاری در رسانههای غربی به موضوع شبکههای اجتماعی و ضرورت سروسامان دادن به آن و اعمال حکمرانی مؤثر دولتی جلب شده است. «مایکل ورکمن» [1] - محقق و گزارشگر - و «کوین نگوین» [2] - روزنامهنگار تحقیقی - در یادداشت مشترکی که وبسایت «abc.net» آن را منتشر کرده است، به بهانه آشوبهای انگلیس نگاهی به تلاش شبکههای اجتماعی برای فرار از شفافیت و عدم کنترل بر انتشار محتوا انداختهاند.
اوباش فضای مجازی و آشوبهای انگلیس
یک هفته قبل از شروع شورشهای نژادی در سراسر انگلیس و ایرلند شمالی، اوباش فضای مجازی صفحهای در فیسبوک به نام «میهنپرستان بریتانیا» راهاندازی کردند. آنها از لحظهای که این صفحه در اواخر ژوئیه ایجاد شد، شروع به انتشار اطلاعات غلط ضدمهاجرتی کردند و محتوای آن را با دنبالکنندگان جعلی از کشورهایی مثل ویتنام و هند، با هدف احتمالی جذب مخاطبی که بعداً بتوانند آنها را به وبسایتهایی با تبلیغات هدایت کنند، تقویت کردند. پس از چاقوکشی مرگبار علیه سه دختر خردسال در شهر ساحلی «ساوتپورت» در ۲۹ ژوئیه، پستهای اینترنتی جعلی که به اشتباه قاتل را بهعنوان یک مهاجر اسلامگرا معرفی میکرد، باعث خشونت گسترده در بریتانیا شد. اینجا بود که مدیران صفحه «میهنپرستان بریتانیا» فرصت را فراهم دیدند. آنها شروع به انتشار شایعاتی درباره «باندهای مخفی که در بریتانیا به دنبال مردم هستند» کردند و فراخوانهایی برای شرکت مردم در تظاهراتی که توسط گروههای ضدمهاجرتی سازماندهی شده بود، به اشتراک گذاشتند.
شرکت متا تصمیم گرفته است مهمترین ابزار شفافیت خود که محتوای نادرست را در فیسبوک شناسایی میکرد؛ تعطیل کند.
در ۲ آگوست، مدیران این صفحه در فیسبوک، تصویری از یک مرد کارتونی خندان با چاقویی که از سینهاش بیرون زده بود، با عنوان «لوگوی جدید ساوتپورت» منتشر کردند. زمانی که «ای بی سی نیوز» رفتار غیراصولی این صفحه را به متا - شرکت مادر فیسبوک - گزارش داد، بلافاصله این تصویر حذف شد. عمر کوتاه «میهنپرستان بریتانیا» باعث شد تأثیر آن حداقلی باشد، اما صفحات مشابهی که اطلاعات غلط و بالقوه خطرناکی را منتشر میکنند، ممکن است از دیدگان ما پنهان بمانند. بخش راستیآزمایی «ای بی سی» توانست این صفحه را با استفاده از ابزار متعلق به متا به نام «کراود تنگل» (CrowdTangle) شناسایی کند. امروز پس از سالها که این ابزار شفافیت، باعث شرمساری عمومی فیسبوک شده بود، این شرکت تصمیم به حذف دائمی آن گرفته است.
«کراود تنگل» چیست و چرا بسته میشود؟
متا «کراود تنگل» را در سال ۲۰۱۶ خریداری کرد؛ در آن زمان بیشتر از آن بهعنوان یک ابزار بازاریابی و مدیریت رسانههای اجتماعی استفاده میشد. «کراود تنگل» به طور مؤثر یک موتور جستجوی قوی برای شبکههای اجتماعی بود و راهی رایگان و نادر برای ورود به داخل فیسبوک و اینستاگرام و پیگیری آنچه که در حال گسترش بود و افرادی که مسئول آن بودند، ارائه میداد. «کراود تنگل» ابزاری تحلیلی بود که برای سالها به محققان، روزنامهنگاران و گروههای جامعه مدنی کمک میکرد تا بفهمند اطلاعات، چگونه در فیسبوک و اینستاگرام منتشر میشود. این اطلاعات بهراحتی در یوتیوب و ایکس (که قبلاً توییتر نامیده میشد) در دسترس نبود. اکثر ۳ میلیارد کاربر فعال ماهانه فیسبوک، هرگز از آن استفاده نکردهاند و حتی در ابتدا متوجه نمیشوند که از بین رفته است؛ بااینحال، بستهشدن قریبالوقوع آن، دانشگاهیان، روزنامهنگاران و گروههای مدنی که به آن متکی هستند را برای افشای اطلاعات نادرست به وحشت انداخته است.
گزارشها از آمریکا حاکی از آن است که «متا»، از سال ۲۰۲۱ بهآرامی منابع «کراود تنگل» را از بین برده است و قصد داشت آن را در سال ۲۰۲۲ غیرفعال کند؛ اما به دلیل قانون خدمات دیجیتال اتحادیه اروپا که شرکتهای رسانههای اجتماعی را ملزم میکند به محققان اجازه دسترسی به دادههای پلتفرم را بدهد، مجبور شد آن را عملیاتی نگه دارد. متا در حال راهاندازی یک جایگزین به نام کتابخانه محتوای متا (MCL) است، اما دسترسی به آن را محدود به دانشگاهیان و محققان غیرانتفاعی تأییدشده کرده است. این غول فناوری، از فراخوانهای سطح بالا، از جمله کنگره ایالات متحده و کمیسیون اروپا، برای زنده نگهداشتن «کراود تنگل» سرپیچی کرده و آن را در ۱۴ آگوست به طور رسمی غیرفعال خواهد کرد.
کمیسیونر ایمنی دیجیتال استرالیا - «جولی اینمن گرانت» [3] - که به دنبال افزایش شفافیت از سوی فناوریهای بزرگ بوده است، بهخاطر ازدستدادن یک ابزار نظارت اجتماعی پیش از انتخابات ریاستجمهوری آمریکا در ماه نوامبر، ابراز تأسف کرد. وی گفت: «ممکن است شاهد ظهور روشهای جدیدی از آسیب و گسترش اطلاعات نادرست و مغرضانه باشیم. اگر ما ابزارهای نظارت بر شبکههای اجتماعی که حداقلی از شفافیت را به ما میدهند، از بین ببریم، این موضوع توانایی ما را برای مداخله و جلوگیری از فعالیتهای مضر که فرایندهای دموکراتیک را تضعیف میکند، محدود خواهد کرد.»
علیرغم فشار دولتها در سرتاسر جهان برای شفافیت، شرکتهای بزرگ فناوری بهتدریج بهسوی ایجاد ابهام بیشتر حرکت میکنند.
ابزار شفافیت، سالهاست که خاری در چشم متا بوده است. دادههای «کراود تنگل»، مکرراً توسط خبرنگاران و دانشگاهیان استفاده شده است تا نشان دهند که محتوای پرطرفدار فیسبوک، اغلب بیش از حد سیاسی یا مملو از اطلاعات نادرست است. در سال ۲۰۲۰، نیویورکتایمز بر این ابزار تکیه کرد تا نشان دهد که چگونه پلاندمیک[4]- یک فیلم تئوری توطئه با شهادت یک فعال ضد واکسن بدنام - یکی از بهترین پستها در سراسر زمان همهگیری بیماری کووید ۱۹ بود.
شبکه «ای بی سی» به ابزار «کراود تنگل» تکیه کرده است تا یک شبکه هماهنگ از صفحات فیسبوک مدیریتشده توسط آفریقاییها را که سعی در تأثیرگذاری بر نتیجه انتخابات عمومی امسال بریتانیا داشتند، شناسایی کند. ما همچنین از این ابزار استفاده کردیم تا نشان دهیم که اطلاعات نادرست و نظریههای توطئه نژادپرستانه چگونه در رأیگیری سال گذشته استرالیا در مورد حقوق بومیان این کشور غلبه داشت.
بخش راستیآزمایی «ای بی سی نیوز»، متوجه شده است که برخی از اعضای دولت بریتانیا نیز از «کراود تنگل» استفاده کردهاند. وقتی مشخص شد که پستهای جنجالی به شعلهورشدن ناآرامیهای نژادی کمک میکنند، دولت با شرکتهای بزرگ شبکههای اجتماعی تماس گرفت. «پیتر کایل» [5] - وزیر فناوری بریتانیا - گفت: «من به طور واضح اعلام کردهام که این غیرقابلقبول است که مردم از شبکههای اجتماعی برای ایجاد آسیب، نگرانی و ویرانی در جوامع ما استفاده کنند. من جلسات مفیدی با تیکتاک، متا، گوگل و ایکس داشتهام تا مسئولیت آنها برای ادامه همکاری با ما برای جلوگیری از انتشار اطلاعات نادرست، تحریکآمیز و نفرتآمیز را روشن کنم. حجم قابلتوجهی از محتوای نادرست در حال گردش است که پلتفرمها باید با سرعت با آن برخورد کنند.»
حرکت شبکههای اجتماعی در مسیر ابهام بیشتر
صدها نفر بهخاطر مشارکت در ناآرامیهای انگلیس دستگیر شدهاند و برخی از متخلفان نیز حکم زندان دریافت کردهاند. اگرچه پلیس بریتانیا «اکسل روداکوبانا» [6]، ۱۷ساله، متولد «کاردیف» در انگلیس را بهعنوان مظنون اصلی چاقوکشی «ساوتپورت» معرفی کرد، پستهای رسانههای اجتماعی در مورد حمله به مهاجران مسلمان، همچنان در فضای مجازی منتشر میشود.
نخستوزیر بریتانیا - «کر استارمر» - همچنین تحتفشار بوده است تا تحقیقات درباره نقش پلتفرمهای اجتماعی در تشدید ناآرامیها را آغاز کند. علیرغم فشار دولتها در سرتاسر جهان برای شفافیت، شرکتهای بزرگ فناوری بهتدریج بهسوی ایجاد ابهام بیشتر میروند. «مارک اوون جونز» [7] - نویسنده و کارشناس اطلاعات نادرست دیجیتال از دانشگاه «نورث وسترن» قطر - میگوید: «من این را اثر ماسک مینامم». ایلان ماسک - مالک ایکس - پس از انتشار پست خود در این پلتفرم مبنی بر اینکه «جنگ داخلی، اجتنابناپذیر است»، در پاسخ به پستی که خشونت را به مهاجرت دستهجمعی و مرزهای باز نسبت میداد، شخصاً به تحریک ناآرامیها متهم شده است.
دکتر جونز میگوید: «او تیم اعتماد و ایمنی توییتر (اکنون ایکس) را که مسئول مبارزه با اطلاعات نادرست، سخنان نفرتانگیز و دستکاری پلتفرم بود، بست. او تمام تیم را اخراج کرد تا در هزینهها صرفهجویی کند. اگر ماسک کاری انجام دهد، شرکتهای دیگر نیز میتوانند از او پیروی کنند.»
نقش هوش مصنوعی
تصاویر و فیلمهایی نژادپرستانه و آزاردهنده که با هوش مصنوعی تولید شده، به یکی از محبوبترین محتواهای منتشر شده در شبکههای اجتماعی تبدیل شده است.
اینجا فقط صفحاتی نیستند که لفاظیهای خشونتآمیزی دارند که بدون «کراود تنگل» نمیتوان آنها را شناسایی کرد. رونق اخیر هوش مصنوعی، باعث شده است تا فیسبوک و اینستاگرام پر از محتواهای عجیبوغریب و ناراحتکننده شوند. در طول سال گذشته، تصاویر تولید شده توسط هوش مصنوعی به یکی از محبوبترین و پربازدیدترین انواع محتوا در پلتفرمهای متا تبدیل شدهاند. تصاویر تولید شده توسط هوش مصنوعی از عیسی مسیح که در ابرهای سفید ظاهر میشود یا کارهای قهرمانانه انجام میدهد تا ۱.۶ میلیون واکنش و بهاشتراکگذاری را به خود اختصاص داده است که آنها، با محبوبترین پستهای «تیلور سوئیفت» برابری میکند. برخی از محتواهای تولید شده در این مسابقه برقآسای تولید شده توسط هوش مصنوعی، استثمارگرانه است و عمیقاً ریشه در کلیشههای نژادپرستانه دارد؛ از جمله مواردی که کودکان بیمار و بدشکل را از کشورهای درحالتوسعه نشان میدهد که از درد به خود میپیچند. بر اساس گزارش رصدخانه اینترنتی «استنفورد»، بسیاری از این محتواها، مانند صفحه «میهنپرستان بریتانیا»، از طریق فعالیتهای غیراصولی تقویت شده و احتمالاً توسط هرزنامهها و کلاهبرداران اداره میشود. رسانه ۴۰۴ که در حوزه فناوری فعالیت میکند، دریافته است که تولید انبوه این تصاویر تا حدی توسط برنامه سازنده محتوای خود - متا - تقویت شده است که به کاربران دعوتشده به این برنامه برای پستهایی که عملکرد خوبی دارند، پاداش پرداخت میکند.
متا مستقیماً به سؤالات «ای بی سی» در مورد اینکه چرا «کراود تنگل» را تعطیل میکند، پاسخ نداد؛ اما در عوض، ما را به یک پست وبلاگی هدایت کرد که ابزار تحقیقاتی جایگزین خود، تحت عنوان کتابخانه محتوای متا (MCL) در آنجا بود. پاسخ به عملکرد کتابخانه محتوای متا (MCL) از سوی کسانی که از آن استفاده کردهاند، متفاوت بوده است. «آکسل برانس» [8] - کارشناس اطلاعات نادرست در دانشگاه فناوری «کوئینزلند» - گفت که کتابخانه محتوای متا، یک محصول نسبتاً قوی است که برخی از خلأهای «کراود تنگل» را پر میکند و به محققان اجازه میدهد تا محتوای تولید شده را در سطح جزئی بررسی کنند. بااینحال، پروفسور «برونز» به «ای بی سی نیوز» گفت: «محدودکردن دسترسی به ابزار جایگزین، مسئولیت علامتگذاری اطلاعات نادرست و محتوای مضر را تقریباً به طور کامل بر دوش دانشگاهیان میگذارد». او گفت: «ما به سازمانهای بیشتری نیاز داریم که این نوع کار را انجام دهند؛ زیرا واضح است که اطلاعات نادرست و عملیات نفوذ زیادی در شبکههای اجتماعی وجود دارد. متا در واکنش به بازیگران بدی که بحرانها را دستکاری میکنند تا سخنان نفرتانگیز را گسترش دهند، بهتر از رقبای خود عمل کرد؛ اما بستهشدن یک ابزار شفافسازی در دسترس عموم به این معنی بود که ما نقطه فشاری را از دست خواهیم داد که آنها را در مسیر درست نگه دارد. بدون «کراود تنگل»، اطلاعات نادرست قطعاً بدتر منتشر خواهد شد. بدون اینکه بتوانیم شواهدی را ارائه کنیم که بگوییم... این به نظر دستکاری است. فیسبوک میتواند ما را نادیده بگیرد و مشکل را انکار کند و ما نیز توانایی زیرسؤالبردن آن را نداریم.»
[1] . Michael Workman
[2] Kevin Nguyen
[3] . Julie Inman Grant
[4] . Plandemic
[5] . Peter Kyle
[6] . Axel Rudakubana
[7] . Marc Owen Jones
[8] . Axel Bruns
/ انتهای پیام /