کلان‌داده‌ها چگونه واقعیت و قدرت می‌سازند؟

الگوریتم‌ها تعیین کننده محتوای فکر انسان

الگوریتم‌ها تعیین کننده محتوای فکر انسان
اگر ما هوش مصنوعی را ابزاری صرفاً برای پاسخگویی بدانیم، گرفتار اتوماسیون می‌شویم. اما اگر آن را به پرسش بکشیم، به عبارتی به عنوان مخاطب ما در پرسش باشد، می‌توانیم به دانش عمیق‌تر، پرسنده و مسئولانه‌تر دست پیدا کنیم. ضمن اینکه در این مسیر نه‌تنها محتوای پرسش‌ها بلکه چگونگی فهم و بازتاب آن در جامعه حیاتی بوده و هوش مصنوعی با اینکه ذهنی سریع دارد اما قلب و خرد پرسنده هنوز در انسان پرسشگر وجود دارد. 

به گزارش «سدید»؛ هوش مصنوعی با تکیه بر کلان‌داده‌ها، دگرگونی بزرگی در پردازش اطلاعات و تعاملات انسانی ایجاد کرده است. این فناوری با استفاده از الگوریتم‌های پیچیده، یادگیری ماشین و داده‌های عظیم، موجب بهینه‌سازی فرایند‌های مختلف و افزایش کارایی در کسب‌وکار‌ها شده است. در یکی از پنل‌های همایش ملی هوش مصنوعی، ارتباطات انسان-ماشین و آینده که به مناسبت روز جهانی ارتباطات در دانشکده علوم اجتماعی دانشگاه تهران برگزار شد، مرضیه ادهم پژوهشگر داده‌های اجتماعی، هادی خانیکی عضو هیئت علمی دانشگاه علامه طباطبایی، محمد رهبری مشاور وزیر ارتباطات در امور فناوری و نوآوری اجتماعی داده‌محور و رامین رامیار دکتری مدیریت فناوری و اطلاعات و پژوهشگر کسب‌وکار هوشمند به بررسی چالش‌ها و فرصت‌های موجود در این حوزه پرداخته و راهکار‌هایی برای بهره‌گیری بهتر از این فناوری‌ها ارائه کردند. در ادامه گزارشی از این پنل را می‌خوانید. 

مرضیه ادهم، پژوهشگر داده‌های اجتماعی: درواقع در پنل هوش مصنوعی، فناوری و کلان‌داده‌ها با نگاهی بین‌رشته‌ای به موضوع هوش مصنوعی پرداخته می‌شود تا بتوانیم توانمندی‌ها، پتانسیل‌ها و ظرفیت‌های این فناوری را بررسی کنیم. درست است که همه افراد به نوعی با مفهوم هوش مصنوعی آشنا هستند، اما برای درک عمیق‌تر امکانات و کاربرد‌های این فناوری، نیازمند دانش بین‌رشته‌ای و سواد دیجیتالیم. با توجه به اینکه این پنل در دانشکده علوم اجتماعی برگزار می‌شود و بیشتر شرکت‌کنندگان از رشته‌های علوم انسانی هستند، ممکن است بیس ریاضی کافی برای شناخت دقیق‌تر از پدیده‌های هوش مصنوعی را نداشته باشند. بنابراین، ما این پنل را به بررسی این موضوع اختصاص دادیم تا نگاهی میدانی به نحوه استفاده از هوش مصنوعی داشته باشیم. به عبارتی هدف ما از برگزاری پنل این بوده که به چگونگی تعامل و گفت‌وگو با هوش مصنوعی دست پیدا کنیم و از آن برای انجام کار‌های تبلیغاتی بهره‌برداری کنیم. 

 

گفت‌وگو با هوش مصنوعی نیازمند فهم فرامتن است نه فقط متن

هادی خانیکی، عضو هیئت علمی دانشگاه علامه طباطبایی: مسئله ارتباط انسان با ماشین یکی از مهم‌ترین مقوله‌هایی است که در دنیای امروز باید به آن پرداخته شود. با توجه به اینکه یکی از دغدغه‌های من در سال‌های اخیر، پرداختن به مسائل فرهنگی، سیاسی، اجتماعی، فناورانه و علمی از منظر گفت‌وگو بوده، پیشنهادم نیز این است که به موضوع هوش مصنوعی و امکان گفت‌وگو در این زمینه بپردازیم. هنگامی که از گفت‌وگو صحبت به میان می‌آید، با طبقه‌بندی‌های آشنایی در مطالعات کلاسیک گفت‌وگو و مواجهه‌های متعارف آن مانند گفت‌وگو‌های انسان با جامعه، شهروند با حاکمیت، انسان با طبیعت و حتی انسان با خویشتن روبه‌رو می‌شویم درحالی‌که گفت‌وگوی انسان با ماشین پدیده جدیدی خصوصاً برای رشته ارتباطات بوده که نوعاً سؤالات جدیدی هم ایجاد می‌کند. 

ساحت‌ها و رویکرد‌هایی هم که از گفت‌وگو متناظر می‌شوند دارای طبقاتی‌اند که در بالاترین سطح آن گفت‌وگو وجود داردکه به معنای خلق معنای مشترک است و توسط ذی‌نفعان یا کسانی که در گفت‌وگو شرکت می‌کنند پدید می‌آید. در یک مرحله پایین‌تر گفت‌وگو به ارتباط تبدیل می‌شود که به معنای انتقال پیام یا معنا بوده و باید با حداکثر دقت و صحت انجام شود. در مرحله بعد به مذاکره می‌رسیم که در حوزه سیاست مطرح می‌شود و به معامله، مصالحه و در اشکال جدید‌تر به چت یا گفت‌وگو‌هایی که معمولاً بی‌هدفی‌اند اشاره دارند. به همین دلیل مسئله امروز با ایجاد سؤالی تحت عنوان فراهم کردن امکان گفت‌وگو توسط هوش مصنوعی مطرح می‌شود. سؤالی که به موضوع پرسشگری انسانی و مسئولیت‌های ارتباطی پرداخته و در این راستا سعی می‌کنم از طریق تخصص خود در زمینه ارتباطات و با مطرح کردن سه سؤال کلیدی، ورود کنم. اولین سؤال من این است که آیا گفت‌وگو با هوش مصنوعی ممکن است یا خیر؟ دوم اینکه اگر چنین گفت‌وگویی ممکن باشد، چگونه می‌توان آن را تصور کرد؟ و سوم اینکه اگر گفت‌وگو با هوش مصنوعی متصور است، چه مبانی و الزاماتی در حوزه ارتباطات دارد؟

شاید در نگاه نخست عجیب به نظر برسد که گفت‌وگوی انسان با ماشین به چه میزان به هم مرتبط می‌شوند. همان طور که پیش‌تر هم بیان شد گفت‌وگو، خلق و معنای مشترک با یکدیگر است که یک سنت انسانی و ریشه‌دار با گفت‌وگو‌های انسان با خود، طبیعت، هستی و حاکمیت دارد. به همین دلیل این گفت‌وگو‌ها با تاریخ، جامعه، اخلاق، زبان، سکوت و نگاه پیوند دارند. سکوت و نگاهی که در ارتباطات نوعی گفت‌وگو‌یند و در ارتباط با ماشین هم می‌توانند منتقل شوند. ضمن اینکه در برابر این نوع گفت‌وگو‌های سنتی، با فناوری به نام هوش مصنوعی دست‌وپنجه نرم می‌کنیم که مجموعه‌ای از الگوریتم‌ها و داده‌هاست.

 پاسخ من به سؤال اول در راستای مطالعات و مواجهه‌های اندک خود با این فناوری جدید این بوده که گفت‌وگو با هوش مصنوعی با درنظر گرفتن یک‌سری ملاحظات ممکن می‌شود. درواقع گفت‌وگو با هوش مصنوعی زمانی ممکن می‌شود که به جای تبادل واژگان یا پرسش و پاسخ‌های مکانیکی، آن را یک کنش ارتباطی، فرایند معناآفرین و حرکت دوسویه برای فهم و تفاهم درنظر بگیریم. با اینکه هوش مصنوعی به ویژه در نسخه‌های پیشرفته‌اش مانند ChatGPT قابلیت‌هایی برای تعامل زبانی، تولید پاسخ و حتی شبیه‌سازی از الگو‌های گفت‌وگویی دارد اما هنوز فاقد ادراک انسانی، تجربه زیسته و مسئولیت اخلاقی است. درنتیجه گفت‌وگو با هوش مصنوعی ممکن بوده اما با آگاهی از حدود ابزار و تعهد به معنا صورت می‌گیرد.

برای پاسخ به پرسش دوم باید به سه سطح توجه کنیم. اولین مورد سطح تعاملی بوده که در آن کاربر و هوش مصنوعی در یک رابطه کنشی و واکنشی مانند پرسش و پاسخ‌های متنی یا تحلیلی قرار می‌گیرند. رابطه‌ای که کاربر باید بتواند به صورت دقیق، شفاف و زمینه‌مند پرسش‌های خود را مطرح کرده و از آن مهم‌تر پاسخ را سنجیده و نقادانه ارزیابی کند. مرحله‌ای که نشان می‌دهد کیفیت گفت‌وگو به مهارت پرسشگری و سواد دیجیتال انسان بستگی دارد. سطح دوم نیز تعاملی است. گفت‌وگو فقط گرفتن پاسخ نیست بلکه بازاندیشی در پاسخ‌ها و پرسش‌های خود است. گفت‌وگو یک فرایند، مسیر و نقطه هدفی است که اگر هوش مصنوعی ما را اجبار به بهتر دیدن و دقیق‌تر پرسیدن کند، گفت‌وگو رخ می‌دهد. درواقع هوش مصنوعی در اینجا نقش یک آینه را دارد و مهم این بوده که ما چگونه از این فناوری برای فهم و بیداری خود بهره می‌گیریم.

سومین مورد هم سطح انتقادی بوده که بسیار مهم است. در این سطح گفت‌وگو به عرصه اخلاق، سیاست و دانش ورود می‌کند و پژوهشگر نمی‌تواند مصرف‌کننده صرف پاسخ‌های ماشینی باشد؛ بلکه باید ناظر، منتقد و پرسشگر خود ابزار هم باشد. و در اینجاست که گفت‌وگو به بازنگری در مرز انسان-ماشین، دانش-قدرت و اخلاق-فناوری منجر می‌شود.

در پاسخ به سؤال سوم ابتدا باید گفته شود که در ارتباطات، ما با معنا، زمینه، فرهنگ و قدرت روبه‌رو هستیم وگفت‌وگو با هوش مصنوعی نیز بر پایه چند عرصه انجام می‌شود. اولین عرصه سواد ارتباطی و انتقادی است یعنی باید لایه‌های پنهان در پاسخ‌های ماشینی را ببینیم تا به ناگفته‌ها، پیش‌فرض‌ها و نوع نگاه بازتولیدی پی ببریم؛ روندی که نیازمند فهم فرامتن است نه فقط متن.

دومین عرصه شفافیت و اخلاق پژوهش بوده که باید روشن باشد تا معلوم شود انسان در کجا می‌اندیشد و ماشین نیز در کجا عمل پردازش را انجام می‌دهد. زیرا پنهان کردن نقش هوش مصنوعی نوعی گمراه‌سازی است. سومین الزام نیز رعایت حدود ابزار و کرامت انسانی است. گفت‌وگو نباید به سلطه ابزار بر انسان بینجامد. به عبارتی ماشین نباید جای خلاقیت، داوری، تجربه زیسته و تخیل انسانی را بگیرد. یعنی باید ابزار را بشناسیم اما اسیر آن نشویم. چهارمین الزام هم درک ناترازی‌های ارتباطی و مسئولیت در قبال آن است. همه کاربران به یک اندازه از سواد و زبان بهره‌مند نیستند، به همین دلیل در طراحی و کاربرد هوش مصنوعی باید به این نابرابری‌ها توجه کنیم وگرنه گفت‌وگو به بازتولید نابرابری و تبعیض مبدل می‌شود.

در پایان اینکه گفت‌وگو با هوش مصنوعی نه فقط ابزاری برای کمک به پژوهش بلکه آینه‌ای برای بازاندیشی در افراد است، یعنی صورت‌بندی جدیدی از گفت‌وگو که در اشکال گذشته چندان به آن توجه نمی‌شد. بازاندیشی در گفت‌وگو یعنی توجه به معنا، اخلاق و مسئولیت انسانی. درواقع این فناوری گفت‌وگو را از سطح میان‌فردی و ارتباطات عمودی به سطح تازه‌ای از ارتباطات افقی بین انسان و الگوریتم، دانش و قدرت و پیشرفت و پیامد می‌کشاند. اگر ما هوش مصنوعی را ابزاری صرفاً برای پاسخگویی بدانیم، گرفتار اتوماسیون می‌شویم. اما اگر آن را به پرسش بکشیم، به عبارتی به عنوان مخاطب ما در پرسش باشد، می‌توانیم به دانش عمیق‌تر، پرسنده و مسئولانه‌تر دست پیدا کنیم. ضمن اینکه در این مسیر نه‌تنها محتوای پرسش‌ها بلکه چگونگی فهم و بازتاب آن در جامعه حیاتی بوده و هوش مصنوعی با اینکه ذهنی سریع دارد اما قلب و خرد پرسنده هنوز در انسان پرسشگر وجود دارد. 

 

الگوریتم‌ها فهم ما را شکل می‌دهند

محمد رهبری، مشاور وزیر ارتباطات در امور فناوری و نوآوری اجتماعی داده‌محور: تعبیری وجود دارد که تاریخ توسط فاتحان نوشته می‌شود یا به عبارتی دیگر کسانی که صاحب قدرت، ثروت و توان هژمونی کردن قدرت خودشان را دارند افرادی هستند که روایت خود را از تاریخ عرضه کردند، گرچه روایت‌های جایگزین دیگری هم شکل گرفته است. اما آنچه که امروز فهم ما را از تاریخ شکل می‌دهد عموماً روایتی بوده که قدرتمندان آن را روایت کردند. بنابراین فاتحان، روایتگر تاریخند و یک رابطه‌ میان قدرت و روایتگری در طول تاریخ وجود داشته که اکنون با ورود به دوران جدید، عصر هوش مصنوعی و شبکه اجتماعی با وفور داده‌ها، اطلاعات و کلان‌داده‌ها در ارتباط هستیم که جنس کاملاً متفاوتی با دوران گذشته دارند. درحقیقت زمانی که از روایت صحبت به میان می‌آید، اهمیت آن برای فاتحان به‌وضوح نمایان می‌شود. این روایت‌ها نه تنها بر افکار عمومی تأثیر می‌گذارند، بلکه توانایی جلب نظر مردم را نیز دارند و به همین دلیل قدرت‌زا هستند و در اینجاست که رابطه عمیق بین روایتگری و قدرت به‌وضوح مشاهده می‌شود. 

بحث امروز من درباره روایت‌سازی و شکل‌دهی به اطلاعات برای ایجاد ارتباط عاطفی و فکری با مخاطبان است. یعنی ما از داده‌ها و اطلاعاتی که وجود دارد استفاده می‌کنیم تا فرد روایتگر، نظر مخاطب خودش را به شکل عاطفی و فکری جلب کند و بر افکار عمومی اثر بگذارد. بنابراین روایت‌سازی نیازمند داده و اطلاعات است؛ داده و اطلاعاتی که حجم آن در طول تاریخ بی‌سابقه بوده و به صورت شبانه‌روز توسط ما در شبکه‌های اجتماعی ثبت می‌شود تا جایی که حتی مکث کردن کوتاه افراد در اینستاگرام برای دیدن یک کلیپ هم به صورت داده‌ای و کمی تبدیل می‌شود تا برای تجاری‌سازی تبلیغات مورد استفاده قرار گیرد.

به عبارت دیگر با مکث کردن، گفت‌وگو و جست‌وجو‌هایی که در گوگل انجام می‌شوند؛ اطلاعاتی را از خودمان برجای می‌گذاریم که هیچ‌گاه در دسترس نبوده و صاحبان کسب‌وکار‌ها این اطلاعات را از ما نداشته‌اند. اطلاعات و داده‌هایی که می‌توانند در خدمت روایت‌سازی قرار بگیرند. درواقع برای اینکه روایت‌سازی ارتباط فکری و عاطفی برقرار کند، به یک قصه و یک فرم جذاب نیاز دارد که امروزه با کمک هوش مصنوعی بسیار راحت‌تر تولید می‌شود.

فهم ما از واقعیت وابسته به تعاملات اجتماعی و ارتباطات با دیگران است. امروزه بسیاری از تعاملات و ارتباطات ما درون شبکه‌های اجتماعی رخ می‌دهد که الگوریتم‌ها، ربات‌ها و عامل‌های هوشمند در آنجا فعال‌اند. بنابراین اگر ما بپذیریم که تعاملات ما براساس تئوری سازه‌انگاری به فهم ما از واقعیت شکل می‌گیرد، درواقع این الگوریتم‌ها، ایجنت‌ها و ربات‌های هوشمند هستند که امروزه بر فهم ما از واقعیت اثر می‌گذارند و به عادات، رفتارها و سلایق افراد شکل می‌دهند، زیرا براساس آنچه که الگوریتم‌ها می‌گویند عمل می‌کنیم.

در واقع، الگوریتم‌ها از داده‌های ما همزمان استفاده می‌کنند تا بتوانند یک روایت هدفمند و ایده شخصی‌سازی شده را برای افراد ارائه کنند. بنابراین امروزه ادراک ما از واقعیت کاملاً تحت تأثیر ایجنت‌ها قرار می‌گیرد. با این وجود، در سمت دیگر نیز الگوریتم‌ها به گونه‌ای طراحی شده‌اند که حتی نحوه فکر کردن ما را هم تعیین می‌کنند. برای مثال، پژوهش‌های انتخابات پارلمانی در آلمان نشان داد که ایلان ماسک الگوریتم‌های توییتر را به گونه‌ای طراحی کرده که جریان‌های راست‌گرا بیشتر در فضای توییتر دیده شوند و توییت‌های احزاب چپ‌گرا کمتر دیده شوند. روندی که نشان می‌دهد الگوریتم‌ها به گونه‌ای طراحی می‌شوند که حتی محتوای تفکر ما را نیز تعیین می‌کنند.

با این حال، با توجه به وضعیت موجود می‌توانیم دو سناریو را برای زمان‌های پیش رو بیان کنیم. یک مورد سناریوهای بدبینانه است که نشان می‌دهد ایجنت‌های هوشمند واقعیت‌ها را برای ما تشریح می‌کنند که ممکن است متفاوت از واقعیت بیرونی باشد و فهم ما را تحت‌تأثیر هوش مصنوعی قرار می‌دهد. مورد دیگر روایت خوشبینانه است که تأکید می‌کند به دلیل دموکراتیک شدن استفاده از هوش مصنوعی، دسترس‌پذیری گسترده‌ای فراهم شده که می‌تواند اثرات منفی هوش مصنوعی را کاهش دهد.

بحثی که چند وقت پیش مطرح شد این بود که به دلیل توسعه هوش مصنوعی، استفاده از وب‌ها کمتر شده است. سناریوی بدبینانه‌ای که نشان می‌دهد این ایجنت‌های هوشمند در هوش مصنوعی، اخبار و اطلاعات را در اختیار ما قرار می‌دهند و موجب شده‌اند که برای پاسخ به سؤالات خود به جای مراجعه به وب‌سایت‌ها از هوش مصنوعی استفاده کنیم. داده‌هایی که ممکن است به صورت هدفمند اطلاعات را در اختیار ما قرار دهند و واقعیت‌ها را برای ما تشریح کنند. بعید نیست روزی فرا برسد که آگاهی‌های ما وابسته به الگوریتم‌های هوشمند شود و فهم ما را کسانی شکل دهند که در پشت این توسعه‌دهنده‌ها و هوش مصنوعی‌ها قرار دارند. از طرف دیگر، سناریوی خوشبینانه این است که Gemini (هوش مصنوعی گوگل) فیلم‌هایی را تولید کرده که کاملاً توسط هوش مصنوعی ساخته شده‌اند. در واقع، استفاده از هوش مصنوعی برای تولید تصاویر و فیلم‌ها در آینده نزدیک می‌تواند اثرات تولیدات هوشمند را عمومی کرده و آن را از انحصار یک گروه خاص خارج کند.

نکته حائز اهمیت این است که امروزه داده به عنوان طلای دیجیتال محسوب می‌شود، زیرا با استفاده از داده‌ها می‌توانیم تبلیغات را هدفمند کنیم و علایق و دغدغه‌های افراد را براساس داده‌هایی که از خود برجای می‌گذارند بشناسیم. طبق مطالعات انجام شده، بیشترین استفاده از هوش مصنوعی برای هم‌صحبتی و گفت‌وگو بوده که در آن اطلاعات خصوصی خود را در اختیار هوش مصنوعی قرار می‌دهیم و باعث می‌شود که تبلیغات هدفمند به راحتی انجام شوند و ما را اغنا کنند، زیرا به دلیل آشنایی با دغدغه‌های افراد، روایتی را به ما عرضه می‌کنند که ما آن را راحت‌تر می‌پذیریم.

در پایان، بحث الگوریتم‌های غیرشفاف است که نمی‌دانیم بر چه اساسی شکل گرفته‌اند و این موضوع می‌تواند موجب جنگ‌های اطلاعاتی شود. بنابراین، هوش مصنوعی اطلاعات دارد و یاد می‌گیرد که چگونه اطلاعات را به شکل روایت و قصه عرضه کند. به عبارتی، هوش مصنوعی می‌تواند روایت خود را در قالب تصویر و ویدئویی تبدیل کند که متناسب با هر کاربر صورت می‌گیرد. یعنی اگر ما یک میلیون مخاطب داشته باشیم، می‌شود که حدود یک میلیون روایت یونیک برای هر مخاطب تعریف شود. بنابراین به این نتیجه می‌رسیم که روایت‌سازی تحت‌تأثیر هوش مصنوعی، شکل دیگری به خود می‌گیرد و تحت سلطه افرادی است که داده‌ها در اختیار دارند و از این طریق می‌توانند قدرت خلق کنند.

 

سواد رسانه‌ای راه مقابله با چالش‌های حوزه دیجیتال

رامین رامیار، دکتری مدیریت فناوری و اطلاعات و پژوهشگر کسب و کارهوشمند: موضوع مورد بحث من ایجاد هرگونه جعل است. بدیهی است که جعل کردن می‌تواند موجب گمراهی شود و ما را به سمتی بکشاند که شاید به صورت عادی قرار نبوده است که در آن مسیر حرکت کنیم. در دنیای دیجیتال، متأسفانه این گمراهی از جهاتی آسان‌تر شده است و برخلاف یکسری از نظراتی که درباره آینده وجود دارد، به نظر من آن چیزی که باید نگران آینده باشیم، چند وقت پیش رخ داده است؛ اشتراکی که در تکنولوژی و مکانیسمی که به صورت تجربی و زیستی در مغز انسان رخ می‌دهد تا شناخت ایجاد شود. در ارائه اخبار جعلی، برخی موضوعات برای همه قابل درکند که می‌توانند اثرگذار باشند. به‌عنوان مثال، وقتی درباره بازار مالی و تبلیغات صحبت می‌کنیم، به راحتی می‌توانیم رابطه بین اخبار جعلی و تأثیرگذاری آن را شناسایی کنیم.
شاید چندان ارتباطش قابل درک نباشد، اما در راستای اینکه برای به‌روزرسانی آینده باید اتفاقات گذشته را مورد بررسی قرار داد، در سال 2025 مقاله‌ای درباره گسترش کووید-19 نوشته شده که میزان مقاومت افراد در برابر اخبار جعلی را با 1، 2، 5 و 20 نشان می‌دهد. برای مثال، زمانی که عدد یک گفته می‌شود، بیانگر این بوده که فردی که با یک نفر صادرکننده اخبار جعلی در ارتباط باشد، به‌راحتی تحت تأثیر آن اخبار جعلی قرار می‌گیرد و گمراه می‌شود. یا اینکه زمانی عدد 20 گفته می‌شود یعنی اینکه به 20 نفر صادرکننده اخبار جعلی نیاز است تا افراد تحت تأثیر گمراه شوند. پژوهشی که نشان می‌دهد عموم افراد به راحتی تحت تأثیر صحبت‌های 2 یا 3 از جعل‌کننده‌های اخبار گمراه می‌شوند. از طرف دیگر، طبق نتایج به دست آمده، بین گمراه شدن افراد توسط اخبار جعلی و مبتلا شدن آن‌ها به کووید-19 رابطه‌ای وجود داشت تا جایی که هرچه قدر میزان گمراه شدن به اخبار جعلی پایین بوده، افراد ظرف زمان کمتری به کرونا مبتلا می‌شدند.

از گذشته تا به امروز، هرگاه صحبت از پدافند به میان می‌آید، چه در قالب تیروکمان و سپر و چه در قالب ابزارهای مدرن، نام دانشمندان و متخصصان در این حوزه به گوش می‌رسد که برای ایجاد یک پدافند موفق تلاش می‌کنند. در دنیای امروز، هوش مصنوعی نیز به عنوان ابزاری برای تولید و گسترش اخبار جعلی به کار گرفته می‌شود. در این راستا، گروه‌هایی نیز با استفاده از فناوری‌های پیشرفته مشغول به کار هستند تا جلوی انتشار این اخبار نادرست را بگیرند. این تلاش‌ها نیازمند به‌روزرسانی مداوم و آگاهی در هر دو طرف این معادله است. در زمینه تولید اخبار جعلی، آنچه که همگان با آن آشنا هستند، تصاویری و ویدئوهایی است که به وسیله هوش مصنوعی ایجاد می‌شوند. این محتواها به سادگی می‌توانند به گمراهی مردم و انتشار اطلاعات نادرست منجر شوند. لذا آگاهی و توانایی شناسایی این نوع محتواها، امری ضروری است.

اما در این میان مباحثی نیز وجود دارند که از آن‌ها فاصله گرفته شده و توجه کافی به آن‌ها نشده است. یکی از این مباحث، استفاده از هوش مصنوعی برای هدفمند کردن محتواهاست. به عنوان مثال، واژه پولشویی را به کرات شنیده‌ایم، اما در مورد اطلاعات‌شویی شاید کمتر بحث شده باشد. ابزارهای هوش مصنوعی به شدت در این زمینه کمک می‌کنند؛ به طوری که همان‌طور که پول‌های کثیف در میان پول‌های تمیز وجود دارد، اطلاعات نیز به همین صورت می‌توانند مخلوط شوند. علاوه بر این، سوءاستفاده از آسیب‌پذیری‌هایی که در شناخت انسان وجود دارد، یکی دیگر از چالش‌هاست. دستکاری دیجیتالی افراد در حال انجام است و از الگوریتم‌ها برای تولید متن‌هایی استفاده می‌شود که به بزرگنمایی مسائل و تحریف واقعیت‌ها منجر می‌شود.

در سمت دیگر، یعنی ایجاد سپر دفاعی، استفاده از فناوری‌های ماشین لرنینگ (یادگیری ماشین) بسیار حیاتی است. این تکنولوژی‌های فنی می‌توانند به ما کمک کنند تا اتفاقات جعلی را شناسایی کنیم. این امر نیازمند توجه ویژه‌ای است، زیرا علوم اجتماعی به مراتب مهم‌تر از جنبه‌های فنی است. واقعیت این است که در مقالات ایرانی به این موضوع کمتر پرداخته می‌شود. هنگامی که درباره آینده صحبت می‌کنیم، معمولاً در سطحی بین‌المللی به گذشته ۱۰ساله نگاه می‌کنیم یا به علوم انسانی می‌پردازیم که جنبه‌های فنی آن قابل مقایسه با نمونه‌های بین‌المللی نیست.

به جرأت می‌توان گفت که در یک مقاله ایرانی دیده نشده که لغت کلان داده به درستی و در معنای واقعی خود به کار رفته باشد. در واقع، ما به برخی از داده‌ها که حدود ۱۵ سال پیش به عنوان کلان داده شناخته می‌شد، همچنان به عنوان کلان داده اشاره می‌کنیم. همچنین، موضوع «ایکس‌ای‌آی» (XAI) که کمتر به آن پرداخته می‌شود، هنوز هم به عنوان یک پدیده عجیب در هوش مصنوعی دیده می‌شود. ما باید به سمت این حرکت کنیم که هوش مصنوعی ما به جای مصرف‌کننده خالی، به یک «ایکس‌ای‌آی» واقعی تبدیل شود. در غیر این صورت، بدون هدف و برنامه‌ریزی مناسب شکست خواهیم خورد.

در مقاله‌ای دیگر که در سال 2025 منتشر شده، از ابزارهای مختلف یادگیری ماشین و ماشین لرنینگ استفاده شده است. یک نکته مهم این است که هر زمان بتوانید تفاوت بین یادگیری ماشین و ماشین لرنینگ با هوش مصنوعی (AI) را به سادگی برای خود توضیح دهید، تازه در اولین قدم درک هوش مصنوعی را برداشته‌اید. در مقاله 2025، حوزه ماشین لرنینگ برای تشخیص اخبار جعلی از دو روش استفاده کرده است. با کمک ماشین لرنینگ و الگوریتم‌های موجود، ویژگی‌ها به صورت سینگل بررسی می‌شوند. این ویژگی‌ها می‌توانند شامل اکانتی باشند که آن اخبار را منتشر کرده یا اینکه محتوای متن را تحلیل کنیم. جالب است که ترکیب متن با تصویر بیشترین موفقیت را در تشخیص جعلی بودن خبر دارد. همچنین، ترکیب پروفایل کاربر با محتوای منتشر شده نیز تأثیر قابل توجهی دارد.

در 9 سال پیش، زمانی که شرکتی انگلیسی به نام کمبریج آنالیتیکا که تخصصش در آنالیز داده‌ها بود، با همکاری مجموعه شرکت‌های متا (فیس‌بوک و اینستاگرام) دستکاری تبلیغات ریاست‌جمهوری را در زمان انتخابات اول ترامپ انجام داد، اتفاقات جالبی رخ داد. اگر به یاد داشته باشید، ترامپ در ابتدا نتیجه را به کلینتون واگذار کرد، اما به دلیل برنده شدن در ایالت‌ها، در نهایت پیروز شد و این موفقیت به نوعی به فعالیت‌های کمبریج آنالیتیکا مرتبط بود.

این شرکت از داده‌های شرکت‌های متا استفاده کرد که بخشی از این داده‌ها به طور غیرمستقیم نشتی داشتند و بخشی دیگر نیز به طور ذاتی همکاری می‌کردند. در واقع، داده‌ها به کمبریج آنالیتیکا رسید و نحوه تبلیغات ترامپ را در ذهن مردم دستکاری کرد. برای مثال، فرض کنید ترامپ تصمیم می‌گرفت که هفته آینده درباره حق داشتن اسلحه سخنرانی کند. در این صورت، شرکت‌های متا در طول آن یک هفته تبلیغات مربوط به حق داشتن اسلحه را برای ذهن‌های مختلف شخصی‌سازی می‌کردند. همان‌طور که دکتر رهبری نیز اشاره کردند، همه ما پروفایل دیجیتال داریم و از مکث کردن تا دیدن ویدئوها، داده‌ها جمع‌آوری می‌شوند و ما برای دنیا شناخته می‌شویم. اخبار به گونه‌ای برای ما پخش می‌شوند که مطابق با عقاید هر فرد بوده و به راحتی آن را می‌پذیریم. نوعی مکانیزم گله‌ای که افراد دوست دارند به دنبال یکی یا دو نفر راه بیفتند، و در اینجاست که هوش مصنوعی وارد عمل می‌شود و اکانت‌هایی که سردمدار آن حرکت هستند را می‌سازد.

در پایان، یکی از مهم‌ترین چیزهایی که برای مقابله با این اتفاقات در دسترس داریم، سواد رسانه‌ای است. تا سال 2024، یک مجمع مشترک بین یونسکو و متا برگزار شد که سواد رسانه‌ای را به معنای مهارت تحلیل و ارزیابی تعریف کردند. این امر نشان می‌دهد که در سواد رسانه‌ای باید فراتر از برگزاری یک همایش و رد و بدل کردن چند لغت باشد، بلکه باید آن را به عنوان یک مهارت واقعی و توانایی درک عمیق اطلاعات بپنداریم. بهترین کار این است که مطالعات بین‌رشته‌ای خود را افزایش دهیم. همان‌طور که لغت‌هایی مانند اکوسیستم استارتاپی ترند شدند، باید به اکوسیستم اطلاعاتی خود بپردازیم و به حوزه‌های فنی وارد شویم. این رویکرد به ما کمک می‌کند تا درک بهتری از اطلاعات و رسانه‌ها پیدا کنیم و بتوانیم به طور مؤثری با چالش‌های موجود مقابله کنیم.

 

/ انتهای پیام /