روایت پژوهشگران آمریکایی از آینده تبلیغات مبتنی بر هوش مصنوعی؛
مدل‌های آینده هوش مصنوعی ممکن است بتوانند افراد را متقاعد کنند که اقداماتی مثل پیوستن به یک گروه فیس‌بوکی، امضای یک طومار یا حتی حضور در یک تجمع اعتراضی را انجام دهند.

گروه جامعه و اقتصاد «سدید»؛ «جاش گلدشتاین» [1] از پژوهشگران مرکز امنیت و فناوری‌های نوین دانشگاه جرج تاون و «گیریش ساستری» [2]- پژوهشگر تیم سیاست‌گذاری شرکت هوش مصنوعی «OpenAI» در یادداشت مشترکی که وب‌سایت «Foreign Affairs» آن را منتشر کرده، به موضوع استفاده شرکت‌های تبلیغاتی از هوش مصنوعی برای دست‌کاری در ذهن مخاطبان خود پرداخته است. به گفته این پژوهشگران، با پیشرفت هوش مصنوعی، تشخیص محتوای تولید شده توسط انسان یا هوش مصنوعی، بسیار سخت‌تر شده است و طی سال‌های آینده، هوش مصنوعی مولد، می‌تواند کارهای خطرناک‌تری برای دست‌کاری ذهن گروه‌های هدف و تحریک آنها برای انجام کارهایی مثل اعتراضات خیابانی انجام دهد. این دو تأکید می‌کنند که هنجارهای جدیدی باید برای مقابله با این وضعیت توسط دولت‌ها و جوامع مطرح شوند که آموزش سواد رسانه‌ای در مدارس برای تشخیص کارزارهای اطلاعاتی نادرست، یکی از آنهاست.


 خطرات هوش مصنوعی مولد

حدود هفت سال است که از دخالت نیروهای روسی در انتخابات ریاست‌جمهوری ۲۰۱۶ آمریکا می‌گذرد؛ دخالتی که بخشی از آن با ایجاد هزاران حساب کاربری جعلی در رسانه‌های اجتماعی و معرفی خود به‌عنوان یک آمریکایی صورت گرفت. فناوری دیگری که امروز پتانسیل تسریع در گسترش تبلیغات را دارد و در کانون توجه قرار گرفته است، هوش مصنوعی نام دارد. بسیاری از نگرانی‌ها بر روی خطرات «جعل عمیق» یا «دیپ‌فیک»های صوتی و تصویری متمرکز شده است که از هوش مصنوعی برای ایجاد تصاویر یا رویدادهایی استفاده می‌کنند که واقعاً اتفاق نیفتاده‌اند.

 با پیشرفت سریع هوش مصنوعی، خطراتی که تنها چند سال پیش تئوری به نظر می‌رسید، اکنون به طور روزافزونی واقعی به نظر می‌رسند.

اما یکی دیگر از قابلیت‌های هوش مصنوعی، به همان اندازه نگران‌کننده است. محققان سال‌هاست هشدار می‌دهند که سیستم‌های هوش مصنوعی مولد که برای تولید زبان اصلی آموزش‌دیده‌اند و به‌اختصار «مدل‌های زبانی» نامیده می‌شوند، می‌توانند توسط دشمنان آمریکا برای اجرای عملیات نفوذ استفاده شوند. اکنون به نظر می‌رسد که این مدل‌ها در آستانه این هستند که کاربران را قادر سازند تا با تلاش محدود انسانی، یک منبع تقریباً نامحدودی از متن اصلی را تولید کنند. این مسئله می‌تواند توانایی تبلیغ‌کنندگان را برای متقاعدکردن رأی‌دهندگان ناآگاه، تحت‌تأثیر قراردادن محیط‌های اطلاعات آنلاین و شخصی‌سازی ایمیل‌های کلاه برداری بهبود بخشد. این خطر، دوجانبه است: نه‌تنها الگوهای زبانی می‌توانند باورها را تحت‌تأثیر قرار دهند، بلکه آنها همچنین می‌توانند اعتماد عمومی را نسبت به اطلاعاتی که مردم برای قضاوت و تصمیم‌گیری به آنها تکیه می‌کنند، تضعیف کرده و از بین ببرند.

پیشرفت تحقیقات در زمینه هوش مصنوعی مولد از انتظارات فراتر رفته است. سال ۲۰۲۲، از مدل‌های زبانی برای تولید پروتئین‌های کاربردی، شکست‌دادن بازیکنان انسانی در بازی‌های استراتژیک که نیاز به گفتگو دارند و ایجاد دستیاران آنلاین استفاده شد. مدل‌های زبانی محاوره‌ای، تقریباً به طور ناگهانی و گسترده‌ای مورداستفاده قرار گرفته‌اند. بیش از ۱۰۰ میلیون نفر از برنامه «چت جی پی تی» شرکت هوش مصنوعی «OpenAI» در دو ماه اول پس از راه‌اندازی، در دسامبر ۲۰۲۲ استفاده کردند و میلیون‌ها نفر دیگر نیز احتمالاً از ابزارهای هوش مصنوعی که گوگل و مایکروسافت، طی مدت‌زمان کمی پس از آن معرفی کردند، استفاده نموده‌اند.

در نتیجه، خطراتی که تنها چند سال پیش تئوری به نظر می‌رسید، اکنون به طور فزاینده‌ای واقعی به نظر می‌رسند. برای مثال، «چت‌بات» مبتنی بر هوش مصنوعی که موتور جستجوی «بینگ» مایکروسافت را تقویت می‌کند، نشان داده که قادر به دست‌کاری کاربران و حتی تهدید آن‌ها است. از آنجایی که ابزارهای مولد هوش مصنوعی جهان را فراگرفته است، تصور اینکه تبلیغات کنندگان از آنها برای دروغگویی و گمراه‌کردن مردم استفاده نکنند، دشوار است. برای آمادگی در برابر این احتمالات، دولت‌ها، کسب‌وکارها و سازمان‌های جامعه مدنی، باید هنجارها و سیاست‌هایی برای استفاده از متن‌های تولید شده با هوش مصنوعی را تثبیت کنند. همچنین تکنیک‌هایی برای شناسایی منبع یک متن خاص و اینکه آیا آن متن با استفاده از هوش مصنوعی ایجاد شده است یا نه، باید ایجاد شود. تلاش‌های خبرنگاران و محققان برای شناسایی حساب‌های کاربری جعلی در رسانه‌های اجتماعی و وب‌سایت‌های اخبار جعلی نیز می‌تواند دامنه دسترسی کمپین‌های تبلیغاتی مخفی را - صرف‌نظر از اینکه محتوا توسط انسان نوشته شده یا با استفاده از هوش مصنوعی تولید شده باشد - محدود کند.

 

پیشرفت‌های حیرت‌انگیز مدل‌های زبانی هوش مصنوعی

یک مدل زبانی، نوعی سیستم هوش مصنوعی است که از طریق آزمون‌وخطا برای تولید و استفاده متن آموزش دیده است. بخش بزرگی از فرایند آموزش، شامل پیش‌بینی کلمه بعدی در مجموعه بزرگی از متن است. اگر پیش‌بینی اشتباه باشد، مدل جریمه می‌شود. اگر پیش‌بینی درست باشد، پاداش داده می‌شود. این فرایند ساده، نتایج شگفت‌انگیزی را به همراه داشته است. از یک مدل بخواهید که یک توییت را با کلمات مختلف بازنویسی کند یا یک پست وبلاگ شامل نکات خاصی بسازد. او این کار را انجام خواهد داد. مدل‌های زبانی یاد گرفته‌اند که کارهای شگفت‌انگیزی از جمله رمزگشایی از کلمات، انجام محاسبات هشت‌رقمی و حل مسائل کلمه‌ای ریاضی انجام دهند که حتی کسانی که آنها را ساخته‌اند هم پیش‌بینی نمی‌کردند. محققان نمی‌توانند با اطمینان پیش‌بینی کنند که مدل‌های زبانی آینده، به چه قابلیت‌های دیگری می‌توانند دست یابند.

البته مدل‌های امروزی، محدودیت‌هایی دارند. حتی پیشرفته‌ترین آن‌ها نیز در حفظ انسجام در متون طولانی دشواری دارند، اظهار نظرات نادرست یا بی‌معنا می‌کنند (پدیده‌ای که محققان هوش مصنوعی نام «توهم» را به آن داده‌اند) و در درک رویدادهایی که پس از آموزش مدل‌ها اتفاق می‌افتد، ناتوان هستند. با وجود این محدودیت‌ها، مدل‌ها می‌توانند متنی تولید کنند که غالباً به نظر می‌رسد توسط یک انسان نوشته شده است. این ویژگی، آن‌ها را به ابزارهای طبیعی برای تولید محتوای تبلیغاتی تبدیل می‌کند. تبلیغاتچی‌ها، این مدل‌ها را با افزایش توانایی‌های آن‌ها و حل مشکلاتی نظیر توهم، حتی جذاب‌تر خواهند یافت. به‌عنوان‌مثال، این مدل‌ها به‌گونه‌ای آموزش می‌بینند که پیش از پاسخ‌گویی به سؤالات، اطلاعات را جست‌وجو کنند.

با فراگیرشدن هوش مصنوعی مولد، تصور اینکه تبلیغات کنندگان از آن برای دروغگویی و گمراه‌کردن مردم استفاده نکنند، دشوار است.

در نظر بگیرید که هوش مصنوعی چه کاری می‌تواند برای سازمان‌دهی تبلیغات موجود انجام دهد. ژورنالیست روسی «کسنیا کلاچکوا» [3]، درباره تجربه‌اش زمانی که برای ارتش سایبری روسیه موسوم به «Cyber Front Z» در یک «مزرعه ترول» [4] مستقر در سن‌پترزبورگ که برنامه‌های تبلیغاتی درباره جنگ روسیه در اوکراین را منتشر می‌کند، نوشته است. او در گزارش خود، به جزئیات فعالیت‌ها و شیوه‌های کار این سازمان پرداخته و به چگونگی انتشار اطلاعات نادرست و تأثیرات آن بر افکار عمومی اشاره کرده است. در یک تحقیق منتشر شده در مارس ۲۰۲۲، «کلاچکوا» می‌نویسد که او یکی از ۱۰۰ کارمندی بود که در یک شیفت کار می‌کردند و برای نوشتن پست‌های کوتاه در وب‌سایت‌های رسانه‌های اجتماعی تعیین‌شده‌ای که برنامه‌های مسکو را ترویج می‌کردند، حقوق می‌گرفتند. این تجربه به او این امکان را داد که از نزدیک با شیوه‌های کار این «ترول‌ها» آشنا شود و روش‌های انتشار تبلیغات را مشاهده کند.

پس از ماه اول، کارمندان می‌توانستند به‌صورت دورکار فعالیت کنند و این کار، به رشد عملیات فراتر از محدوده فیزیکی آنها کمک کرد تا به طور مؤثرتری به تولید و انتشار تبلیغات در سکوهای مختلف بپردازد. مدل‌های زبانی را می‌توان برای تقویت یا جایگزینی نویسندگان انسانی در تولید چنین محتوایی مورداستفاده قرار داد و تعداد کارمندان ارتش سایبری و اوباش اینترنتی حاضر در «مزارع ترول» مشابه را کاهش داد. اگر هزینه‌ها کاهش یابد، ممکن است بازیگران سیاسی بیشتری تصمیم بگیرند که عملیات‌های نفوذ را تأمین مالی یا اجرا کنند. با تیم‌های کوچک‌تر، احتمال کشف این کمپین‌ها کمتر خواهد بود؛ زیرا افراد کمتری ممکن است به‌عنوان نشت‌دهنده یا نفوذی عمل کنند. این وضعیت ممکن است منجر به افزایش فعالیت‌های مخفی و تهاجمی در فضای دیجیتال شود و چالش‌های جدیدی برای شفافیت و پاسخگویی ایجاد کند.

همان چیزهایی که مدل‌های زبان را برای عملیات‌هایی مانند عملیات سایبری روسیه در اوکراین مفید می‌سازد یعنی توانایی تولید ارزان محتوایی که از متن نوشته شده توسط انسان قابل‌تشخیص نیست، می‌تواند آنها را در حوزه‌های دیگری که با هوش مصنوعی طراحی نشده‌اند نیز مفید سازد. در سال ۲۰۲۰، محققین «سارا کرپس» [5] و «داگلاس کرینر» [6]، آزمایشی را انجام دادند که در آن، نامه‌های تولید شده با هوش مصنوعی و انسان را به قانون‌گذاران آمریکا ارسال کردند که گویی از طرف انتخاب‌کنندگان بودند. آنها دریافتند که نمایندگان کنگره، کمتر از دو درصد، مایل به پاسخ‌گویی به نامه‌های تولیدشده توسط هوش مصنوعی نسبت به نامه‌های نوشته‌شده توسط انسان هستند.

این خطر وجود دارد که مدل‌های زبانی ممکن است برای سوءاستفاده و حتی تحت‌فشار قراردادن سیستم‌هایی که از جامعه بازخورد می‌گیرد، مورداستفاده قرار گیرند. اگر مسئولان منتخب نتوانند نظرات واقعی مردم خود را تشخیص دهند، اعتبار دموکراسی تضعیف خواهد شد.

 البته این بدان معنا نیست که مدل‌های زبانی، لزوماً سیستم‌ها را در همه جا تحت‌تأثیر قرار می‌دهند. در برخی موارد، آنها ناتوانی خود را نشان داده‌اند. وب‌سایت اخبار فناوری «CNET» ده‌ها مقاله خبری تولیدشده توسط هوش مصنوعی را تنها برای اینکه متوجه شود بسیاری از آنها پر از اشتباه‌های فاحش بودند، منتشر کرد. «Stack Overflow» پلتفرمی است که به برنامه‌نویسان این امکان را می‌دهد تا به سؤالات یکدیگر پاسخ دهند. این پلتفرم مجبور شد تا کاربران را نسبت به استفاده از «چت جی پی تی» منع کند؛ زیرا این مدل، دائماً پاسخ‌های نادرستی ارائه می‌داد. اما همان‌طور که مدل‌های زبانی بهبود می‌یابند، تشخیص خروجی آن‌ها تنها بر اساس محتوا دشوارتر خواهد بود. نهادهای متنوعی از جمله پلتفرم‌های رسانه‌های اجتماعی و آژانس‌های دولتی که به دنبال دریافت نظرات عمومی هستند، باید بررسی کنند که آیا در معرض حمله متن‌های تولیدشده توسط هوش مصنوعی قرار دارند یا خیر و در صورت مثبت‌بودن جواب، سیستم‌های دفاعی خود را تقویت کنند.

 

شاید شما با یک ربات ارتباط بگیرید و ندانید!

مدل‌های زبانی هوش مصنوعی فقط قابلیت تولید تبلیغات بیشتر با هزینه کمتر را ارائه نمی‌دهند؛ بلکه آنها همچنین می‌توانند کیفیت تبلیغات را با تطبیق‌دادن آن با گروه‌های خاص افزایش دهند. در سال ۲۰۱۶، کارمندان «مزرعه ترول» روسی شناخته شده تحت عنوان «آژانس تحقیق اینترنتی» تلاش کردند تا با جازدن خود به‌عنوان سیاه‌پوستان چپ‌گرا یا سفیدپوست‌های طرف‌دار ترامپ، در جوامع آنلاین خاص آمریکایی نفوذ کنند تا تبلیغاتی که متناسب این گروه‌ها تولید شده بود را به آنها منتقل کنند. اما این تلاش‌های جعل هویت، به‌خاطر محدودیت پهنای باند و دانش کم این گروه‌ها از جوامع هدف، چندان موفقیت‌آمیز نبود. با بهبود مدل‌های زبانی، این موانع ممکن است از بین برود. تحقیقات اولیه نشان می‌دهد که مدل‌ها می‌توانند از تجربیات اجتماعی - فرهنگی یک گروه جمعیتی خاص استفاده کنند و سوگیری‌های آن گروه را نشان دهند. با دسترسی به داده‌های دقیق درباره جوامع آمریکا از طریق نظرسنجی‌ها، دلالان داده یا پلتفرم‌های رسانه‌های اجتماعی، مدل‌های زبانی آینده ممکن است قادر به تولید محتوای شخصی‌سازی‌شده منسجمی باشند که به تبلیغات کنندگان اجازه می‌دهد در نزد مخاطب هدف، کسب اعتبار کنند، بدون اینکه واقعاً آن مخاطب را بشناسند. تبلیغات شخصی‌سازی‌شده می‌تواند در خارج از رسانه‌های اجتماعی نیز مثلاً از طریق ایمیل‌های تنظیم‌شده یا وب‌سایت‌های خبری مؤثر باشد.

شدیدترین شکل شخصی‌سازی، ممکن است چت یک‌به‌یک باشد. با استفاده از چت‌بات‌های مبتنی بر هوش مصنوعی، تبلیغات کنندگان می‌توانند به‌صورت فردی با اهداف خود ارتباط برقرار کنند، به طور مستقیم به نگرانی‌ها یا استدلال‌های متقابل آنها پاسخ دهند و شانس قانع‌کردن یا حداقل پرت‌کردن حواس آنها را افزایش دهند. در حال حاضر، راه‌اندازی یک عملیات نفوذ که به گفتگوهای مداوم بین تبلیغاتچی‌های فردی و جمعیت‌های بزرگ وابسته باشد، از نظر منابع به‌شدت پرهزینه خواهد بود. در آینده، زمانی که مدل‌های زبانی متقاعدکننده‌تر و کم‌هزینه‌تر می‌شوند، چنین کمپین‌هایی می‌تواند با کمک هوش مصنوعی قابل‌اجرا باشد.

دولت‌ها، کسب‌وکارها و سازمان‌های جامعه مدنی، باید هنجارها و سیاست‌هایی را برای استفاده از متن‌های تولید شده با هوش مصنوعی تثبیت کنند.

در حال حاضر نیز تمایز بین انسان‌های آنلاین و ماشین‌ها دشوار است. یک پروژه تحقیقاتی، اخیراً نشان داد که یک عامل هوش مصنوعی در نسخه آنلاین یک بازی کلاسیک با موضوع دیپلماسی که شامل مذاکره با افراد واقعی برای تشکیل اتحاد است، در بین ده درصد برتر شرکت‌کنندگان قرار گرفته است. اگر مدل‌های زبانی امروزی را بتوان برای متقاعدکردن بازیکنان برای مشارکت در یک بازی آموزش داد، مدل‌های آینده ممکن است بتوانند افراد را متقاعد کنند که اقداماتی مثل پیوستن به یک گروه فیس‌بوک، امضای یک طومار یا حتی حضور در یک اعتراض را انجام دهند.

برای درک سرعت بهبود مدل‌های زبانی، یکی از جدیدترین مدل‌های گوگل به نام «Flan-PaLM» را در نظر بگیرید. این مدل می‌تواند به‌درستی به ۹ سؤال از هر ده سؤال در آزمون مجوز پزشکی آمریکا پاسخ دهد. این سیستم‌های هوش مصنوعی، همچنین می‌توانند محاسبات ریاضی را انجام دهند، به سؤالاتی درباره فیزیک پاسخ دهند و شعر بنویسند. این سیستم‌ها، ابزارهای بالقوه خطرناکی در دستان تبلیغات کنندگان هستند و هر روز قوی‌تر می‌شوند.

شاید به طور معقول پرسیده شود که تهدید جدی که مدل‌های زبانی در زمینه تبلیغات ایجاد می‌کنند چقدر است؟ به‌ویژه باتوجه‌به اینکه تحلیل‌گران به طور مکرر فناوری‌های جدید را در حوزه امنیت ملی بیش از حد بزرگ‌نمایی کرده‌اند. به‌هرحال، مفسران هشدار داده‌اند که نسل‌های قبلی مدل‌های زبانی ممکن است به این شکل مورد سوءاستفاده قرار گیرند. بااین‌حال، شواهد عمومی کمی وجود دارد که دولت‌ها عملیات نفوذ مبتنی بر هوش مصنوعی را با استفاده از این ابزارها انجام داده باشند. البته فقدان شواهدی از چنین کمپین‌هایی، دلیل محکمی بر عدم وجود آنها نیست. اگرچه هیچ مدرکی در دسترس عموم وجود ندارد که مدل‌های زبانی برای عملیات نفوذ استفاده شده‌اند، اما هیچ مدرکی نیز وجود ندارد که نشان دهد از این مدل‌ها استفاده نشده است. محققان اطلاعات نادرست، اخیراً توجه خود را به مدل‌های زبانی آغاز کرده‌اند.

حتی اگر فرض کنیم که مدل‌های زبانی در کمپین‌های نفوذ گذشته مورداستفاده قرار نگرفته‌اند، هیچ تضمینی وجود ندارد که در آینده مورداستفاده قرار نگیرند. یک فناوری محبوب برای ایجاد تصاویر چهره‌های تولید شده توسط هوش مصنوعی برای اولین‌بار در سال ۲۰۱۴ توسعه یافت، اما تا سال ۲۰۱۹ بود که پژوهشگران، تصاویر پروفایل تولید شده توسط هوش مصنوعی را در یک عملیات نفوذ کشف کردند. در سال ۲۰۲۲، بیش از دو سوم از عملیات‌های نفوذی که توسط متا (شرکت مادر فیس‌بوک) شناسایی و حذف شدند، شامل چهره‌های جعلی بودند. پیشرفت‌هایی در فن آوری و سهولت دسترسی به تبلیغ‌کنندگان صورت گرفت تا استفاده از آن‌ها عادی شود. همین اتفاق می‌تواند در مورد مدل‌های زبانی نیز رخ دهد. شرکت‌ها در حال سرمایه‌گذاری در بهبود خروجی مدل‌های زبانی و آسان‌تر کردن استفاده از آن‌ها هستند که تنها جذابیت آن‌ها را برای تبلیغ‌کنندگان افزایش می‌دهد.

دلیل دوم برای شک به اینکه مدل‌های زبانی تهدیدی جدی هستند، مربوط به اثربخشی کمپین‌های تبلیغاتی به‌طورکلی است. یک مطالعه درباره تلاش‌های «آژانس تحقیقات اینترنتی» روسیه در توییتر که توسط مجله «Nature Communications» منتشر شده، هیچ مدرکی از رابطه معنادار بین مواجهه با کمپین نفوذ خارجی روسیه در سال ۲۰۱۶ و تغییرات در نگرش‌ها، قطبی شدن یا رفتارهای افراد رأی‌دهنده نیافت. «هوگو مرسیه» [7] - دانشمند علوم شناختی - به همین ترتیب استدلال کرده است که مردم، کمتر از آنچه معمولاً تصور می‌شود، ساده‌لوح هستند؛ اما حتی اگر تبلیغات کنندگان، اغلب در متقاعدکردن ناکام باشند، باز هم می‌توانند در از بین بردن بحث‌های واقعی و تضعیف اعتماد عمومی موفق شوند. به‌عنوان‌مثال، پس از آن که جدایی‌طلبان تحت حمایت روسیه در اوکراین، پرواز ۱۷ خطوط هوایی مالزی را در ژوئیه ۲۰۱۴ سرنگون کردند، وزارت دفاع روسیه ادعاهای ضدونقیضی در مورد اینکه چه کسی هواپیما را ساقط کرده و چگونه این کار را انجام داده است، مطرح کرد. به نظر می‌رسد هدف، متقاعدکردن مخاطبان به هر روایتی نبود، بلکه گل‌آلود کردن آب و منحرف‌کردن سرزنش از مسکو بود. اگر تبلیغ‌کنندگان، فضاهای آنلاین را با تبلیغات تولید شده توسط هوش مصنوعی پر کنند، می‌توانند بذر بی‌اعتمادی را بکارند و تشخیص حقیقت را سخت‌تر کنند. مردم ممکن است حتی به مشاهدات خود نیز بی‌اعتماد شوند و این امر، باور آنها را نسبت به واقعیت مشترک، مخدوش می‌کند.

 

آخرالزمان اطلاعاتی؟!

اگرچه مدل‌های زبانی در حال تبدیل‌شدن به ابزارهای تبلیغاتی قدرتمندی هستند، اما لازم نیست که به آخرالزمان و فاجعه اطلاعاتی منجر شوند. برای اجرای یک کارزار نفوذ موفق با هوش مصنوعی، تبلیغاتچی‌ها به سه چیز نیاز دارند: ابتدا آن‌ها به یک مدل زبانی کارآمد نیاز دارند که می‌توانند آن را از ابتدا بسازند، سرقت کنند، از وب‌سایت‌های متن‌باز دانلود کنند یا از یک ارائه‌دهنده خدمات هوش مصنوعی دریافت کنند. دوم، آنها به زیرساخت‌هایی مانند وب‌سایت‌ها یا حساب‌های جعلی در شبکه‌های اجتماعی برای انتشار تبلیغات خود نیاز دارند و در نهایت، آن‌ها به افراد واقعی نیاز دارند که تحت‌تأثیر قرار بگیرند یا حداقل توسط محتوایی که منتشر می‌کنند، گیج یا ناامید شوند. در هر مرحله از این فرایند، دولت‌ها، کسب‌وکارها و کارشناسان فناوری، فرصت دارند تا مداخله کنند و آسیب‌هایی که این‌گونه کمپین‌ها ایجاد می‌کنند را کاهش دهند.

نهادهای متنوعی از جمله پلتفرم‌های رسانه‌های اجتماعی و آژانس‌های دولتی که به دنبال دریافت افکار عمومی هستند، باید بررسی کنند که آیا در معرض حمله متن‌های تولیدشده توسط هوش مصنوعی قرار دارند یا خیر.

در مرحله دسترسی، طیف وسیعی از گزینه‌ها برای کنترل استفاده از مدل‌های زبانی یا محدودکردن توانایی آنها برای تولید خروجی خطرناک وجود دارد. اگرچه در حال حاضر توزیع مدل‌های متن‌باز به طور گسترده در زمینه هوش مصنوعی به‌عنوان یک هنجار شناخته می‌شود، اما ممکن است عاقلانه‌تر این باشد که به یک هنجار جدید فکر کنیم که دسترسی به قابلیت‌هایی را که یک تبلیغاتچی نیاز دارد، دشوار کند. یکی از راه‌ها برای انجام این کار، می‌تواند کنترل مدل‌ها از طریق یک رابط برنامه‌نویسی کاربردی باشد که یک لایه نرم‌افزاری است که به‌عنوان دروازه‌ای بین کاربران و مدل‌های زبانی عمل می‌کند. این کار به ارائه‌دهندگان خدمات هوش مصنوعی (و به طور بالقوه دیگران) اجازه می‌دهد تا از تبلیغات کنندگان جلوگیری کرده، آن‌ها را شناسایی کنند و به آن‌ها واکنش نشان دهند. یک گزینه دیگر این است که مدل‌هایی توسعه داده شوند که دقیق‌تر باشند و کمتر احتمال داشته باشند که خروجی‌های مشکل‌ساز تولید کنند که محققان، در حال حاضر در حال انجام آن هستند. محققان همچنین در حال بررسی امکان ایجاد مدل‌هایی با نشانه دیجیتال هستند تا شناسایی محتوای تولید شده توسط آن‌ها را آسان‌تر کند.

در سطح زیرساخت، شرکت‌های رسانه‌های اجتماعی و موتورهای جستجو می‌توانند فعالانه برای شناسایی محتوای تولید شده توسط هوش مصنوعی کار کنند و از کاربران بخواهند که همین کار را انجام دهند. آن‌ها همچنین می‌توانند استانداردهای منشأ دیجیتال را به متن اعمال کنند که به افراد این امکان را می‌دهد تا بدانند متن چگونه تولید شده است؛ به‌عنوان‌مثال، چه کسی آن را نوشته و آیا توسط هوش مصنوعی ایجاد شده است یا خیر؟ اگرچه اجرای چنین استانداردهایی در حال حاضر دشوار به نظر می‌رسد، اما تحقیقات بیشتر، می‌تواند مسیر روبه‌جلو را در همین زمینه هموار کند.

در فنلاند، سواد رسانه‌ای در برنامه درسی مدارس گنجانده شده است. از سنین پایین، فنلاندی‌ها یاد می‌گیرند که اخبار مصرفی خود را تحلیل کنند و اطلاعات را از منابع مختلف بررسی کنند.

در نهایت، جوامع نیاز به ایجاد انعطاف‌پذیری در میان کاربران ناآگاه رسانه‌های اجتماعی و اینترنت دارند. در فنلاند، سواد رسانه‌ای در برنامه درسی مدارس گنجانده شده است؛ از سنین پایین، فنلاندی‌ها یاد می‌گیرند که اخبار مصرفی خود را تحلیل کنند و اطلاعات را از منابع مختلف بررسی کنند. این‌گونه تلاش‌ها می‌تواند به افراد کمک کند تا تفاوت بین اخبار واقعی و جعلی را تشخیص دهند؛ به‌طوری‌که احتمال این که تحت‌تأثیر محتوای غیرقابل‌اعتماد قرار گیرند - چه ناشی از انسان و چه از هوش مصنوعی - کاهش یابد. با توانمندتر شدن مدل‌های زبانی، آن‌ها حتی می‌توانند به کاربران در زمینه‌سازی و حتی درک اطلاعاتی که می‌بینند، کمک کنند.

ظهور مدل‌های زبانی هوش مصنوعی، مستلزم بررسی گسترده‌تری است؛ از جمله سؤالات اساسی که جوامع باید به آنها پاسخ دهند عبارتند از: چه کسی باید دسترسی به این مدل‌ها را کنترل کند؟ چه کسانی در معرض خطر قرار دارند؟ آیا تقلید گفتگوی انسان با هوش مصنوعی، اساساً مطلوب است؟ اگرچه پیش‌بینی اثرات مدل‌های زبانی آینده دشوار خواهد بود، اما واضح است که آن‌ها بسیاری از آزمایشگاه‌های هوش مصنوعی که آن‌ها را ایجاد می‌کنند، فراتر خواهند رفت و استفاده از آنها عمومیت پیدا خواهد کرد؛ بنابراین دولت‌ها، کسب‌وکارها، جامعه مدنی و به‌طورکلی عموم مردم باید در چگونگی طراحی و استفاده از این مدل‌ها و چگونگی مدیریت خطرات بالقوه‌ای که ایجاد می‌کنند، حرفی برای گفتن داشته باشند.

[1] . JOSH A. GOLDSTEIN
[2] . GIRISH SASTRY
[3] . Ksenia Klochkova

[4] . troll farm: «مزرعه ترول ها»، گروهی متشکل از اوباش اینترنتی بوده که به دنبال دخالت در عقاید سیاسی و تصمیم گیری هستند. ترول یا اوباش مجازی، در گفتمان اینترنتی به افرادی گفته می‌شود که با رفتار مخرب در فضای وب، به دنبال جلب نظر کاربران، ایجاد تشنج و بیان مطالب تحریک‌کننده و توهین‌آمیز هستند. یک ترول، فردی است که در اتاق‌های گفتگو، تالارها، وب نوشت ها یا تارنماهای کاربرمحور، پیام‌هایی ارسال می‌کند که حاوی مطالب ناراحت‌کننده یا جنجال‌برانگیز است. دولت ها از این اوباش اینترتی می توانند برای ایجاد کارزار اطلاعات نادرست استفاده کنند.

[5] . Sarah Kreps
[6] . Douglas Kriner
[7] . Hugo Mercier
 

/ انتهای پیام / 

ارسال نظر
captcha

در برابر عادی‌سازی شرارت و بی‌عدالتی اسرائیل مقاومت کنید

عصر کاهش جمعیت؛ چالش‌ها و راهکارها

دانشگاه‌های آمریکا، بازوهای دولت پلیسی

علم؛ قدرتی که آمریکا دارد از دستش می‌دهد!

مسئله نافهمیِ تحلیل‌های اجتماعی: کجا ایستاده‌ایم و چگونه برویم؟!

چگونه با اطلاعات نادرست مقابله کنیم؟

مدیریت مُد در بن‌بست؛ نمی‌توانیم یا نمی‌خواهیم؟

چه چیزی باعث خشونت سیاسی در آمریکا می‌شود؟

جنگ غزه مرا در هم شکست

«هاروارد» بی‌طرف نیست!

چرا ترامپ به سمت رمزارزها متمایل شد؟

قصه‌هایی از بیم و امید زنان فراری از مصائب اعتیاد!

جهان در کنار عدالت می‌ایستد یا قانون جنگلی که آمریکا از آن حمایت می‌کند؟

عرفی گرایی، زیستِ جنسی ایرانیان را تغییر داد

«بحران خشونت سیاسی» آمریکا را به کدام سمت‌وسو می‌برد؟!

نقش مدارس اسرائیل در تداوم نسل‌کشی ملت فلسطین

اسرائیل و رؤیایی به نام «آینده»

کودکان، رسانه‌های اجتماعی و والدین نگران

فرانسیس فوکویاما: پیروزی ترامپ «نه» مردم به «لیبرالیسم» بود

خانواده بارِ تمام کج کارکردی نهادها را به دوش می‌کشد

پرونده ها