گروه جامعه و اقتصاد «سدید»؛ «جاش گلدشتاین» [1] از پژوهشگران مرکز امنیت و فناوریهای نوین دانشگاه جرج تاون و «گیریش ساستری» [2]- پژوهشگر تیم سیاستگذاری شرکت هوش مصنوعی «OpenAI» در یادداشت مشترکی که وبسایت «Foreign Affairs» آن را منتشر کرده، به موضوع استفاده شرکتهای تبلیغاتی از هوش مصنوعی برای دستکاری در ذهن مخاطبان خود پرداخته است. به گفته این پژوهشگران، با پیشرفت هوش مصنوعی، تشخیص محتوای تولید شده توسط انسان یا هوش مصنوعی، بسیار سختتر شده است و طی سالهای آینده، هوش مصنوعی مولد، میتواند کارهای خطرناکتری برای دستکاری ذهن گروههای هدف و تحریک آنها برای انجام کارهایی مثل اعتراضات خیابانی انجام دهد. این دو تأکید میکنند که هنجارهای جدیدی باید برای مقابله با این وضعیت توسط دولتها و جوامع مطرح شوند که آموزش سواد رسانهای در مدارس برای تشخیص کارزارهای اطلاعاتی نادرست، یکی از آنهاست.
خطرات هوش مصنوعی مولد
حدود هفت سال است که از دخالت نیروهای روسی در انتخابات ریاستجمهوری ۲۰۱۶ آمریکا میگذرد؛ دخالتی که بخشی از آن با ایجاد هزاران حساب کاربری جعلی در رسانههای اجتماعی و معرفی خود بهعنوان یک آمریکایی صورت گرفت. فناوری دیگری که امروز پتانسیل تسریع در گسترش تبلیغات را دارد و در کانون توجه قرار گرفته است، هوش مصنوعی نام دارد. بسیاری از نگرانیها بر روی خطرات «جعل عمیق» یا «دیپفیک»های صوتی و تصویری متمرکز شده است که از هوش مصنوعی برای ایجاد تصاویر یا رویدادهایی استفاده میکنند که واقعاً اتفاق نیفتادهاند.
با پیشرفت سریع هوش مصنوعی، خطراتی که تنها چند سال پیش تئوری به نظر میرسید، اکنون به طور روزافزونی واقعی به نظر میرسند.
اما یکی دیگر از قابلیتهای هوش مصنوعی، به همان اندازه نگرانکننده است. محققان سالهاست هشدار میدهند که سیستمهای هوش مصنوعی مولد که برای تولید زبان اصلی آموزشدیدهاند و بهاختصار «مدلهای زبانی» نامیده میشوند، میتوانند توسط دشمنان آمریکا برای اجرای عملیات نفوذ استفاده شوند. اکنون به نظر میرسد که این مدلها در آستانه این هستند که کاربران را قادر سازند تا با تلاش محدود انسانی، یک منبع تقریباً نامحدودی از متن اصلی را تولید کنند. این مسئله میتواند توانایی تبلیغکنندگان را برای متقاعدکردن رأیدهندگان ناآگاه، تحتتأثیر قراردادن محیطهای اطلاعات آنلاین و شخصیسازی ایمیلهای کلاه برداری بهبود بخشد. این خطر، دوجانبه است: نهتنها الگوهای زبانی میتوانند باورها را تحتتأثیر قرار دهند، بلکه آنها همچنین میتوانند اعتماد عمومی را نسبت به اطلاعاتی که مردم برای قضاوت و تصمیمگیری به آنها تکیه میکنند، تضعیف کرده و از بین ببرند.
پیشرفت تحقیقات در زمینه هوش مصنوعی مولد از انتظارات فراتر رفته است. سال ۲۰۲۲، از مدلهای زبانی برای تولید پروتئینهای کاربردی، شکستدادن بازیکنان انسانی در بازیهای استراتژیک که نیاز به گفتگو دارند و ایجاد دستیاران آنلاین استفاده شد. مدلهای زبانی محاورهای، تقریباً به طور ناگهانی و گستردهای مورداستفاده قرار گرفتهاند. بیش از ۱۰۰ میلیون نفر از برنامه «چت جی پی تی» شرکت هوش مصنوعی «OpenAI» در دو ماه اول پس از راهاندازی، در دسامبر ۲۰۲۲ استفاده کردند و میلیونها نفر دیگر نیز احتمالاً از ابزارهای هوش مصنوعی که گوگل و مایکروسافت، طی مدتزمان کمی پس از آن معرفی کردند، استفاده نمودهاند.
در نتیجه، خطراتی که تنها چند سال پیش تئوری به نظر میرسید، اکنون به طور فزایندهای واقعی به نظر میرسند. برای مثال، «چتبات» مبتنی بر هوش مصنوعی که موتور جستجوی «بینگ» مایکروسافت را تقویت میکند، نشان داده که قادر به دستکاری کاربران و حتی تهدید آنها است. از آنجایی که ابزارهای مولد هوش مصنوعی جهان را فراگرفته است، تصور اینکه تبلیغات کنندگان از آنها برای دروغگویی و گمراهکردن مردم استفاده نکنند، دشوار است. برای آمادگی در برابر این احتمالات، دولتها، کسبوکارها و سازمانهای جامعه مدنی، باید هنجارها و سیاستهایی برای استفاده از متنهای تولید شده با هوش مصنوعی را تثبیت کنند. همچنین تکنیکهایی برای شناسایی منبع یک متن خاص و اینکه آیا آن متن با استفاده از هوش مصنوعی ایجاد شده است یا نه، باید ایجاد شود. تلاشهای خبرنگاران و محققان برای شناسایی حسابهای کاربری جعلی در رسانههای اجتماعی و وبسایتهای اخبار جعلی نیز میتواند دامنه دسترسی کمپینهای تبلیغاتی مخفی را - صرفنظر از اینکه محتوا توسط انسان نوشته شده یا با استفاده از هوش مصنوعی تولید شده باشد - محدود کند.
پیشرفتهای حیرتانگیز مدلهای زبانی هوش مصنوعی
یک مدل زبانی، نوعی سیستم هوش مصنوعی است که از طریق آزمونوخطا برای تولید و استفاده متن آموزش دیده است. بخش بزرگی از فرایند آموزش، شامل پیشبینی کلمه بعدی در مجموعه بزرگی از متن است. اگر پیشبینی اشتباه باشد، مدل جریمه میشود. اگر پیشبینی درست باشد، پاداش داده میشود. این فرایند ساده، نتایج شگفتانگیزی را به همراه داشته است. از یک مدل بخواهید که یک توییت را با کلمات مختلف بازنویسی کند یا یک پست وبلاگ شامل نکات خاصی بسازد. او این کار را انجام خواهد داد. مدلهای زبانی یاد گرفتهاند که کارهای شگفتانگیزی از جمله رمزگشایی از کلمات، انجام محاسبات هشترقمی و حل مسائل کلمهای ریاضی انجام دهند که حتی کسانی که آنها را ساختهاند هم پیشبینی نمیکردند. محققان نمیتوانند با اطمینان پیشبینی کنند که مدلهای زبانی آینده، به چه قابلیتهای دیگری میتوانند دست یابند.
البته مدلهای امروزی، محدودیتهایی دارند. حتی پیشرفتهترین آنها نیز در حفظ انسجام در متون طولانی دشواری دارند، اظهار نظرات نادرست یا بیمعنا میکنند (پدیدهای که محققان هوش مصنوعی نام «توهم» را به آن دادهاند) و در درک رویدادهایی که پس از آموزش مدلها اتفاق میافتد، ناتوان هستند. با وجود این محدودیتها، مدلها میتوانند متنی تولید کنند که غالباً به نظر میرسد توسط یک انسان نوشته شده است. این ویژگی، آنها را به ابزارهای طبیعی برای تولید محتوای تبلیغاتی تبدیل میکند. تبلیغاتچیها، این مدلها را با افزایش تواناییهای آنها و حل مشکلاتی نظیر توهم، حتی جذابتر خواهند یافت. بهعنوانمثال، این مدلها بهگونهای آموزش میبینند که پیش از پاسخگویی به سؤالات، اطلاعات را جستوجو کنند.
با فراگیرشدن هوش مصنوعی مولد، تصور اینکه تبلیغات کنندگان از آن برای دروغگویی و گمراهکردن مردم استفاده نکنند، دشوار است.
در نظر بگیرید که هوش مصنوعی چه کاری میتواند برای سازماندهی تبلیغات موجود انجام دهد. ژورنالیست روسی «کسنیا کلاچکوا» [3]، درباره تجربهاش زمانی که برای ارتش سایبری روسیه موسوم به «Cyber Front Z» در یک «مزرعه ترول» [4] مستقر در سنپترزبورگ که برنامههای تبلیغاتی درباره جنگ روسیه در اوکراین را منتشر میکند، نوشته است. او در گزارش خود، به جزئیات فعالیتها و شیوههای کار این سازمان پرداخته و به چگونگی انتشار اطلاعات نادرست و تأثیرات آن بر افکار عمومی اشاره کرده است. در یک تحقیق منتشر شده در مارس ۲۰۲۲، «کلاچکوا» مینویسد که او یکی از ۱۰۰ کارمندی بود که در یک شیفت کار میکردند و برای نوشتن پستهای کوتاه در وبسایتهای رسانههای اجتماعی تعیینشدهای که برنامههای مسکو را ترویج میکردند، حقوق میگرفتند. این تجربه به او این امکان را داد که از نزدیک با شیوههای کار این «ترولها» آشنا شود و روشهای انتشار تبلیغات را مشاهده کند.
پس از ماه اول، کارمندان میتوانستند بهصورت دورکار فعالیت کنند و این کار، به رشد عملیات فراتر از محدوده فیزیکی آنها کمک کرد تا به طور مؤثرتری به تولید و انتشار تبلیغات در سکوهای مختلف بپردازد. مدلهای زبانی را میتوان برای تقویت یا جایگزینی نویسندگان انسانی در تولید چنین محتوایی مورداستفاده قرار داد و تعداد کارمندان ارتش سایبری و اوباش اینترنتی حاضر در «مزارع ترول» مشابه را کاهش داد. اگر هزینهها کاهش یابد، ممکن است بازیگران سیاسی بیشتری تصمیم بگیرند که عملیاتهای نفوذ را تأمین مالی یا اجرا کنند. با تیمهای کوچکتر، احتمال کشف این کمپینها کمتر خواهد بود؛ زیرا افراد کمتری ممکن است بهعنوان نشتدهنده یا نفوذی عمل کنند. این وضعیت ممکن است منجر به افزایش فعالیتهای مخفی و تهاجمی در فضای دیجیتال شود و چالشهای جدیدی برای شفافیت و پاسخگویی ایجاد کند.
همان چیزهایی که مدلهای زبان را برای عملیاتهایی مانند عملیات سایبری روسیه در اوکراین مفید میسازد یعنی توانایی تولید ارزان محتوایی که از متن نوشته شده توسط انسان قابلتشخیص نیست، میتواند آنها را در حوزههای دیگری که با هوش مصنوعی طراحی نشدهاند نیز مفید سازد. در سال ۲۰۲۰، محققین «سارا کرپس» [5] و «داگلاس کرینر» [6]، آزمایشی را انجام دادند که در آن، نامههای تولید شده با هوش مصنوعی و انسان را به قانونگذاران آمریکا ارسال کردند که گویی از طرف انتخابکنندگان بودند. آنها دریافتند که نمایندگان کنگره، کمتر از دو درصد، مایل به پاسخگویی به نامههای تولیدشده توسط هوش مصنوعی نسبت به نامههای نوشتهشده توسط انسان هستند.
این خطر وجود دارد که مدلهای زبانی ممکن است برای سوءاستفاده و حتی تحتفشار قراردادن سیستمهایی که از جامعه بازخورد میگیرد، مورداستفاده قرار گیرند. اگر مسئولان منتخب نتوانند نظرات واقعی مردم خود را تشخیص دهند، اعتبار دموکراسی تضعیف خواهد شد.
البته این بدان معنا نیست که مدلهای زبانی، لزوماً سیستمها را در همه جا تحتتأثیر قرار میدهند. در برخی موارد، آنها ناتوانی خود را نشان دادهاند. وبسایت اخبار فناوری «CNET» دهها مقاله خبری تولیدشده توسط هوش مصنوعی را تنها برای اینکه متوجه شود بسیاری از آنها پر از اشتباههای فاحش بودند، منتشر کرد. «Stack Overflow» پلتفرمی است که به برنامهنویسان این امکان را میدهد تا به سؤالات یکدیگر پاسخ دهند. این پلتفرم مجبور شد تا کاربران را نسبت به استفاده از «چت جی پی تی» منع کند؛ زیرا این مدل، دائماً پاسخهای نادرستی ارائه میداد. اما همانطور که مدلهای زبانی بهبود مییابند، تشخیص خروجی آنها تنها بر اساس محتوا دشوارتر خواهد بود. نهادهای متنوعی از جمله پلتفرمهای رسانههای اجتماعی و آژانسهای دولتی که به دنبال دریافت نظرات عمومی هستند، باید بررسی کنند که آیا در معرض حمله متنهای تولیدشده توسط هوش مصنوعی قرار دارند یا خیر و در صورت مثبتبودن جواب، سیستمهای دفاعی خود را تقویت کنند.
شاید شما با یک ربات ارتباط بگیرید و ندانید!
مدلهای زبانی هوش مصنوعی فقط قابلیت تولید تبلیغات بیشتر با هزینه کمتر را ارائه نمیدهند؛ بلکه آنها همچنین میتوانند کیفیت تبلیغات را با تطبیقدادن آن با گروههای خاص افزایش دهند. در سال ۲۰۱۶، کارمندان «مزرعه ترول» روسی شناخته شده تحت عنوان «آژانس تحقیق اینترنتی» تلاش کردند تا با جازدن خود بهعنوان سیاهپوستان چپگرا یا سفیدپوستهای طرفدار ترامپ، در جوامع آنلاین خاص آمریکایی نفوذ کنند تا تبلیغاتی که متناسب این گروهها تولید شده بود را به آنها منتقل کنند. اما این تلاشهای جعل هویت، بهخاطر محدودیت پهنای باند و دانش کم این گروهها از جوامع هدف، چندان موفقیتآمیز نبود. با بهبود مدلهای زبانی، این موانع ممکن است از بین برود. تحقیقات اولیه نشان میدهد که مدلها میتوانند از تجربیات اجتماعی - فرهنگی یک گروه جمعیتی خاص استفاده کنند و سوگیریهای آن گروه را نشان دهند. با دسترسی به دادههای دقیق درباره جوامع آمریکا از طریق نظرسنجیها، دلالان داده یا پلتفرمهای رسانههای اجتماعی، مدلهای زبانی آینده ممکن است قادر به تولید محتوای شخصیسازیشده منسجمی باشند که به تبلیغات کنندگان اجازه میدهد در نزد مخاطب هدف، کسب اعتبار کنند، بدون اینکه واقعاً آن مخاطب را بشناسند. تبلیغات شخصیسازیشده میتواند در خارج از رسانههای اجتماعی نیز مثلاً از طریق ایمیلهای تنظیمشده یا وبسایتهای خبری مؤثر باشد.
شدیدترین شکل شخصیسازی، ممکن است چت یکبهیک باشد. با استفاده از چتباتهای مبتنی بر هوش مصنوعی، تبلیغات کنندگان میتوانند بهصورت فردی با اهداف خود ارتباط برقرار کنند، به طور مستقیم به نگرانیها یا استدلالهای متقابل آنها پاسخ دهند و شانس قانعکردن یا حداقل پرتکردن حواس آنها را افزایش دهند. در حال حاضر، راهاندازی یک عملیات نفوذ که به گفتگوهای مداوم بین تبلیغاتچیهای فردی و جمعیتهای بزرگ وابسته باشد، از نظر منابع بهشدت پرهزینه خواهد بود. در آینده، زمانی که مدلهای زبانی متقاعدکنندهتر و کمهزینهتر میشوند، چنین کمپینهایی میتواند با کمک هوش مصنوعی قابلاجرا باشد.
دولتها، کسبوکارها و سازمانهای جامعه مدنی، باید هنجارها و سیاستهایی را برای استفاده از متنهای تولید شده با هوش مصنوعی تثبیت کنند.
در حال حاضر نیز تمایز بین انسانهای آنلاین و ماشینها دشوار است. یک پروژه تحقیقاتی، اخیراً نشان داد که یک عامل هوش مصنوعی در نسخه آنلاین یک بازی کلاسیک با موضوع دیپلماسی که شامل مذاکره با افراد واقعی برای تشکیل اتحاد است، در بین ده درصد برتر شرکتکنندگان قرار گرفته است. اگر مدلهای زبانی امروزی را بتوان برای متقاعدکردن بازیکنان برای مشارکت در یک بازی آموزش داد، مدلهای آینده ممکن است بتوانند افراد را متقاعد کنند که اقداماتی مثل پیوستن به یک گروه فیسبوک، امضای یک طومار یا حتی حضور در یک اعتراض را انجام دهند.
برای درک سرعت بهبود مدلهای زبانی، یکی از جدیدترین مدلهای گوگل به نام «Flan-PaLM» را در نظر بگیرید. این مدل میتواند بهدرستی به ۹ سؤال از هر ده سؤال در آزمون مجوز پزشکی آمریکا پاسخ دهد. این سیستمهای هوش مصنوعی، همچنین میتوانند محاسبات ریاضی را انجام دهند، به سؤالاتی درباره فیزیک پاسخ دهند و شعر بنویسند. این سیستمها، ابزارهای بالقوه خطرناکی در دستان تبلیغات کنندگان هستند و هر روز قویتر میشوند.
شاید به طور معقول پرسیده شود که تهدید جدی که مدلهای زبانی در زمینه تبلیغات ایجاد میکنند چقدر است؟ بهویژه باتوجهبه اینکه تحلیلگران به طور مکرر فناوریهای جدید را در حوزه امنیت ملی بیش از حد بزرگنمایی کردهاند. بههرحال، مفسران هشدار دادهاند که نسلهای قبلی مدلهای زبانی ممکن است به این شکل مورد سوءاستفاده قرار گیرند. بااینحال، شواهد عمومی کمی وجود دارد که دولتها عملیات نفوذ مبتنی بر هوش مصنوعی را با استفاده از این ابزارها انجام داده باشند. البته فقدان شواهدی از چنین کمپینهایی، دلیل محکمی بر عدم وجود آنها نیست. اگرچه هیچ مدرکی در دسترس عموم وجود ندارد که مدلهای زبانی برای عملیات نفوذ استفاده شدهاند، اما هیچ مدرکی نیز وجود ندارد که نشان دهد از این مدلها استفاده نشده است. محققان اطلاعات نادرست، اخیراً توجه خود را به مدلهای زبانی آغاز کردهاند.
حتی اگر فرض کنیم که مدلهای زبانی در کمپینهای نفوذ گذشته مورداستفاده قرار نگرفتهاند، هیچ تضمینی وجود ندارد که در آینده مورداستفاده قرار نگیرند. یک فناوری محبوب برای ایجاد تصاویر چهرههای تولید شده توسط هوش مصنوعی برای اولینبار در سال ۲۰۱۴ توسعه یافت، اما تا سال ۲۰۱۹ بود که پژوهشگران، تصاویر پروفایل تولید شده توسط هوش مصنوعی را در یک عملیات نفوذ کشف کردند. در سال ۲۰۲۲، بیش از دو سوم از عملیاتهای نفوذی که توسط متا (شرکت مادر فیسبوک) شناسایی و حذف شدند، شامل چهرههای جعلی بودند. پیشرفتهایی در فن آوری و سهولت دسترسی به تبلیغکنندگان صورت گرفت تا استفاده از آنها عادی شود. همین اتفاق میتواند در مورد مدلهای زبانی نیز رخ دهد. شرکتها در حال سرمایهگذاری در بهبود خروجی مدلهای زبانی و آسانتر کردن استفاده از آنها هستند که تنها جذابیت آنها را برای تبلیغکنندگان افزایش میدهد.
دلیل دوم برای شک به اینکه مدلهای زبانی تهدیدی جدی هستند، مربوط به اثربخشی کمپینهای تبلیغاتی بهطورکلی است. یک مطالعه درباره تلاشهای «آژانس تحقیقات اینترنتی» روسیه در توییتر که توسط مجله «Nature Communications» منتشر شده، هیچ مدرکی از رابطه معنادار بین مواجهه با کمپین نفوذ خارجی روسیه در سال ۲۰۱۶ و تغییرات در نگرشها، قطبی شدن یا رفتارهای افراد رأیدهنده نیافت. «هوگو مرسیه» [7] - دانشمند علوم شناختی - به همین ترتیب استدلال کرده است که مردم، کمتر از آنچه معمولاً تصور میشود، سادهلوح هستند؛ اما حتی اگر تبلیغات کنندگان، اغلب در متقاعدکردن ناکام باشند، باز هم میتوانند در از بین بردن بحثهای واقعی و تضعیف اعتماد عمومی موفق شوند. بهعنوانمثال، پس از آن که جداییطلبان تحت حمایت روسیه در اوکراین، پرواز ۱۷ خطوط هوایی مالزی را در ژوئیه ۲۰۱۴ سرنگون کردند، وزارت دفاع روسیه ادعاهای ضدونقیضی در مورد اینکه چه کسی هواپیما را ساقط کرده و چگونه این کار را انجام داده است، مطرح کرد. به نظر میرسد هدف، متقاعدکردن مخاطبان به هر روایتی نبود، بلکه گلآلود کردن آب و منحرفکردن سرزنش از مسکو بود. اگر تبلیغکنندگان، فضاهای آنلاین را با تبلیغات تولید شده توسط هوش مصنوعی پر کنند، میتوانند بذر بیاعتمادی را بکارند و تشخیص حقیقت را سختتر کنند. مردم ممکن است حتی به مشاهدات خود نیز بیاعتماد شوند و این امر، باور آنها را نسبت به واقعیت مشترک، مخدوش میکند.
آخرالزمان اطلاعاتی؟!
اگرچه مدلهای زبانی در حال تبدیلشدن به ابزارهای تبلیغاتی قدرتمندی هستند، اما لازم نیست که به آخرالزمان و فاجعه اطلاعاتی منجر شوند. برای اجرای یک کارزار نفوذ موفق با هوش مصنوعی، تبلیغاتچیها به سه چیز نیاز دارند: ابتدا آنها به یک مدل زبانی کارآمد نیاز دارند که میتوانند آن را از ابتدا بسازند، سرقت کنند، از وبسایتهای متنباز دانلود کنند یا از یک ارائهدهنده خدمات هوش مصنوعی دریافت کنند. دوم، آنها به زیرساختهایی مانند وبسایتها یا حسابهای جعلی در شبکههای اجتماعی برای انتشار تبلیغات خود نیاز دارند و در نهایت، آنها به افراد واقعی نیاز دارند که تحتتأثیر قرار بگیرند یا حداقل توسط محتوایی که منتشر میکنند، گیج یا ناامید شوند. در هر مرحله از این فرایند، دولتها، کسبوکارها و کارشناسان فناوری، فرصت دارند تا مداخله کنند و آسیبهایی که اینگونه کمپینها ایجاد میکنند را کاهش دهند.
نهادهای متنوعی از جمله پلتفرمهای رسانههای اجتماعی و آژانسهای دولتی که به دنبال دریافت افکار عمومی هستند، باید بررسی کنند که آیا در معرض حمله متنهای تولیدشده توسط هوش مصنوعی قرار دارند یا خیر.
در مرحله دسترسی، طیف وسیعی از گزینهها برای کنترل استفاده از مدلهای زبانی یا محدودکردن توانایی آنها برای تولید خروجی خطرناک وجود دارد. اگرچه در حال حاضر توزیع مدلهای متنباز به طور گسترده در زمینه هوش مصنوعی بهعنوان یک هنجار شناخته میشود، اما ممکن است عاقلانهتر این باشد که به یک هنجار جدید فکر کنیم که دسترسی به قابلیتهایی را که یک تبلیغاتچی نیاز دارد، دشوار کند. یکی از راهها برای انجام این کار، میتواند کنترل مدلها از طریق یک رابط برنامهنویسی کاربردی باشد که یک لایه نرمافزاری است که بهعنوان دروازهای بین کاربران و مدلهای زبانی عمل میکند. این کار به ارائهدهندگان خدمات هوش مصنوعی (و به طور بالقوه دیگران) اجازه میدهد تا از تبلیغات کنندگان جلوگیری کرده، آنها را شناسایی کنند و به آنها واکنش نشان دهند. یک گزینه دیگر این است که مدلهایی توسعه داده شوند که دقیقتر باشند و کمتر احتمال داشته باشند که خروجیهای مشکلساز تولید کنند که محققان، در حال حاضر در حال انجام آن هستند. محققان همچنین در حال بررسی امکان ایجاد مدلهایی با نشانه دیجیتال هستند تا شناسایی محتوای تولید شده توسط آنها را آسانتر کند.
در سطح زیرساخت، شرکتهای رسانههای اجتماعی و موتورهای جستجو میتوانند فعالانه برای شناسایی محتوای تولید شده توسط هوش مصنوعی کار کنند و از کاربران بخواهند که همین کار را انجام دهند. آنها همچنین میتوانند استانداردهای منشأ دیجیتال را به متن اعمال کنند که به افراد این امکان را میدهد تا بدانند متن چگونه تولید شده است؛ بهعنوانمثال، چه کسی آن را نوشته و آیا توسط هوش مصنوعی ایجاد شده است یا خیر؟ اگرچه اجرای چنین استانداردهایی در حال حاضر دشوار به نظر میرسد، اما تحقیقات بیشتر، میتواند مسیر روبهجلو را در همین زمینه هموار کند.
در فنلاند، سواد رسانهای در برنامه درسی مدارس گنجانده شده است. از سنین پایین، فنلاندیها یاد میگیرند که اخبار مصرفی خود را تحلیل کنند و اطلاعات را از منابع مختلف بررسی کنند.
در نهایت، جوامع نیاز به ایجاد انعطافپذیری در میان کاربران ناآگاه رسانههای اجتماعی و اینترنت دارند. در فنلاند، سواد رسانهای در برنامه درسی مدارس گنجانده شده است؛ از سنین پایین، فنلاندیها یاد میگیرند که اخبار مصرفی خود را تحلیل کنند و اطلاعات را از منابع مختلف بررسی کنند. اینگونه تلاشها میتواند به افراد کمک کند تا تفاوت بین اخبار واقعی و جعلی را تشخیص دهند؛ بهطوریکه احتمال این که تحتتأثیر محتوای غیرقابلاعتماد قرار گیرند - چه ناشی از انسان و چه از هوش مصنوعی - کاهش یابد. با توانمندتر شدن مدلهای زبانی، آنها حتی میتوانند به کاربران در زمینهسازی و حتی درک اطلاعاتی که میبینند، کمک کنند.
ظهور مدلهای زبانی هوش مصنوعی، مستلزم بررسی گستردهتری است؛ از جمله سؤالات اساسی که جوامع باید به آنها پاسخ دهند عبارتند از: چه کسی باید دسترسی به این مدلها را کنترل کند؟ چه کسانی در معرض خطر قرار دارند؟ آیا تقلید گفتگوی انسان با هوش مصنوعی، اساساً مطلوب است؟ اگرچه پیشبینی اثرات مدلهای زبانی آینده دشوار خواهد بود، اما واضح است که آنها بسیاری از آزمایشگاههای هوش مصنوعی که آنها را ایجاد میکنند، فراتر خواهند رفت و استفاده از آنها عمومیت پیدا خواهد کرد؛ بنابراین دولتها، کسبوکارها، جامعه مدنی و بهطورکلی عموم مردم باید در چگونگی طراحی و استفاده از این مدلها و چگونگی مدیریت خطرات بالقوهای که ایجاد میکنند، حرفی برای گفتن داشته باشند.
[1] . JOSH A. GOLDSTEIN
[2] . GIRISH SASTRY
[3] . Ksenia Klochkova
[4] . troll farm: «مزرعه ترول ها»، گروهی متشکل از اوباش اینترنتی بوده که به دنبال دخالت در عقاید سیاسی و تصمیم گیری هستند. ترول یا اوباش مجازی، در گفتمان اینترنتی به افرادی گفته میشود که با رفتار مخرب در فضای وب، به دنبال جلب نظر کاربران، ایجاد تشنج و بیان مطالب تحریککننده و توهینآمیز هستند. یک ترول، فردی است که در اتاقهای گفتگو، تالارها، وب نوشت ها یا تارنماهای کاربرمحور، پیامهایی ارسال میکند که حاوی مطالب ناراحتکننده یا جنجالبرانگیز است. دولت ها از این اوباش اینترتی می توانند برای ایجاد کارزار اطلاعات نادرست استفاده کنند.
[5] . Sarah Kreps
[6] . Douglas Kriner
[7] . Hugo Mercier
/ انتهای پیام /