حدود پنج ماه پیش بود که خبر اعتصاب صنفی نویسندگان سینمای آمریکا در اکثر رسانه‌های جهان بازتاب پیدا کرد. نویسندگان مطالباتی داشتند و تضامینی می‌خواستند که طرف حساب همه آن‌ها انجمن تهیه‌کنندگان سینمای آمریکا بود و بالاخره در ۲ مه ۲۰۲۳، برابر با ۱۲ اردیبهشت ۱۴۰۲، ساعت ۱۲:۰۱ بامداد به وقت محلی ایالات‌متحده، انجمن نویسندگان آمریکا (WGA) به نمایندگی از ۱۱۵۰۰ فیلمنامه‌نویس دست به اعتصاب زد. عمده‌ترین مواردی که به‌عنوان مطالبات نویسندگان مطرح می‌شد در دو سرفصل، قابل دسته‌بندی بود. مورد اول به حقوق موسوم به باقی‌مانده‌ها برمی‌گشت که باید در رسانه‌های استریم یا به قول کاربران ایرانی (پلتفرم‌ها) مورد توجه قرار می‌گرفت. باقی‌مانده‌ها Residual غرامت‌هایی هستند که به بازیگران، کارگردانان سینما یا تلویزیون و سایر افرادی که در ساخت برنامه‌های تلویزیونی و فیلم‌های سینمایی دخیل هستند، درصورت انتشار نسخه‌های دیگری از یک اثر پرداخت می‌شود.

به گزارش«سدید»؛ اولین کسانی که نسبت به دیسپوتیا یا همان آخرالزمان ویرانه‌ای که تکنولوژی ایجاد می‌کند از سال‌ها پیش هشدار می‌دادند نویسندگان هالیوودی بودند. تعداد فیلم‌ها و سریال‌هایی که با محتوای هشدارآمیز نسبت به تسلط ربات‌ها بر بشر و نابود شدن تمدن به دست تکنولوژی بشری در آمریکا تولید شده آنقدر زیاد است که شاید ذکر نام آن‌ها هم از چند مجلد کتاب فراتر برود. همه اینها، اما بیشتر تخیل به‌حساب می‌آمد تا اینکه جهان رفته‌رفته با پدیده هوش مصنوعی آشنا شد. حالا تصور می‌شود که اگرچه خطرات این پدیده ممکن است جدی باشد، راهی برای جلوگیری از آن وجود ندارد و این درحالی است که نویسندگان هالیوود چنین فکر نمی‌کنند. آن‌ها برای جلوگیری از گسترش این فناوری و ایجاد مانعی بر سر راه ورود آن به حریم منافع‌شان متحد شدند و اعتصاب بزرگی به راه انداختند و حالا به نظر می‌رسد تا حدودی در رسیدن به خواسته‌هایشان موفق بوده‌اند.
حدود پنج ماه پیش بود که خبر اعتصاب صنفی نویسندگان سینمای آمریکا در اکثر رسانه‌های جهان بازتاب پیدا کرد. نویسندگان مطالباتی داشتند و تضامینی می‌خواستند که طرف حساب همه آن‌ها انجمن تهیه‌کنندگان سینمای آمریکا بود و بالاخره در ۲ مه ۲۰۲۳، برابر با ۱۲ اردیبهشت ۱۴۰۲، ساعت ۱۲:۰۱ بامداد به وقت محلی ایالات‌متحده، انجمن نویسندگان آمریکا (WGA) به نمایندگی از ۱۱۵۰۰ فیلمنامه‌نویس دست به اعتصاب زد.
عمده‌ترین مواردی که به‌عنوان مطالبات نویسندگان مطرح می‌شد در دو سرفصل، قابل دسته‌بندی بود. مورد اول به حقوق موسوم به باقی‌مانده‌ها برمی‌گشت که باید در رسانه‌های استریم یا به قول کاربران ایرانی (پلتفرم‌ها) مورد توجه قرار می‌گرفت. باقی‌مانده‌ها Residual غرامت‌هایی هستند که به بازیگران، کارگردانان سینما یا تلویزیون و سایر افرادی که در ساخت برنامه‌های تلویزیونی و فیلم‌های سینمایی دخیل هستند، درصورت انتشار نسخه‌های دیگری از یک اثر پرداخت می‌شود. مثلا در مواردی که یک اثر از شبکه‌ای مجددا پخش می‌شود یا درصورت انتشار دی‌وی‌دی پخش از تلویزیون کابلی یا تقلید و بازتولید یک خلاقیت هنری یک کاراکتر به‌خصوص یا چیزی شبیه به آن در هوش مصنوعی باید حقوق مولفان اولیه مجددا پرداخت شود. مورد دوم که چالش عمیق‌تری بود و دامنه بحث درخصوص آن به خارج از حوزه سینما و تلویزیون هم می‌رسد هوش مصنوعی بود.
در حقیقت سرفصل اول هم به‌نوعی با هوش مصنوعی ارتباط داشت، اما عنوان آن عام‌تر بود، درصورتی‌که سرفصل دوم منحصرا خواستار محدود شدن این تکنولوژی می‌شد. نویسندگان می‌خواستند از انواع تکنولوژی‌های هوش مصنوعی مانند ChatGPT فقط به‌عنوان ابزاری استفاده شود که می‌تواند به تحقیق یا تسهیل ایده‌های فیلمنامه کمک کند و نه به‌عنوان ابزاری برای جایگزینی آنها. همان روزی که انجمن نویسندگان اعلام اعتصاب کرد انجمن انیمیشن بیانیه‌ای در حمایت از انجمن نویسندگان و اعتصاب آن‌ها صادر کرد و مدتی بعد این اعتصاب در کنفرانس‌های مطبوعاتی جشنواره فیلم کن مورد بحث قرار گرفت و شان پن، اتان هاوک، پل دانو و کاتلین کندی حمایت خود را از آن اعلام کردند. بالاخره انجمن بازیگران سینمای آمریکا هم به این اعتصاب پیوست که باعث شد فرش قرمز‌های جشنواره ونیز در آخر تابستان تقریبا خالی از حضور ستاره‌های هالیوودی شود.
سوای از اهمیت و رونق سینمای آمریکا که باعث می‌شود تمام اخبار مربوط به آن مهم به نظر برسند یکی از دلایلی که باعث شد توجهات به اخبار این اعتصاب بیشتر شود دلایل این اعتصاب بود. بحث هوش مصنوعی خیلی جدی‌تر از آن است که فقط نویسندگان سینمایی درگیر نگرانی‌هایی راجع‌به آن باشند. این نویسندگان تضمینی می‌خواستند که هوش مصنوعی جای آن‌ها را نگیرد و در ادامه معلوم شد دغدغه بازیگران هم همین است، اما سوالی که برای هر مشاهده‌گر قضیه پیش می‌آمد این بود که اساسا مگر می‌شود چنین تضمینی ارائه داد؟ آیا امکان‌پذیر است که برای به خطر نیفتادن منافع عده‌ای که شاغل در یک صنف هستند جلوی پیشرفت تکنولوژی گرفته شود؟ آیا اگر این قانون محدودکننده در آمریکا اجرا شود رقبای ایالات‌متحده با عدم اجرای چنین محدودیت‌هایی هالیوود را مثل برق و باد پشت سر نخواهند گذاشت؟ همچنان‌که این پرسش‌ها در ذهن هر دنبال‌کننده اخبار بالا و پایین می‌شد بالاخره خبر رسید که انجمن تهیه‌کنندگان آمریکا با صنف نویسندگان به توافق رسیده و یک‌سری شروط را پذیرفته است. به گزارش رسانه‌های آمریکایی، اعتصاب ۱۴۶ روزه انجمن نویسندگان هالیوود با انعقاد قراردادی موقت بین این انجمن با استودیو‌ها و پخش‌کنندگان هالیوود به پایان رسید و احتمالا این قرارداد موقت راه را برای توافق با انجمن بازیگران فیلم‌های سینمایی هالیوود هم باز خواهد کرد.
وال‌استریت‌ژورنال اعلام کرد که افراد مطلع از این قرارداد تصریح کردند این قرارداد سه‌ساله و شامل چندین بند موفقیت‌آمیز برای نویسندگان از جمله «افزایش حق امتیاز، استخدام اجباری کارکنان برای اتاق‌های تحریر تلویزیونی و حفاظت درمورد استفاده از هوش مصنوعی» است. به بند آخر توافق دوباره دقت کنیم؛ «حفاظت در مورد استفاده از هوش مصنوعی» حالا باید در نوع پرسش‌ها تجدید نظر کرد. اگر این شروط صرفا به مثابه جلوگیری از پیشرفت تکنولوژی باشند منفعت‌طلبی اعضای یک صنف به‌خصوص توان عملی کردن‌شان را نخواهد داشت و اگر این محدودیت‌ها به منزله عقب نگه داشتن آمریکا نسبت به رقبایش باشند محال است صنف تهیه‌کنندگان هالیوود که اصلی‌ترین اولویتش مسائل مالی است به آن تن بدهد. ظاهرا قضیه فراتر از اینهاست و باید در فهم نسبت‌مان با پدیده‌ای به اسم هوش مصنوعی بیشتر بکوشیم. گسترش فضای مجازی در سال‌های اخیر به‌رغم فوایدی که داشت و با وجود آسان‌سازی‌های شگفت‌انگیزش در بسیاری از مسائل تبعات تلخی هم به بار آورد. چند سال پیش بود که نتفلیکس مستندی منتشر کرد به نام «وضعیت اجتماعی» و در آن تعدادی از کارمندان نخبه شرکت‌هایی مثل توییتر و اینستاگرام که دیگر از مجموعه‌هایشان جدا شده بودند جلوی دوربین نشستند و چنان از مضرات این پدیده گفتند که هر مخاطبی را در شوک فرو می‌برد. البته تهیه آن مستند مقداری هم انتخاباتی بود و کاری علیه دونالد ترامپ محسوب می‌شد که با ذائقه‌سنجی جامعه توسط شبکه‌های اجتماعی توانسته بود رئیس‌جمهور آمریکا شود؛ اما به هر حال و با هر انگیزه‌ای که بود تمام آن نخبگان آی‌تی جلوی دوربین نشستند و این حرف‌ها را زدند و به عبارتی علیه کارنامه کاری خودشان افشاگری کردند. حالا که ماجرا به هوش مصنوعی می‌رسد، دغدغه‌هایی از این جنس درحال پررنگ‌تر شدن هستند. خطر هر روز درحال بیشتر شدن است و بشر قرن ۲۱ نسبت به روند توسعه تکنولوژی‌های هوشمند، همان حسی را پیدا کرده که بشر قرن بیستم از جایی به بعد نسبت به توسعه فناوری‌های نظامی پیدا کرده بود. تفنگ‌های تک‌تیر، تبدیل به مسلسل شدند و تانک و نفربر و پرنده‌های جنگنده اختراع شد. بعد موشک و بمب‌های قوی و درنهایت بمب اتم و بمب هولناک هیدروژنی به میدان آمدند. نهایتا کار به جایی رسید که بشر احساس کرد آنچه درحال ادامه است پیشرفت تکنولوژی نیست بلکه حرکتش به سمت انقراض است. حالا درمورد هوش مصنوعی هم چنین دغدغه‌هایی وجود دارد و بحث فراتر از به خطر افتادن منافع چند صنف هنری و رسانه‌ای به نظر می‌رسد. احتمالا خیلی‌ها در اخبار خوانده‌اند که ایلان ماسک، بنیانگذار تسلا و اسپیس‌ایکس به همراه بیش از هزار رهبر فناوری دیگر در نامه‌ای سرگشاده در همین سال ۲۰۲۳ خواستار توقف آزمایش‌های بزرگ هوش مصنوعی شدند و اشاره کردند که این فناوری می‌تواند خطرات عمیقی برای جامعه و بشریت ایجاد کند. حتی یکی از کسانی که این نامه سرگشاده را امضا کرده بود به‌نوعی بنیانگذار اصلی هوش مصنوعی به‌حساب می‌آمد. جفری هینتون، معروف به پدرخوانده هوش مصنوعی درباره کار اساسی خود در زمینه یادگیری ماشینی گفت: «این چیز‌ها می‌توانند هوشمندتر از ما باشند و می‌توانند تصمیم بگیرند که مسئولیت را به دست بگیرند و ما باید اکنون نگران این باشیم که چگونه از این اتفاق جلوگیری کنیم.» در سال ۲۰۲۳، هینتون موقعیت خود را در گوگل ترک کرد تا بتواند درباره خطرات هوش مصنوعی صحبت کند و حتی به این نکته اشاره کرد که نسبت به بخشی از کار و زندگی خود که به این موضوع مربوط می‌شود پشیمان است.
اما مگر هوش مصنوعی چه خطراتی دارد که تا این حد نگران‌کننده است و از پیشوایان و پدیدآورندگان آن گرفته تا غول‌های دنیای تفریح و رسانه علیه آن هشدار می‌دهند؟ در ادامه به ۱۲ مورد از مضرات هوش مصنوعی که باعث ایجاد نگرانی‌هایی در خود جامعه آمریکا به‌عنوان زادگاه این فناوری شده‌اند، اشاره شده است.

۱. عدم شفافیت و توضیح هوش مصنوعی

درک مدل‌های هوش مصنوعی و یادگیری عمیق حتی برای کسانی که مستقیما با این فناوری کار می‌کنند دشوار است. این منجر به عدم شفافیت درمورد چگونگی و چرایی نتیجه‌گیری هوش مصنوعی می‌شود و توضیحی درمورد اینکه الگوریتم‌های هوش مصنوعی از چه داده‌هایی استفاده می‌کنند یا اینکه چرا ممکن است تصمیم‌های مغرضانه یا ناایمن بگیرند، ارائه نمی‌شود. این نگرانی‌ها باعث استفاده از یک نوع هوش مصنوعی قابل توضیح شده است که البته موردی خاص به‌حساب می‌آید و همه‌گیر نشده و هنوز راه زیادی تا تبدیل شدن سیستم‌های هوش مصنوعی شفاف به روش معمول وجود دارد.

۲. از دست دادن شغل به دلیل اتوماسیون هوش مصنوعی

اتوماسیون شغلی مبتنی‌بر هوش مصنوعی یک نگرانی مبرم است، زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبت‌های بهداشتی پذیرفته شده است. به عبارتی هوش مصنوعی تاثیر قابل‌توجهی بر پزشکی دارد. البته فقط مشاغل مرتبط با پزشکی متاثر از این فناوری نخواهند بود. به گفته مک‌کینزی تا سال ۲۰۳۰، وظایفی که ۳۰ درصد از ساعت کار فعلی در اقتصاد ایالات‌متحده را تشکیل می‌دهند می‌توانند خودکار شوند. درحالی‌که تخمین زده می‌شود هوش مصنوعی تا سال ۲۰۲۵ میلادی ۹۷ میلیون شغل جدید ایجاد کند گلدمن ساکس بیان می‌کند که ۳۰۰ میلیون شغل تمام‌وقت ممکن است به دلیل اتوماسیون هوش مصنوعی از بین برود. حتی مشاغلی که به مدارک تحصیلات تکمیلی و آموزش اضافی پس از کالج نیاز دارند نیز از هوش مصنوعی مصون نیستند. همان‌طور که کریس مسینا، استراتژیست فناوری اشاره کرده است رشته‌هایی مانند حقوق و حسابداری برای تصاحب توسط هوش مصنوعی آماده شده‌اند. مسینا می‌گوید در واقع ممکن است برخی از آن‌ها از بین بروند. او در رابطه با حوزه حقوقی می‌گوید: «به پیچیدگی قرارداد‌ها فکر کنید و واقعا عمیق شوید و درک کنید که برای ایجاد یک ساختار معاملاتی عالی چه چیزی لازم است. بسیاری از وکلا اطلاعات زیادی را مطالعه می‌کنند؛ صد‌ها یا هزاران صفحه از داده‌ها و اسناد. اما هوش مصنوعی این توانایی را دارد که بهترین قرارداد ممکن را برای نتیجه‌ای که می‌خواهید به دست آورید، به‌طور جامع ارائه دهد و احتمالا جایگزین بسیاری از وکلای شرکتی خواهد شد.»

۳. دستکاری اجتماعی از طریق الگوریتم‌های هوش مصنوعی

دستکاری اجتماعی هم به‌عنوان یک خطر هوش مصنوعی شناخته می‌شود. این ترس به واقعیت تبدیل شده است، زیرا سیاستمداران برای ترویج دیدگاه‌های خود به بعضی از پلتفرم‌ها تکیه می‌کنند و یکی از نمونه‌های آن فردیناند مارکوس جونیور بود که از ارتش ترول TikTok استفاده کرد تا آرای فیلیپینی‌های جوان‌تر را در جریان انتخابات ۲۰۲۲ فیلیپین به دست آورد. رای آوردن ترامپ و پیروزی کمپین جدایی بریتانیا از اتحادیه اروپا که به برگزیت معروف بود هم نمونه‌هایی دیگر هستند. اخبار آنلاینی که با تصاویر و ویدیو‌های تولید‌شده توسط هوش مصنوعی منتشر می‌شوند، تغییر صدا‌های هوش مصنوعی و همچنین دیپ‌فیک‌هایی که در حوزه‌های سیاسی و اجتماعی نفوذ کرده‌اند، حالا حتی از دوره انتخاب ترامپ و پیروزی برگزیت و به قدرت رسیدن فردیناند مارکوس هم تیره‌تر شده‌اند. این فناوری‌ها، ایجاد عکس، فیلم، کلیپ‌های صوتی واقع‌نما یا جایگزینی تصویر یک چهره با چهره دیگر در یک تصویر یا ویدیو را آسان می‌کنند. در نتیجه، شیادان راه دیگری برای به اشتراک گذاشتن اطلاعات نادرست و تبلیغات مرتبط با جنگ روانی دارند و سناریویی کابوس‌ناک ایجاد می‌کنند که در آن تشخیص اخبار معتبر و نادرست تقریبا غیرممکن است و به قول یکی از کارشناسان این حوزه «هیچکس نمی‌داند چه چیزی واقعی است و چه چیزی نیست.»

۴. نظارت اجتماعی با فناوری هوش مصنوعی

یکی از نگرانی‌های عمده، روشی است که هوش مصنوعی طبق آن بر حریم خصوصی و امنیت تاثیر منفی می‌گذارد. نمونه بارز این قضیه، استفاده چین از فناوری تشخیص چهره در ادارات، مدارس و سایر مکان‌ها است. علاوه‌بر ردیابی حرکات یک فرد، دولت چین ممکن است بتواند داده‌های کافی برای نظارت بر فعالیت‌ها، روابط و دیدگاه‌های سیاسی یک فرد را جمع‌آوری کند. مثال دیگر ادارات پلیس ایالات متحده است که از الگوریتم‌های پلیس پیش‌بینی، برای پیش‌بینی محل وقوع جنایات استفاده می‌کنند. مشکل این است که این الگوریتم‌ها تحت‌تاثیر نرخ‌های دستگیری قرار می‌گیرند که به‌طور نامتناسبی بر جوامع سیاه‌پوست تاثیر می‌گذارد. سپس ادارات پلیس این جوامع را دوچندان می‌کنند که منجر به تنش و رخ دادن واقعی اتفاقات ناگوار می‌شود.

۵. عدم حفظ حریم خصوصی داده‌ها با استفاده از ابزار‌های هوش مصنوعی

اگر با یک چت ربات هوش مصنوعی بازی کرده باشید یا یک فیلتر چهره هوش مصنوعی را به صورت آنلاین امتحان کرده باشید، داده‌های شما در حال جمع‌آوری است؛ اما به کجا می‌رود و چگونه از آن استفاده می‌شود؟ سیستم‌های هوش مصنوعی اغلب داده‌های شخصی را برای سفارشی‌سازی تجربیات کاربر یا کمک به آموزش آن مدل‌هایی از هوش مصنوعی که استفاده می‌کنید، جمع‌آوری می‌کنند (مخصوصا اگر ابزار هوش مصنوعی رایگان باشد). زمانی که داده‌ها به سیستم هوش مصنوعی داده می‌شوند، ممکن است نشود این اطلاعات را حتی از دسترسی سایر کاربران امن تلقی کرد، زیرا یک حادثه باگ که در ChatGPT در سال ۲۰۲۳ رخ داد، به برخی از کاربران اجازه داد عناوین تاریخچه چت کاربر فعال دیگری را ببینند.

۶. تعصبات ناشی از هوش مصنوعی

اشکال مختلف سوگیری هوش مصنوعی نیز مضر هستند. اولگا روساکوفسکی، استاد علوم کامپیوتر پرینستون، در صحبت با نیویورک تایمز گفت که تعصب هوش مصنوعی فراتر از جنسیت و نژاد است. به عبارتی او می‌گوید هوش مصنوعی سوگیری طبقاتی هم دارد. باید توجه کرد علاوه‌بر داده‌ها و سوگیری الگوریتمی (که دومی می‌تواند اولی را تقویت کند)، هوش مصنوعی توسط انسان‌ها توسعه می‌یابد و انسان‌ها ذاتا سوگیری دارند. یعنی غیر از سوگیری خودکار و الگوریتمی، یک نوع جهت‌گیری اولیه هم در ذات این فناوری نهادینه می‌شود که توسط پدیدآورندگانش پایه‌گذاری شده است. روساکوفسکی می‌گوید محققان هوش مصنوعی عمدتا مردانی هستند که از جمعیت‌های نژادی خاص می‌آیند و در مناطق اجتماعی-اقتصادی بالا بزرگ شده‌اند و عمدتا افراد بدون معلولیت هستند. ما جمعیت نسبتا همگنی هستیم، بنابراین فکر کردن در مورد مسائل جهانی و گسترده دیدن مسائل، یک چالش است. تجارب محدود سازندگان هوش مصنوعی ممکن است توضیح دهد که چرا هوش مصنوعی تشخیص گفتار اغلب لهجه‌ها را درک نمی‌کند، یا چرا شرکت‌ها عواقب رفتار یک ربات چت را که جعل هویت چهره‌های بدنام در تاریخ بشر است، در نظر نمی‌گیرند. توسعه‌دهندگان کسب‌وکار‌ها باید دقت بیشتری به خرج دهند تا از بازآفرینی سوگیری‌ها و پیش‌داوری‌های قدرتمندی که جمعیت اقلیت‌ها را در معرض خطر قرار می‌دهد، اجتناب کنند.

۷. نابرابری اجتماعی-اقتصادی در نتیجه هوش مصنوعی

اگر شرکت‌ها از پذیرش سوگیری‌های ذاتی موجود در الگوریتم‌های هوش مصنوعی خودداری نکنند، ممکن است ابتکارات‌تان برای برخورد با ارباب‌رجوع را از طریق استخدام افراد به وسیله هوش مصنوعی به خطر بیندازند. این ایده که هوش مصنوعی می‌تواند ویژگی‌های یک نامزد استخدام را از طریق تجزیه و تحلیل‌های چهره و صدا اندازه‌گیری کند، همچنان با تعصبات نژادی آلوده است و همان شیوه‌های استخدام تبعیض‌آمیز را بازتولید می‌کند که مشاغل ادعا می‌کنند حذف می‌کنند. گسترش نابرابری اجتماعی-اقتصادی ناشی از از دست دادن شغل که به واسطه هوش مصنوعی ایجاد می‌شود، یکی دیگر از دلایل نگرانی است که سوگیری‌های طبقاتی در مورد نحوه به کارگیری هوش مصنوعی را آشکار می‌کند. کارگران یقه آبی که کار‌های دستی و تکراری بیشتری انجام می‌دهند، به دلیل اتوماسیون، کاهش دستمزدشان را تا ۷۰ درصد تجربه کرده‌اند. در همین حال، کارگران یقه سفید تا حد زیادی دست‌نخورده باقی مانده‌اند و حتی برخی از آن‌ها از دستمزد بالاتری برخوردار هستند. ادعا‌های فراگیر مبنی‌بر اینکه هوش مصنوعی به نوعی بر مرز‌های اجتماعی غلبه کرده یا مشاغل بیشتری ایجاد کرده است، نمی‌تواند تصویر کاملی از اثرات آن ارائه دهد.

۸. تضعیف اخلاق و حسن‌نیت به دلیل هوش مصنوعی

همراه با فناوران، روزنامه‌نگاران و شخصیت‌های سیاسی، حتی رهبران مذهبی هم زنگ خطرات احتمالی هوش مصنوعی از جانب مسائل اجتماعی-اقتصادی را به صدا درمی‌آورند. پاپ فرانسیس در یک نشست واتیکان در سال ۲۰۱۹ با عنوان «خیر مشترک در عصر دیجیتال» نسبت به توانایی هوش مصنوعی برای «انتشار عقاید متعصبانه و داده‌های نادرست» هشدار داد و بر عواقب گسترده‌ای که اجازه توسعه این فناوری بدون نظارت یا محدودیت مناسب ممکن است در پی داشته باشد، تاکید کرد. او افزود: «اگر به اصطلاح پیشرفت تکنولوژیک بشر به دشمن خیر عمومی تبدیل شود، این امر منجر به یک پسرفت تاسف‌بار به سمت نوعی بربریت دیکته‌شده توسط قانون قوی‌ترین افراد می‌شود.» ظهور سریع ابزار‌های مولد هوش مصنوعی مانند ChatGPT و Bard به این نگرانی‌ها عمق بیشتری می‌بخشد. بسیاری از کاربران از این فناوری برای بیرون آمدن از تکالیف نوشتاری استفاده کرده‌اند که یکپارچگی و خلاقیت تحصیلی را تهدید می‌کند.

۹. سلاح‌های خودگردان که توسط هوش مصنوعی کار می‌کنند

همان‌طور که اغلب اتفاق می‌افتد، پیشرفت‌های تکنولوژیک برای اهداف جنگی استفاده شده است. وقتی صحبت از هوش مصنوعی به میان می‌آید، برخی مشتاق هستند تا قبل از اینکه خیلی دیر شود کاری در مورد آن انجام دهند: در نامه‌ای سرگشاده که سال ۲۰۱۶ منتشر شد، بیش از سی هزار نفر، از جمله محققان هوش مصنوعی و رباتیک، از سرمایه‌گذاری در سلاح‌های خودران با سوخت هوش مصنوعی اعلام عقب‌نشینی کردند. آن‌ها نوشتند: «سوال کلیدی برای بشریت امروز این است که آیا باید یک مسابقه تسلیحاتی جهانی در حوزه هوش مصنوعی را آغاز کرد یا باید از شروع آن جلوگیری شود؟ اگر هر قدرت نظامی بزرگی با توسعه تسلیحات هوش مصنوعی پیشروی کند، یک مسابقه تسلیحاتی جهانی، عملا اجتناب‌ناپذیر است و نقطه پایانی این خط سیر فناوری آشکار است؛ سلاح‌های خودمختار به کلاشینکف‌های فردا تبدیل خواهند شد.»
این پیش‌بینی در قالب سیستم‌های تسلیحات خودران مرگبار محقق شده است که با رعایت حداقلی مقررات، اهداف را به تنهایی مکان‌یابی و نابود می‌کنند. به دلیل گسترش سلاح‌های قوی و پیچیده، برخی از قدرتمندترین کشور‌های جهان تسلیم نگرانی‌ها شده‌اند و به جنگ سرد فناوری کمک کرده‌اند. بسیاری از این سلاح‌های جدید خطرات عمده‌ای را برای غیرنظامیان در زمین ایجاد می‌کنند، اما این خطر زمانی تشدید می‌شود که سلاح‌های خودمختار به دست افراد اشتباه بیفتند. هکر‌ها بر انواع مختلفی از حملات سایبری تسلط پیدا کرده‌اند، بنابراین تصور اینکه یک عامل مخرب به سلاح‌های خودمختار نفوذ کند و آرماگدون مطلق را تحریک کند، سخت نیست. اگر رقابت‌های سیاسی و تمایلات جنگ‌افروزانه کنترل نشود، هوش مصنوعی ممکن است با بدترین نیت‌ها به کار گرفته شود.

۱۰. بحران‌های مالی ناشی از الگوریتم‌های هوش مصنوعی

صنعت مالی پذیرای مشارکت فناوری هوش مصنوعی در فرآیند‌های مالی و معاملات روزمره شده است. در نتیجه، معاملات الگوریتمی می‌تواند مسئول بحران مالی بعدی ما در بازار‌ها باشد. در حالی که الگوریتم‌های هوش مصنوعی تحت تاثیر قضاوت یا احساسات انسان قرار نمی‌گیرند، اما زمینه‌ها، به هم پیوستگی بازار‌ها و عواملی مانند اعتماد و ترس انسان را هم در نظر نمی‌گیرند. به عبارت ساده، الگوریتم‌های هوش مصنوعی پدیده‌های روانی بازار و مسائل مرتبط با روانشناسی اجتماعی را هیچ‌گاه کامل نخواهند فهمید و روی این حساب، دستورالعمل‌هایشان ممکن است از جانب توده مشتریان رودست بخورد. این الگوریتم‌ها هزاران معامله را با سرعت انجام می‌دهند و هدف‌شان این است که هرچه خریده‌اند را چند ثانیه بعد با سود‌های کوچک بفروشند. فروختن هزاران معامله می‌تواند سرمایه‌گذاران را از انجام همین کار بترساند و منجر به سقوط ناگهانی و نوسان شدید بازار شود. این بدان معنا نیست که هوش مصنوعی چیزی برای ارائه به دنیای مالی ندارد. در واقع، الگوریتم‌های هوش مصنوعی می‌توانند به سرمایه‌گذاران کمک کنند تا تصمیمات هوشمندانه و آگاهانه‌تری در بازار بگیرند. اما سازمان‌های مالی باید مطمئن شوند که الگوریتم‌های هوش مصنوعی و نحوه تصمیم‌گیری آن الگوریتم‌ها را درک می‌کنند. شرکت‌ها باید قبل از معرفی این فناوری برای جلوگیری از ایجاد ترس در بین سرمایه‌گذاران و ایجاد هرج و مرج مالی، در نظر بگیرند که آیا هوش مصنوعی اعتماد آن‌ها را بالا می‌برد یا کاهش می‌دهد.

۱۱. از دست دادن نفوذ انسانی

اتکای بیش از حد به فناوری هوش مصنوعی می‌تواند منجر به از بین رفتن نفوذ انسانی و فقدان عملکرد انسانی در برخی از بخش‌های جامعه شود. به‌عنوان مثال، استفاده از هوش مصنوعی در مراقبت‌های بهداشتی می‌تواند منجر به کاهش همدلی و استدلال انسان شود. همچنین استفاده از هوش مصنوعی مولد برای تلاش‌های خلاقانه می‌تواند خلاقیت و بیان احساسی انسان را کاهش دهد. تعامل بیش از حد با سیستم‌های هوش مصنوعی حتی می‌تواند باعث کاهش مهارت‌های ارتباطی و اجتماعی با همتایان شود؛ بنابراین در حالی که هوش مصنوعی می‌تواند برای خودکار کردن کار‌های روزانه بسیار مفید باشد، برخی این سوال را مطرح می‌کنند که آیا ممکن است هوش، توانایی‌ها و نیاز کلی انسان به جامعه را کاهش دهد یا خیر.

۱۲. هوش مصنوعی خودآگاه غیرقابل کنترل

همچنین این نگرانی وجود دارد که هوش مصنوعی آنقدر سریع پیشرفت کند که هوشیار شود و فراتر از کنترل انسان عمل کند؛ البته احتمالا به روشی مخرب. گزارش‌های ادعایی از این احساس قبلا رخ داده است. یکی از مهندسان سابق گوگل مدتی پیش گفت ربات چت هوش مصنوعی LaMDA حساس است و دقیقا همان‌طور که یک شخص با او صحبت می‌کند، پاسخ می‌دهد. از آنجایی که نقاط عطف بزرگ بعدی هوش مصنوعی شامل ساخت سیستم‌هایی با هوش عمومی مصنوعی و درنهایت هوش مصنوعی است، فریاد‌ها برای متوقف کردن کامل این پیشرفت‌ها همچنان افزایش می‌یابد.

/انتهای پیام/

ارسال نظر
captcha