گروه جامعه و اقتصاد «سدید»؛ «مری شلی» [1] - رماننویس بریتانیایی - زمانی که تنها ۱۸ سال داشت، شروع به نوشتن کتاب «فرانکنشتاین» کرد. این اثر، رمانی درباره خطرات گسترش علم بود. این رمان درباره علمآموزی به نام «ویکتور فرانکنشتاین» است که به شکل وسواسگونهای به دنبال جاندادن به اشیاء غیرزنده است. او انسانی را با استفاده از اعضای بدن دزدیده شده از اجساد خلق میکند؛ اما این موجود خلق شده که در ابتدا بسیار آرام و بیآزار بود، به جانوری مخوف و شرور تبدیل شده و به سراغ انتقام از خالق خود رفت. «رابرت اسکیدلسکی» [2] - تاریخدان برجسته بریتانیایی - با الهامگرفتن از این رمان، کتابی تحت عنوان «بیفکری؛ وضعیت بشر در عصر هوش مصنوعی» [3] که در آن درباره خروج هوش مصنوعی از کنترل بشر و استفاده انحصاری از این فناوری است، هشدار میدهد. او در رابطه با همین موضوع با «مؤسسه تفکر اقتصادی نوین» [4] به گفتوگو نشسته است.
خطراتی که در کمین هستند
تصور کنید که دکتر «ویکتور فرانکنشتاین» با قدمهای استوار وارد یک دفتر مدرن در «سیلیکونولی» میشود تا با غولهای فناوری و تکنولوژی در آنجا ملاقات کند. این در حالی است که او رؤیایی را در سر دارد که در آن، کنترل آینده بشریت را به دست میآورد. او یک اپلیکیشن عجیب برای «حل مشکل مرگ» دارد که قرار است یک تغییر بزرگ ایجاد کند. ویکتور با وسواس و خودبینیاش برای تسلط بر طبیعت، دانشمند قصه ما که «ماری شلی» آن را خلق کرده است، بهراحتی در اتاقهای هیئتمدیرة امروزی تکنولوژی جا میشود؛ با اطمینان از اینکه در مأموریت درستی قرار دارد؛ درحالیکه از اعتمادبهنفس بیش از حد و تشنگی برای قدرت غافل است. همه ما میدانیم که این داستان چگونه پیش میرود. ایدة بزرگ او برای ایجاد یک گونه جدید به طرز فاجعهباری به نتیجه میرسد و موجودی را خلق میکند که بازتاب تاریک خودخواهی خود ویکتور است؛ موجودی که به انتقامجویی میپردازد و در نهایت به سمت خالق و بشریت میچرخد.
از زمان انقلاب علمی، بشریت نسبت به علم، نگرشی کاملاً متکبرانه داشته است و هرگز هیچ محدودیتی را در مقابل توسعه علم نپذیرفته است.
این یک برنامه قتل است. در اوایل قرن نوزدهم، «شلی» در مباحثات داغ پیرامون پیشرفت علمی، بهویژه تلاش برای ایجاد انسانهای مصنوعی غوطهور شد. این مباحثات در پسزمینة پرتنش انقلاب فرانسه و انقلاب صنعتی قرار داشت. در فرانکنشتاین، او پیچیدگیهای تاریک رؤیای تکنولوژیک را به تصویر میکشد و نشان میدهد که چگونه جاهطلبی ویکتور برای خلق یک خدای تنها به چیزی وحشتناک منجر میشود. این رمان هشداری دربارة جنبههای تاریک پیشرفت علمی است و بر نیاز به مسئولیتپذیری و نگرانی اجتماعی تأکید میکند. موضوعاتی که امروز در بحثهای هوش مصنوعی بهوضوح احساس میشود، خصوصاً که توسعهدهندگان - درست مانند ویکتور - بدون درنظرگرفتن پیامدها بهسرعت در حال راهاندازی سیستمها هستند.
«رابرت اسکیدلسکی» - تاریخدان برجسته اقتصاد - در آخرین اثر خود به نام «بیفکری؛ وضعیت بشر در عصر هوش مصنوعی» به بررسی تاریخ میپردازد و ادبیات و فلسفه را در هم میآمیزد تا خطرات بالای ظهور سریع هوش مصنوعی را آشکار کند. هر سؤالی که او مطرح میکند، معماهای دیگری را هم به وجود میآورد: چگونه میتوانیم فناوریهای مضر را مهار کنیم و درعینحال فناوریهای خوب را تبلیغ کنیم؟ اصلاً چگونه بین این دو تمایز قائل شویم؟ چه کسی مسئول این کنترل است؟ آیا شرکتهای فناوریهای بزرگ، منافع عمومی را در اولویت قرار نمیدهند؟ یا دولت که به طور فزایندهای اسیر منافع ثروتمندان شده است؟
درحالیکه ما در حال دست و پنجه نرم کردن با این چالشها هستیم، وابستگی فزایندهمان به سیستمهای شبکهای جهانی برای تأمین غذا، انرژی و امنیت، خطرات را تشدید کرده و نظارت مقامات را افزایش میدهد. آیا ما آنقدر به شبکه وابسته شدهایم که نمیتوانیم بین ابزارهای نجاتدهنده و آنهایی که میتوانند به نابودی ما منجر شوند تمایز قائل شویم؟ «اسکیدلسکی» هشدار میدهد که با افزایش ناامیدیمان از آیندة فناوری، تعداد بیشتری از ما به دنبال نجاتدهندگانی غیرمنطقی یا بیرحم هستیم. ما به جای بهبود شرایط اجتماعی خود، بر بهینهسازی ماشینها تمرکز میکنیم. تعاملات فزاینده ما با هوش مصنوعی و رباتها، ما را به فکرکردن مانند الگوریتمها عادت میدهد. این افکار مصنوعی، ممکن است ما را در این فرایند احمقتر کند. ما خطرات دموکراسی را نادیده میگیریم؛ جایی که گروههای دلخور و امیدهای بربادرفته بهراحتی میتوانند به یک دیکتاتوری پوپولیستی منجر شوند. در گفتوگوی زیر «اسکیدلسکی» به بررسی خطرات جدی انقراض روحی و جسمی میپردازد و به این میپردازد که چه معنایی برای بشریت دارد که قدرتهای خلاق و مبتکر را در دست داشته باشد؛ درحالیکه بشریت خود را نادیده میگیرد. ما آتش در دست داریم، اما دوراندیشی را فراموش کردهایم. او بر نیاز فوری به تفکر عمیق فلسفی در مورد رابطه انسان و ماشین و تأثیرات قابلتوجه آن بر زندگیمان در یک دنیای فناوری محور تأکید میکند.
ارتباط هوش مصنوعی با آخرالزمان
از نظر شما بزرگترین تهدید هوش مصنوعی و فناوریهای نوظهور چیست؟ آیا ما را بیکار میکند؟
هیچ توافقی درباره قوانین و قواعد رقابت بر سر هوش مصنوعی در بین قدرتهای بزرگ وجود ندارد.
رابرت اسکیدلسکی: بله. فناوری انسانها را بیفایده و در نهایت منقرض میکند. من فکر میکنم که البته بیهوده و بیفایده شدن، میتواند به انقراض روحی نیز منجر شود. ما دیگر از انسان بودن دست میکشیم و شبیه زامبیها میشویم. انقراض فیزیکی نیز یک تهدید است. این تهدیدی است که پایهاش فناوری است؛ مشخصاً یک تهدید هستهای.
«میشا گلنی» [5] - مورخ - در مورد «چهار مسئله آخرالزمان مدرن» صحبت کرده است. این چهار مسئله آخرالزمانی عبارتاند از هستهای، گرمایش جهانی، همهگیریها و در نهایت، وابستگی ما به شبکههایی که ممکن است در زمانی دیگر از کار بیفتند. اگر این شبکهها از کار بیفتند، آنگاه نسل بشر متوقف میشود و بسیاری از مردم بهسادگی از گرسنگی میمیرند. این تهدیدات خاص، بهشدت من را نگران میکند و فکر میکنم واقعی هستند.
چگونه هوش مصنوعی با آن مسائل آخرالزمانی نابودگر تعامل دارد؟ بهعنوانمثال، آیا ظهور هوش مصنوعی میتواند به طور بالقوه، خطر فاجعههای هستهای یا انواع دیگر بلایای انسانی را تقویت کند؟
رابرت اسکیدلسکی: هوش مصنوعی میتواند ذهنیتی متکبرانه ایجاد کند که میتوانیم تمام چالشهای ریشهدار در علم و فناوری را تنها با بهکارگیری علم و فناوری بهبود یافته، یا از طریق تنظیمگری برای محدودکردن معایب و در عوض افزایش مزایا، برطرف کنیم. امروز من مخالف این کار نیستم، اما فکر میکنم که این امر، نیازمند سطحی از حکمرانی و همکاری است که در حال حاضر وجود ندارد. بنابراین من بیشتر نگران جنبههای منفی آن هستم.
جنبه منفی دیگری که در داستانهای علمی - تخیلی پیشبینیشده است، ایده تکنولوژی سرکش است. در واقع فناوری کنترل آینده ما را به دست میگیرد و ما دیگر نمیتوانیم آن را کنترل کنیم. نقطه اوج هوش مصنوعی رسیده است. این یک موضوع بزرگ در برخی از بحثهای فلسفی است. مؤسساتی در دانشگاههای مختلف وجود دارند که همگی به آینده پسابشری فکر میکنند. بنابراین همه اینها کمی نگرانکننده است.
ما در طول زندگی خود با ترس از فجایع جنگ هستهای، استفاده گسترده از سلاحهای بیولوژیکی و ازدستدادن گسترده مشاغل بهخاطر رباتها مواجه بودهایم، اما به نظر میرسد تا کنون این سناریوها را مهار کردهایم. چه چیزی تهدید بالقوه هوش مصنوعی را متفاوت میکند؟
فناوری هرگز خنثی و بیطرف نبوده است و پشت توسعه آن، همواره اهداف نظامی وجود داشته است.
رابرت اسکیدلسکی: ما تا همین اواخر هوش مصنوعی نداشتیم. ما البته فناوری و علم داشتهایم و همیشه در حال اختراع چیزهایی بودهایم. اما امروز در حال تجربه قدرت یک نوع فناوری برتر هستیم که آن را هوش مصنوعی مینامیم. این پیشرفتی است که در ۳۰ سال اخیر یا کمی بیشتر از آن رخ داده است. ماشینیشدن از محل کار شروع میشود، اما بهتدریج گسترش مییابد و حالا نوعی دیکتاتوری دیجیتال در حال شکلگیری است؛ بنابراین قدرت فناوری به طرز چشمگیری افزایش یافته و همواره در حال رشد است.
اگرچه ما برخی چیزها را مهار کردهایم، اما در واقع آن چیزهایی را که کنترل بیشتری بر آنها داریم، مهار کردهایم. فکر میکنم این یک نکته کلیدی است. نکته دیگر این است که فناوری جدید، تنها به یک چیز نیاز دارد تا اشتباه کند و در صورت اشتباه، تأثیرات بسیار زیادی خواهد داشت. اگر فیلم «اوپنهایمر» را دیده باشید، ممکن است به یاد داشته باشید که حتی در آن زمان، دانشمندان برتر هستهای، بهشدت نگران پتانسیل ویرانگر این فناوری بودند و این قبل از ظهور بمبهای هیدروژنی بود. من نگران خطرات فزاینده هستم. از یک سو، جنگهای متعارف و از سوی دیگر، سناریوهای هولناکی وجود دارد که منجر به یک بازی خطرناک به نام «بازی جوجه» [6] میشود. بر خلاف دوران جنگ سرد که در آن جنگ هستهای یک تابو بود، امروز مرز بین جنگهای متعارف و هستهای به طور خطرناکی مبهم شده است. این موضوع، خطرات تشدید تنش را حتی بیشتر نمایان میکند. کتاب فوقالعادهای به نام «دیوانه» وجود دارد که درباره «جان فون نویمان» [7] و توسعه سلاحهای هیدروژنی از سوی وی است. این کتاب نیز نشان میدهد که بین اهداف کنترل زندگی انسانی و توسعه، راههایی برای نابودکردن آن ارتباط وجود دارد.
امکان گفتوگوی اخلاقی با هوش مصنوعی
شما در کتابتان اغلب به کتاب «فرانکنشتاین» ماری شلی اشاره کردهاید. چه میشد اگر ویکتور فرانکنشتاین قبل از آزمایش خود از دیگران مشاوره میگرفت یا به مؤسسات مراجعه مینمود؟ آیا بحثهای اخلاقی میتوانست نتایج را تغییر دهد؟ یا اینکه بهتر بود او اصلاً این موجود را خلق نمیکرد؟
رابرت اسکیدلسکی: از زمان انقلاب علمی، ما نسبت به علم، نگرشی کاملاً متکبرانه داشتهایم. ما هرگز هیچ محدودیتی را نپذیرفتهایم. ما برخی محدودیتها را در کاربرد پذیرفتهایم، اما هرگز محدودیتهایی را بر توسعه آزاد علم و اختراع نپذیرفتهایم. ما خواهان منافع آن هستیم، اما همچنان به برخی سیستمها برای کنترل آنها اتکا میکنیم.
شما درباره اخلاق پرسیدید. اخلاقی که نسبت به تهدید هوش مصنوعی مطرح میشود، بسیار سطحی و ضعیف است. ما بر سر چه چیزی توافق داریم؟ چگونه میتوانیم بحث اخلاقی خود را آغاز کنیم؟ ما با این جمله شروع میکنیم که «میخواهیم ماشینها یا هوش مصنوعی را با قواعد اخلاقی تجهیز کنیم.» یکی از این قواعد این است که به انسانها آسیب نرسانند. اما درباره آسیب نزدن به ماشینها چطور؟ این گزینه، جنگ بین ماشینها را مستثنی نمیکند و بعد آسیبها و ضررهای این وضعیت کداماند؟
حرف شما درست و منطقی است. اما چگونه در مورد آنچه برای ما خوب است توافق کنیم؟
رابرت اسکیدلسکی: به نظر من، بحث باید از جای دیگری شروع شود. انسان بودن چیست؟ این یک سؤال بسیار دشوار است، اما یک سؤال واضح نیز هست. ما برای محافظت از انسانیت خود به چه چیزی نیاز داریم؟ هر محدودیتی در توسعه هوش مصنوعی باید ریشه در پاسخ ما به این پرسش داشته باشد. ما باید از انسانیت خود محافظت کنیم. این در مورد کار ما، سطح نظارتی که میپذیریم و آزادی که برای انسانیت ما ضروری است، صدق میکند. ما باید از گونههای انسانی خود محافظت کنیم. ما باید این سؤال را که انسان بودن به چه معناست، در هر یک از این حوزههایی که ماشینها انسانیت ما را تهدید میکنند، اعمال کنیم.
در حال حاضر، به نظر میرسد که هوش مصنوعی بهصورت انحصاری و در دست الیگارشیها قرار دارد و این موضوع، سؤالاتی را درباره چگونگی تنظیم مؤثر آن توسط کشورها مطرح میکند. اگر یک کشور، مقررات سختگیرانهای وضع کند، آیا کشورهای دیگر قادر به پیشرفت در این زمینه خواهند بود؟ این امر منجر به عدم تعادل رقابتی یا تهدیدات جدید نخواهد شد؟ نظر شما در مورد این معضل چیست؟
رابرت اسکیدلسکی: خوب این یک سؤال مهم است. این یک سؤال ژئوپلیتیکی است. زمانی که ما شروع به تقسیم جهان به قدرتهای خیرخواه و بدخواه در رقابت برای بقا کنیم، نمیتوانیم آن را متوقف کنیم. یکی از درسهای جنگ سرد این است که هر دو طرف، توافق کردند که از طریق معاهدات به تنظیم تسلیحات هستهای بپردازند؛ اما این تنها پس از یک بحران فوقالعاده - بحران موشکی کوبا - به دست آمد. یعنی درست همان زمانی که آنها به موقع از این وضعیت عقبنشینی کردند. بعد از آن، جنگ سرد طبق قواعدی با یک خط تلفن مستقیم بین «کرملین» و «کاخ سفید» که به آنها اجازه میداد هر زمان که اوضاع خطرناک میشد، با هم ارتباط برقرار کنند، پیش رفت. آن خط تلفن دیگر وجود ندارد. من فکر نمیکنم که در حال حاضر یک خط تلفن مستقیم بین «واشنگتن»، «پکن» و «مسکو» وجود داشته باشد. درک این نکته بسیار مهم است که وقتی اتحاد جماهیر شوروی فروپاشید، آمریکاییها واقعاً فکر میکردند که تاریخ به پایان رسیده است.
شرق، نظم تکقطبی را برهم میزند
همان جمله معروف «فرانسیس فوکویاما»؟
رابرت اسکیدلسکی: بله، فوکویاما. تصور بر این بود که شما میتوانید بهنوعی مدینه فاضله علمی بروید. تهدیدهای اصلی از بین رفته بودند؛ زیرا همیشه قوانینی وجود داشت که همه بر سر آنها توافق داشتند. این قوانین عمدتاً توسط ایالات متحده - هژمون جهان - وضع میشد، اما همه این قوانین را بهعنوان چیزی برای خیر همگانی میپذیرفتند. اما اکنون ما دیگر به این موضوع باور نداریم. نمیدانم چه زمانی از این باور فاصله گرفتیم. شاید از زمانی که روسیه و چین شروع به نشاندادن قدرت خود کردند و گفتند «نه! شما باید یک نظم چندقطبی داشته باشید. شما نمیتوانید چنین سیستمی تحت سلطه غرب داشته باشید که در آن همه قوانین را از قوانین سازمان تجارت جهانی گرفته تا قوانین صندوق بینالمللی پول و... به دیگران دیکته کنید و آنها هم بپذیرند.»
بنابراین ما بسیار از این موضوع فاصله داریم که بتوانیم فکر کنیم چگونه میتوانیم رقابت در رشد هوش مصنوعی را متوقف کنیم؛ زیرا وقتی که این موضوع بخشی از جنگ یا رقابت نظامی شود، میتواند به هر حدی که ممکن است، تشدید شود. این موضوع من را درباره آینده نسبتاً ناامید میکند.
آیا راهی برای دموکراتیک کردن گسترش و توسعه هوش مصنوعی میبینید؟
رابرت اسکیدلسکی: شما پرسشی را مطرح کردید که فکر میکنم توسط «شوشانا زوبوف» [8] - نویسنده «عصر سرمایهداری نظارتی؛ مبارزه برای آینده بشری در مرز جدید قدرت» [9] - مطرح شده است. این کتاب درباره کنترل هوش مصنوعی توسط الیگارشیها بحث میکند. سه یا چهار پلتفرم وجود دارند که واقعاً تعیین میکنند در دنیای هوش مصنوعی چه اتفاقی میافتد؟ به این دلیل که هیچکس دیگری در موقعیت رقابت نیست. آنها سرمایهگذاریهای زیادی در این زمینه میکنند. سؤال جالب این است که چه کسی واقعاً تصمیمگیرنده است؟ آیا این الیگارشیها هستند یا دولتها که حرف آخر را میزنند؟
به نظر میرسد که مردم عادی احساس میکنند در تصمیمگیریها نقشی ندارند. آنها نگران این هستند که هوش مصنوعی چگونه بر زندگی روزمره و شغلهایشان تأثیر خواهد گذاشت و همچنین نگران سوءاستفادههای احتمالی از سوی شرکتهای فناوری و تأثیر آن بر آینده سیاسی هستند. میتوان این احساس را در دوره فعلی انتخابات ایالات متحده حس کرد.
رابرت اسکیدلسکی: بگذارید به کتاب مقدس اشاره کنم؛ زیرا میتوان گفت که این کتاب، آخرالزمانی را پیشبینی کرده است که مقدمهای برای ظهور مجدد خواهد بود. «آخرالزمان» به معنای «افشاگری» یا «آشکارسازی» است. ما از این واژه استفاده میکنیم، اما نمیتوانیم مفهوم آن را درک کنیم. برای ما آخرالزمان به معنای پایان همه چیز است. سیستم جهانی فرومیریزد و سپس یا نژاد بشر نابود میشود یا انسانها باقی میمانند و باید از سطح بسیار پایینتری دوباره آن را بسازند.
در حوزه هوش مصنوعی به دلیل پیچیدگی، شفافیتی وجود ندارد؛ در نتیجه پاسخگویی و مسئولیتپذیری نیز دیده نمیشود.
اما من کاملاً به «آلبرت هیرشمن» [10] و ایدهاش درباره «آخرالزمان کوچک» که میتواند فرآیند یادگیری را ترویج کند، علاقهمند هستم. ما از فاجعهها یاد میگیریم. ما از تنها فکرکردن به احتمال فاجعه یاد نمیگیریم؛ زیرا بهندرت باور داریم که آنها واقعاً اتفاق بیفتند. اما وقتی فاجعهای رخ میدهد، از آن یاد میگیریم. این یکی از ویژگیهای انسانی ماست. یادگیری ممکن است برای همیشه باقی نماند، اما مانند یک تلنگر است.
دو جنگ جهانی منجر به ایجاد اتحادیه اروپا و سقوط فاشیسم شد. یک دنیای نسبتاً صلحآمیز و باز از ویرانههای آن جنگ شروع به توسعه کرد. من نمیخواهم بگویم که ما به یک جنگ دیگر نیاز داریم تا یاد بگیریم، زیرا اکنون آسیبها بسیار بزرگتر هستند. در گذشته - زمانی که هنوز در موقعیتی برای جنگهای متعارف بودیم - این جنگها بسیار ویرانگر بودند؛ اما تهدیدی برای بقای بشریت ایجاد نمیکردند. اکنون ما سلاحهای هستهای را داریم. نردبان تشدید ویرانی، اکنون بسیار بالاتر از قبل است. همچنین ما نمیتوانیم آخرالزمانها را بسازیم. این کار غیراخلاقی و غیرممکن است. ما نمیتوانیم - به زبان اخلاقی - شر را برای جهان بخواهیم تا خیر از آن به وجود آید. این واقعیت که این موضوع اغلب یک مکانیزم تاریخی بوده است، به این معنا نیست که میتوانیم آن را برای پیشرفتهای خودمان به کار بگیریم.
آیا شما معتقدید که فناوری بهخودیخود خنثی و بیطرف است؟ آیا این فقط ابزاری است که بسته به نیت انسان میتواند برای موارد خوب یا بد استفاده شود؟
رابرت اسکیدلسکی: من معتقد نیستم که فناوری خنثی و بیطرف است. پشت توسعه آن همیشه هدفی - اغلب هدفی نظامی - بوده است. نقش تدارکات نظامی در پیشرفت فناوری و هوش مصنوعی بسیار زیاد بوده است. به بیان واضحتر، نمیدانم که آیا بدون بودجه نظامی، ما شاهد پیشرفتهای مفیدی در پزشکی بودیم یا اینکه من و شما حتی میتوانستیم این گفتگوی مجازی را بدون درخواست نظامی انجام دهیم. از این نظر، فناوری هرگز در اهداف و آرزوهای خود بیطرف نبوده است. همیشه یک عنصر متکبرانه وجود داشته است. بسیاری از دانشمندان و ریاضیدانان معتقدند که میتوانند راهی برای کنترل بشریت پیدا کنند تا از بروز فاجعههای گذشته جلوگیری کنند و بهنوعی جبر فناورانه اعتقاد دارند. اینکه علمِ پیشرفته و کاربردهای آن، میتوانند اشتباهات بشریت را از بین ببرند. شما میتوانید با علم و فناوری، گناه اولیه بشر را حذف کنید.
ما انسانها، ناقص هستیم
به نظر میرسد چیزی که ویکتور فرانکنشتاین قبل از اینکه آزمایشش به هم بخورد، با آن موافق بوده است.
رابرت اسکیدلسکی: بله. این اندیشه همچنین در مورد «فون نویمان» و آن ریاضیدانان اوایل قرن بیستم وجود داشت. آنها واقعاً معتقد بودند که اگر بتوانید جامعه را بر پایه ریاضیات بنا کنید، بهسوی کمال خواهید رفت. اینگونه بود که رؤیاهای عصر روشنگری از طریق توسعه علم، به سمت هوش مصنوعی پیش رفتند. این یک رؤیای خطرناک است؛ زیرا من فکر میکنم ما ناقص هستیم. انسانیت در نقص و عدم کمال است و اگر بخواهید آن را از بین ببرید، بشریت را نابود خواهید کرد. اگر هم موفق شوید، آنها به زامبیها تبدیل خواهند شد.
یعنی یک موجود کامل، غیرانسانی است؟
رابرت اسکیدلسکی: بله. یک موجود کامل، دیگر انسان نیست.
نظر شما در مورد اینکه چگونه عناصر سیاسی فاشیست ممکن است با ظهور هوش مصنوعی هم راستا شوند چیست؟
رابرت اسکیدلسکی: روشی که من در مورد آن بیشتر بحث کردهام، درباره تأثیرات هوش مصنوعی بر گسترش استفاده از شبکههای اجتماعی و تأثیرات این رسانههای اجتماعی بر سیاست است. شبکههای اجتماعی به بدترین غرایز انسانها مجال بروز میدهند. انواع مختلفی از تنفر، عدم تحمل، توهین و این مسائل، در بدنه سیاسی متورم میشوند و در نهایت، سیاستمدارانی را تولید میکنند که میتوانند از آنها بهرهبرداری کنند. این نکتهای است که اغلب گفته میشود و در آن حقیقت زیادی وجود دارد. البته وعدة داده شده، کاملاً متفاوت بود. قرار بود بحثهای حوزه عمومی دموکراتیزه شود. شما آن را از دست نخبگان خارج و واقعاً دموکراتیک میکردید. در آن زمان دموکراسی راهی خودپایدار برای بهبود بود؛ اما آنچه ما میبینیم، چیز بسیار متفاوتی است. ما اقلیتهایی را میبینیم که قدرت گسترش نفرت را دارند و سیاستمدارانی که از طریق آن اقلیتها برای ایجاد سیاست نفرت، قدرت یافتهاند.
دیدگاه متفاوتی با محوریت تئوریهای توطئه وجود دارد. بسیاری از ما قبلاً آنها را بهعنوان وسواسها و مشغلههای ذهنی غیرمنطقی افراد دیوانه که ریشه در جهل دارد رد کردهایم. اما جهل در توسعه هوش مصنوعی گنجانده شده است. ما واقعاً نمیدانیم این سیستمها چگونه کار میکنند. ما درحالیکه بر شفافیت تأکید میکنیم، واقعیت این است که عملیات شبکههای کامپیوتری ما مثل یک سیاهچاله است و حتی برنامهنویسان نیز در درک نحوه عملکرد این شبکهها دچار مشکل میشوند. ایده شفافیت اساساً معیوب است. چیزها زمانی شفاف هستند که ساده باشند. علیرغم بحثهای ما درباره نیاز به شفافیت بیشتر در حوزههایی مانند بانکداری و سیاست، عدم وجود آن به این معنی است که ما نمیتوانیم مسئولیتپذیری و پاسخگویی را تضمین کنیم. اگر نتوانیم این سیستمها را شفاف کنیم، نمیتوانیم آنها را پاسخگو نگه داریم و این موضوع بهوضوح مشهود است.
پرونده مدیران شرکت پست بریتانیا (ماجرای رسوایی فناوری اطلاعات هورایزن[11]) را در نظر بگیرید. هزاران نفر از آنها بر اساس یک ماشین معیوب به ناحق محکوم شدند. هیچکس واقعاً نمیدانست که حقیقت چیست. زمانی که عیب شناسایی شد، تعداد زیادی از افراد با منافع خاص از جمله تولیدکنندگان به دنبال کتمان آن عیب بودند.
پاسخگویی، یک مسئله مهم و کلیدی است. ما میخواهیم حاکمان و سیاستمداران خود را پاسخگو نگهداریم، اما قادر به درک نحوه کار سیستمهایی که بسیاری از فعالیتهای ما را اداره میکنند، نیستیم. من فکر میکنم این موضوع بسیار مهم است. افرادی که این موضوع را شناختند، بیشتر دانشمندان یا افرادی نیستند که در مورد آن صحبت میکنند؛ بلکه رماننویسان ویران شهری و نویسندگان علمی - تخیلی هستند. البته افراد مشهوری نیز مانند «اورول» و «هاکسلی» و همچنین شخصیتهایی مانند «کافکا»، ظهور بوروکراسی دیجیتال و نحوه کاملاً غیرقابلنفوذ شدن آن را دیدند.
من در مورد تواناییمان در مقابله با این موضوع بدبین هستم؛ اما تعامل با افرادی که بدبین نیستند را هم ارزشمند میدانم. عدم درک سیستم، خیرهکننده است. من غالباً وقتی از فناوری استفاده میکنم، آن را ناامیدکننده مییابم؛ زیرا درخواستهای غیرممکنی را تحمیل میکند، درحالیکه وعده آیندهای توهمی از آسایش را میدهد. این به «کینز» و آرمانشهر او از آزادی انتخاب مرتبط است. چرا این آرمانشهر محقق نشد؟ او مسئله سیریناپذیری را نادیده گرفت؛ زیرا ما با وعدههای غیرقابلمقاومتی همچون بهبود اوضاع و راحتی بیشتر، بمباران میشویم. یک کلیک برای تأیید و ناگهان خود را درون ماشین گرفتار کردهاید.
تکنولوژی، آزادی را هدف گرفته است
ما در حال انجام یک گفتگوی مجازی هستیم و این فوقالعاده است که به هم متصل هستیم. اما این ناراحتکننده است که فکر کنیم ممکن است کسی به صحبتهای ما گوش دهد، مکالمه ما را ضبط کند و از آنها برای اهدافی استفاده کند که هرگز با آنها موافقت نکردهایم.
رابرت اسکیدلسکی: من در حال حاضر در یک دفتر پارلمانی هستم. نمیدانم آیا آنها سیستمی از نوع برادر بزرگ یا قیم و کنترلگر برای دیدن و شنیدن آنچه میگوییم و انجام میدهیم ایجاد کردهاند یا خیر؛ اما در نهایت ممکن است کسی وارد شود و بگوید، «هی! فکر نمیکنم مکالمه شما برای اهداف سازمان ما مفید باشد! ما قصد داریم شما را به چیزی متهم کنیم.» البته در این مورد خاص خیلی بعید است. ما در این نوع کنترل پیشبینیشده توسط اورول نیستیم؛ اما جاده بهنوعی کوتاه شده است. در برابر این موضوع، تعهد جوامع آزاد به آزادی، آزادی اندیشه و پاسخگویی قرار دارد. هرکدام از این تعهدات بر اساس غیرممکنبودن کنترل انسانها شکل گرفته است. جاسوسی یک عمل بسیار قدیمی توسط دولتها است. در جهان باستان نیز جاسوسها وجود داشتند و همیشه تمایل داشتند از حوادث باخبر باشند.
به توجه بهسرعت پیشرفت فناوری، این موضوع چندان دور از ذهن نیست. ما حسگرهای پوشیدنی داریم که احساسات را تشخیص میدهند و شرکتهایی مانند «نیورالینک» [12] در حال توسعه رابطهای مغزی - رایانه برای اتصال مغز ما به دستگاههایی هستند که افکار را تفسیر میکنند. حتی توالتهای هوشمندی داریم که دادههایی را ثبت میکنند که میتواند برای اهداف شوم استفاده شود!
رابرت اسکیدلسکی: بله. بینش شگفتانگیز برخی از این نویسندگان داستانپرداز جالب است. بهعنوانمثال، در رمان «ماشین» [13] اثر «ادوارد مورگان فورستر» [14] که در سال ۱۹۰۶ - بیش از ۱۲۰ سال پیش - نوشته شده است؛ او جامعهای را تصور میکند که همه بهخاطر یک رویداد فاجعهبار در سطح زمین به زیر زمین رفتهاند. همه چیز تحت کنترل ماشینها است. سپس، یک روز ماشین متوقف میشود. آنها همه میمیرند، زیرا کاملاً به آن وابستهاند. هوا، غذا و همه چیز، به ماشین وابسته است. نویسندگان و فیلمسازان با تخیل خود راهی برای بحث در مورد این موضوعات دارند که فراتر از درک کسانی است که به تفکر منطقی متعهد هستند. این یک سطح متفاوت از درک است.
شما در کتاب خود، چالشهای ناشی از انگیزه سیریناپذیر سرمایهداری برای رشد و سود را برجسته میکنید. این انگیزهها که اغلب اخلاق را قربانی میکند، بیشتر در مورد هوش مصنوعی است. اما شما استدلال میکنید که تقابل واقعی بین سرمایهداری و سوسیالیسم نیست، بلکه بین انسانها و بشریت است. اگر میشود توضیح بدهید که منظورتان از تقابل بین بشر و بشریت چیست؟
رابرت اسکیدلسکی: من فکر میکنم تعریف مباحث سیاسی کنونی یا اشکال سیاستی که در سراسر جهان در حال شکلگیری است، با استفاده از تقسیمبندی قدیمی چپ و راست دشوار است. ما اغلب جنبشها را بهعنوان راست افراطی یا چپ افراطی به اشتباه برچسبگذاری میکنیم. به نظر من، مسئله واقعی این است که چگونه میتوان بر فناوری و هوش مصنوعی کنترل داشت. ممکن است بگویید که رویکردهای چپ یا راست ناظر به کنترل وجود دارد، اما فکر میکنم این خطوط مبهم است و نمیتوان بهراحتی دو قطب را بر اساس دیدگاههایشان در این زمینه تعریف کرد.
اما یک حوزه دیگر باقی مانده است که به آنچه «کینز» میگفت مربوط میشود و آن مسئله توزیع است. اقتصاد نئوکلاسیک، نابرابری را افزایش داده و مقدار زیادی از قدرت را به دست پلتفرمها سپرده است. «کینز» معتقد بود که آزادی از توزیع ثمرات ماشین به دست خواهد آمد. او تصور نمیکرد که این ثمرات به این شدت، توسط یک الیگارشی مالی تصرف شود؛ بنابراین از این منظر، فکر میکنم تقسیمبندی چپ و راست دوباره اهمیت پیدا میکند. شما باید بازتوزیع زیادی داشته باشید. توزیع مجدد منافع، رضایت را افزایش میدهد و قدرت نظریههای توطئه را کاهش میدهد. بسیاری از مردم اکنون فکر میکنند که نخبگان کاری انجام میدهند که در راستای منافع بشریت نیست. بخشی بهخاطر این است که آنها از آنچه که باید فقیرتر هستند. رشد فقر در جوامع ثروتمند در ۳۰ یا ۴۰ سال گذشته بسیار چشمگیر بوده است.
همه ما کارگران سرمایهداری هستیم
از زمانی که انقلاب کینزی لغو شد، سرمایهداری اجازه یافته که در جامعه ما بهشدت گسترش یابد. در اینجا است که چپ و راست هنوز مهم هستند؛ اما دیگر مبنای بلوکهای سیاسی پایدار نیستند. نخستوزیر ما میگوید که هدف ما بهبود وضعیت کارگران است. کارگران چه کسانی هستند؟ ما کارگر هستیم. دیگر نمیتوان درباره طبقه صحبت کرد؛ زیرا بلوکهای قدیمی طبقهای که مارکس شناسایی کرده بود، بین کسانی که هیچ چیز برای فروش جز نیروی کار خود ندارند و کسانی که داراییهای اقتصادی را در اختیار دارند، مبهم شده است. اگر افراد بسیار ثروتمند و بقیه را در نظر بگیرید، این تقسیمبندی هنوز وجود دارد. اما نمیتوان بر اساس آن تقسیمبندی قدیمی سیاست را پیش برد. نمیدانم تقسیمات سیاسی جدید چگونه خواهد بود. درک این که ماشینها مشاغل را تصاحب میکنند، به همراه این واقعیت که الیگارشها اغلب پشت این تغییرات تکنولوژیک هستند، سخت است. وقتی این ایده را مطرح میکنید، میتواند توهم گونهای از توطئه به نظر برسد و ما را به نظریههای توطئه مختلفی گرفتار کند.
آنچه من آرزو دارم، سطحی از حکمرانی است که باید بالاتر از آنچه در حال حاضر داریم باشد. بسیاری از رهبران قبلی آمریکا و اروپا از دولتمردان کنونی، سیاستمداران برجستهتری بودند. فکر میکنم بسیاری از بهترین افراد، بهخاطر وضعیت کنونی فرایند سیاسی از ورود به سیاست دلسرد شدهاند. آرزو میکنم که بتوانم امیدوارتر باشم. امیدواری یکی از ویژگیهای انسانها است. انسانها باید امید داشته باشند. در مورد امیدوار بودن مردم، من به رویکرد اقتصادی اشاره میکنم. من وقت زیادی برای ساخت مدلهای ریاضی اقتصادی ندارم، اما ایدههای خاصی وجود دارد که میتوانند از طریق سیاستهای اقتصادی بهتر تحقق یابند. شما میتوانید رشد بهتری داشته باشید. شما میتوانید ضمانتهای شغلی داشته باشید. شما میتوانید برنامههای آموزشی مناسبی را اجرا کنید. شما میتوانید کارهای مختلفی انجام دهید که باعث میشود مردم احساس بهتری داشته باشند و بنابراین کمتر در معرض تفکر توطئه یا نفرت قرار بگیرند. فقط کافی است درجهای از رضایت را افزایش دهید. این مسائل نمیتواند مشکلات وجودی که در پیش است را حل کند، اما فکر میکنم سیاست را قادر میسازد تا با آنها بهتر برخورد کند.
https://www.ineteconomics.org/perspectives/blog/can-we-avoid-a-franken-future-with-ai
[1] . Mary Shelley
[2] . Robert Skidelsky
[3] . Mindless: The Human Condition in the Age of Artificial Intelligence
[4] . Institute for New Economic Thinking
[5] . Misha Glenny
[6] . game of chicken: بازی جوجه که با نامهای بزدلی، شاهین - قمری و برف توده نیز شناخته میشود، یک مدل مؤثر برای بررسی تلاقی دو بازیکن در نظریه بازیها است. قانون بازی این است که در حین اینکه هیچ یک از دو بازیکن، تمایلی به تسلیمشدن در مقابل دیگری ندارد، بدترین نتیجه این است که هیچکدام تسلیم نشوند. انتخاب واژه «جوجه» برای این بازی، ریشه در یک بازی خیابانی دارد که در آن دو راننده به سمت هم در یک امتداد با سرعت زیاد حرکت میکنند و یکی باید از مسیر خارج شود وگرنه هر دو با هم برخورد میکنند و کشته میشوند. در حالتی که یکی از رانندهها خود را از مسیر خارج کند، آن راننده بازنده است و او را بهخاطر ترسو بودن، «جوجه» خطاب میکنند و رانندهای که در مسیر باقیمانده بود، برنده اعلام میشود. این واژه در علوم سیاسی و اقتصادی خیلی رایج است.
[7] . John von Neumann
[8] . Shoshana Zuboff
[9] . The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power
[10] . Albert Hirschman
[11] . Horizon IT scandal
[12] . Neuralink
[13] . The Machine
[14] . E.M. Forster’
/ انتهای پیام /