رابرت اسکیدلسکی از وضعیت آخرالزمانی حاصل از انحصار تکنولوژی می‌گوید؛

آیا می‌توانیم از آخرالزمان هوش مصنوعی اجتناب کنیم؟

آیا می‌توانیم از آخرالزمان هوش مصنوعی اجتناب کنیم؟
هر محدودیتی در توسعه هوش مصنوعی باید ریشه در پاسخ ما به این پرسش کلیدی داشته باشد که «انسان چیست؟ و برای محافظت از انسانیت به چه چیزی نیاز داریم؟»

گروه جامعه و اقتصاد «سدید»؛ «مری شلی» [1] - رمان‌نویس بریتانیایی - زمانی که تنها ۱۸ سال داشت، شروع به نوشتن کتاب «فرانکنشتاین» کرد. این اثر، رمانی درباره خطرات گسترش علم بود. این رمان درباره علم‌آموزی به نام «ویکتور فرانکنشتاین» است که به شکل وسواس‌گونه‌ای به دنبال جان‌دادن به اشیاء غیرزنده است. او انسانی را با استفاده از اعضای بدن دزدیده شده از اجساد خلق می‌کند؛ اما این موجود خلق شده که در ابتدا بسیار آرام و بی‌آزار بود، به جانوری مخوف و شرور تبدیل شده و به سراغ انتقام از خالق خود رفت. «رابرت اسکیدلسکی» [2] - تاریخ‌دان برجسته بریتانیایی - با الهام‌گرفتن از این رمان، کتابی تحت عنوان «بی‌فکری؛ وضعیت بشر در عصر هوش مصنوعی» [3] که در آن درباره خروج هوش مصنوعی از کنترل بشر و استفاده انحصاری از این فناوری است، هشدار می‌دهد. او در رابطه با همین موضوع با «مؤسسه تفکر اقتصادی نوین» [4] به گفت‌وگو نشسته است.

 

خطراتی که در کمین هستند

تصور کنید که دکتر «ویکتور فرانکنشتاین» با قدم‌های استوار وارد یک دفتر مدرن در «سیلیکون‌ولی» می‌شود تا با غول‌های فناوری و تکنولوژی در آنجا ملاقات کند. این در حالی است که او رؤیایی را در سر دارد که در آن، کنترل آینده بشریت را به دست می‌آورد. او یک اپلیکیشن عجیب برای «حل مشکل مرگ» دارد که قرار است یک تغییر بزرگ ایجاد کند. ویکتور با وسواس و خودبینی‌اش برای تسلط بر طبیعت، دانشمند قصه ما که «ماری شلی» آن را خلق کرده است، به‌راحتی در اتاق‌های هیئت‌مدیرة امروزی تکنولوژی جا می‌شود؛ با اطمینان از اینکه در مأموریت درستی قرار دارد؛ درحالی‌که از اعتمادبه‌نفس بیش از حد و تشنگی برای قدرت غافل است. همه ما می‌دانیم که این داستان چگونه پیش می‌رود. ایدة بزرگ او برای ایجاد یک گونه جدید به طرز فاجعه‌باری به نتیجه می‌رسد و موجودی را خلق می‌کند که بازتاب تاریک خودخواهی خود ویکتور است؛ موجودی که به انتقام‌جویی می‌پردازد و در نهایت به سمت خالق و بشریت می‌چرخد.

از زمان انقلاب علمی، بشریت نسبت به علم، نگرشی کاملاً متکبرانه داشته است و هرگز هیچ محدودیتی را در مقابل توسعه علم نپذیرفته است.

این یک برنامه قتل است. در اوایل قرن نوزدهم، «شلی» در مباحثات داغ پیرامون پیشرفت علمی، به‌ویژه تلاش برای ایجاد انسان‌های مصنوعی غوطه‌ور شد. این مباحثات در پس‌زمینة پرتنش انقلاب فرانسه و انقلاب صنعتی قرار داشت. در فرانکنشتاین، او پیچیدگی‌های تاریک رؤیای تکنولوژیک را به تصویر می‌کشد و نشان می‌دهد که چگونه جاه‌طلبی ویکتور برای خلق یک خدای تنها به چیزی وحشتناک منجر می‌شود. این رمان هشداری دربارة جنبه‌های تاریک پیشرفت علمی است و بر نیاز به مسئولیت‌پذیری و نگرانی اجتماعی تأکید می‌کند. موضوعاتی که امروز در بحث‌های هوش مصنوعی به‌وضوح احساس می‌شود، خصوصاً که توسعه‌دهندگان - درست مانند ویکتور - بدون درنظرگرفتن پیامدها به‌سرعت در حال راه‌اندازی سیستم‌ها هستند.

«رابرت اسکیدلسکی» - تاریخ‌دان برجسته اقتصاد - در آخرین اثر خود به نام «بی‌فکری؛ وضعیت بشر در عصر هوش مصنوعی» به بررسی تاریخ می‌پردازد و ادبیات و فلسفه را در هم می‌آمیزد تا خطرات بالای ظهور سریع هوش مصنوعی را آشکار کند. هر سؤالی که او مطرح می‌کند، معماهای دیگری را هم به وجود می‌آورد: چگونه می‌توانیم فناوری‌های مضر را مهار کنیم و درعین‌حال فناوری‌های خوب را تبلیغ کنیم؟ اصلاً چگونه بین این دو تمایز قائل شویم؟ چه کسی مسئول این کنترل است؟ آیا شرکت‌های فناوری‌های بزرگ، منافع عمومی را در اولویت قرار نمی‌دهند؟ یا دولت که به طور فزاینده‌ای اسیر منافع ثروتمندان شده است؟

درحالی‌که ما در حال دست و پنجه نرم کردن با این چالش‌ها هستیم، وابستگی فزاینده‌مان به سیستم‌های شبکه‌ای جهانی برای تأمین غذا، انرژی و امنیت، خطرات را تشدید کرده و نظارت مقامات را افزایش می‌دهد. آیا ما آن‌قدر به شبکه وابسته شده‌ایم که نمی‌توانیم بین ابزارهای نجات‌دهنده و آن‌هایی که می‌توانند به نابودی ما منجر شوند تمایز قائل شویم؟ «اسکیدلسکی» هشدار می‌دهد که با افزایش ناامیدی‌مان از آیندة فناوری، تعداد بیشتری از ما به دنبال نجات‌دهندگانی غیرمنطقی یا بی‌رحم هستیم. ما به جای بهبود شرایط اجتماعی خود، بر بهینه‌سازی ماشین‌ها تمرکز می‌کنیم. تعاملات فزاینده ما با هوش مصنوعی و ربات‌ها، ما را به فکرکردن مانند الگوریتم‌ها عادت می‌دهد. این افکار مصنوعی، ممکن است ما را در این فرایند احمق‌تر کند. ما خطرات دموکراسی را نادیده می‌گیریم؛ جایی که گروه‌های دلخور و امیدهای بربادرفته به‌راحتی می‌توانند به یک دیکتاتوری پوپولیستی منجر شوند. در گفت‌وگوی زیر «اسکیدلسکی» به بررسی خطرات جدی انقراض روحی و جسمی می‌پردازد و به این می‌پردازد که چه معنایی برای بشریت دارد که قدرت‌های خلاق و مبتکر را در دست داشته باشد؛ درحالی‌که بشریت خود را نادیده می‌گیرد. ما آتش در دست داریم، اما دوراندیشی را فراموش کرده‌ایم. او بر نیاز فوری به تفکر عمیق فلسفی در مورد رابطه انسان و ماشین و تأثیرات قابل‌توجه آن بر زندگی‌مان در یک دنیای فناوری محور تأکید می‌کند.

 

ارتباط هوش مصنوعی با آخرالزمان

 از نظر شما بزرگ‌ترین تهدید هوش مصنوعی و فناوری‌های نوظهور چیست؟ آیا ما را بیکار می‌کند؟

هیچ توافقی درباره قوانین و قواعد رقابت بر سر هوش مصنوعی در بین قدرت‌های بزرگ وجود ندارد.

رابرت اسکیدلسکی: بله. فناوری انسان‌ها را بی‌فایده و در نهایت منقرض می‌کند. من فکر می‌کنم که البته بیهوده و بی‌فایده شدن، می‌تواند به انقراض روحی نیز منجر شود. ما دیگر از انسان بودن دست می‌کشیم و شبیه زامبی‌ها می‌شویم. انقراض فیزیکی نیز یک تهدید است. این تهدیدی است که پایه‌اش فناوری است؛ مشخصاً یک تهدید هسته‌ای.

«میشا گلنی» [5] - مورخ - در مورد «چهار مسئله آخرالزمان مدرن» صحبت کرده است. این چهار مسئله آخرالزمانی عبارت‌اند از هسته‌ای، گرمایش جهانی، همه‌گیری‌ها و در نهایت، وابستگی ما به شبکه‌هایی که ممکن است در زمانی دیگر از کار بیفتند. اگر این شبکه‌ها از کار بیفتند، آنگاه نسل بشر متوقف می‌شود و بسیاری از مردم به‌سادگی از گرسنگی می‌میرند. این تهدیدات خاص، به‌شدت من را نگران می‌کند و فکر می‌کنم واقعی هستند.

 

چگونه هوش مصنوعی با آن مسائل آخرالزمانی نابودگر تعامل دارد؟ به‌عنوان‌مثال، آیا ظهور هوش مصنوعی می‌تواند به طور بالقوه، خطر فاجعه‌های هسته‌ای یا انواع دیگر بلایای انسانی را تقویت کند؟

رابرت اسکیدلسکی: هوش مصنوعی می‌تواند ذهنیتی متکبرانه ایجاد کند که می‌توانیم تمام چالش‌های ریشه‌دار در علم و فناوری را تنها با به‌کارگیری علم و فناوری بهبود یافته، یا از طریق تنظیم‌گری برای محدودکردن معایب و در عوض افزایش مزایا، برطرف کنیم. امروز من مخالف این کار نیستم، اما فکر می‌کنم که این امر، نیازمند سطحی از حکمرانی و همکاری است که در حال حاضر وجود ندارد. بنابراین من بیشتر نگران جنبه‌های منفی آن هستم.

جنبه منفی دیگری که در داستان‌های علمی - تخیلی پیش‌بینی‌شده است، ایده تکنولوژی سرکش است. در واقع فناوری کنترل آینده ما را به دست می‌گیرد و ما دیگر نمی‌توانیم آن را کنترل کنیم. نقطه اوج هوش مصنوعی رسیده است. این یک موضوع بزرگ در برخی از بحث‌های فلسفی است. مؤسساتی در دانشگاه‌های مختلف وجود دارند که همگی به آینده پسابشری فکر می‌کنند. بنابراین همه اینها کمی نگران‌کننده است.

 

 ما در طول زندگی خود با ترس از فجایع جنگ هسته‌ای، استفاده گسترده از سلاح‌های بیولوژیکی و ازدست‌دادن گسترده مشاغل به‌خاطر ربات‌ها مواجه بوده‌ایم، اما به نظر می‌رسد تا کنون این سناریوها را مهار کرده‌ایم. چه چیزی تهدید بالقوه هوش مصنوعی را متفاوت می‌کند؟

فناوری هرگز خنثی و بی‌طرف نبوده است و پشت توسعه آن، همواره اهداف نظامی وجود داشته است.

رابرت اسکیدلسکی: ما تا همین اواخر هوش مصنوعی نداشتیم. ما البته فناوری و علم داشته‌ایم و همیشه در حال اختراع چیزهایی بوده‌ایم. اما امروز در حال تجربه قدرت یک نوع فناوری برتر هستیم که آن را هوش مصنوعی می‌نامیم. این پیشرفتی است که در ۳۰ سال اخیر یا کمی بیشتر از آن رخ داده است. ماشینی‌شدن از محل کار شروع می‌شود، اما به‌تدریج گسترش می‌یابد و حالا نوعی دیکتاتوری دیجیتال در حال شکل‌گیری است؛ بنابراین قدرت فناوری به طرز چشمگیری افزایش یافته و همواره در حال رشد است.

اگرچه ما برخی چیزها را مهار کرده‌ایم، اما در واقع آن چیزهایی را که کنترل بیشتری بر آن‌ها داریم، مهار کرده‌ایم. فکر می‌کنم این یک نکته کلیدی است. نکته دیگر این است که فناوری جدید، تنها به یک چیز نیاز دارد تا اشتباه کند و در صورت اشتباه، تأثیرات بسیار زیادی خواهد داشت. اگر فیلم «اوپنهایمر» را دیده باشید، ممکن است به یاد داشته باشید که حتی در آن زمان، دانشمندان برتر هسته‌ای، به‌شدت نگران پتانسیل ویرانگر این فناوری بودند و این قبل از ظهور بمب‌های هیدروژنی بود. من نگران خطرات فزاینده هستم. از یک سو، جنگ‌های متعارف و از سوی دیگر، سناریوهای هولناکی وجود دارد که منجر به یک بازی خطرناک به نام «بازی جوجه» [6] می‌شود. بر خلاف دوران جنگ سرد که در آن جنگ هسته‌ای یک تابو بود، امروز مرز بین جنگ‌های متعارف و هسته‌ای به طور خطرناکی مبهم شده است. این موضوع، خطرات تشدید تنش را حتی بیشتر نمایان می‌کند. کتاب فوق‌العاده‌ای به نام «دیوانه» وجود دارد که درباره «جان فون نویمان» [7] و توسعه سلاح‌های هیدروژنی از سوی وی است. این کتاب نیز نشان می‌دهد که بین اهداف کنترل زندگی انسانی و توسعه، راه‌هایی برای نابودکردن آن ارتباط وجود دارد.

 

امکان گفت‌وگوی اخلاقی با هوش مصنوعی

شما در کتابتان اغلب به کتاب «فرانکنشتاین» ماری شلی اشاره کرده‌اید. چه می‌شد اگر ویکتور فرانکنشتاین قبل از آزمایش خود از دیگران مشاوره می‌گرفت یا به مؤسسات مراجعه می‌نمود؟ آیا بحث‌های اخلاقی می‌توانست نتایج را تغییر دهد؟ یا اینکه بهتر بود او اصلاً این موجود را خلق نمی‌کرد؟

رابرت اسکیدلسکی: از زمان انقلاب علمی، ما نسبت به علم، نگرشی کاملاً متکبرانه داشته‌ایم. ما هرگز هیچ محدودیتی را نپذیرفته‌ایم. ما برخی محدودیت‌ها را در کاربرد پذیرفته‌ایم، اما هرگز محدودیت‌هایی را بر توسعه آزاد علم و اختراع نپذیرفته‌ایم. ما خواهان منافع آن هستیم، اما همچنان به برخی سیستم‌ها برای کنترل آنها اتکا می‌کنیم.

شما درباره اخلاق پرسیدید. اخلاقی که نسبت به تهدید هوش مصنوعی مطرح می‌شود، بسیار سطحی و ضعیف است. ما بر سر چه چیزی توافق داریم؟ چگونه می‌توانیم بحث اخلاقی خود را آغاز کنیم؟ ما با این جمله شروع می‌کنیم که «می‌خواهیم ماشین‌ها یا هوش مصنوعی را با قواعد اخلاقی تجهیز کنیم.» یکی از این قواعد این است که به انسان‌ها آسیب نرسانند. اما درباره آسیب نزدن به ماشین‌ها چطور؟ این گزینه، جنگ بین ماشین‌ها را مستثنی نمی‌کند و بعد آسیب‌ها و ضررهای این وضعیت کدام‌اند؟

 

حرف شما درست و منطقی است. اما چگونه در مورد آنچه برای ما خوب است توافق کنیم؟

رابرت اسکیدلسکی: به نظر من، بحث باید از جای دیگری شروع شود. انسان بودن چیست؟ این یک سؤال بسیار دشوار است، اما یک سؤال واضح نیز هست. ما برای محافظت از انسانیت خود به چه چیزی نیاز داریم؟ هر محدودیتی در توسعه هوش مصنوعی باید ریشه در پاسخ ما به این پرسش داشته باشد. ما باید از انسانیت خود محافظت کنیم. این در مورد کار ما، سطح نظارتی که می‌پذیریم و آزادی که برای انسانیت ما ضروری است، صدق می‌کند. ما باید از گونه‌های انسانی خود محافظت کنیم. ما باید این سؤال را که انسان بودن به چه معناست، در هر یک از این حوزه‌هایی که ماشین‌ها انسانیت ما را تهدید می‌کنند، اعمال کنیم.

 

در حال حاضر، به نظر می‌رسد که هوش مصنوعی به‌صورت انحصاری و در دست الیگارشی‌ها قرار دارد و این موضوع، سؤالاتی را درباره چگونگی تنظیم مؤثر آن توسط کشورها مطرح می‌کند. اگر یک کشور، مقررات سخت‌گیرانه‌ای وضع کند، آیا کشورهای دیگر قادر به پیشرفت در این زمینه خواهند بود؟ این امر منجر به عدم تعادل رقابتی یا تهدیدات جدید نخواهد شد؟ نظر شما در مورد این معضل چیست؟

رابرت اسکیدلسکی: خوب این یک سؤال مهم است. این یک سؤال ژئوپلیتیکی است. زمانی که ما شروع به تقسیم جهان به قدرت‌های خیرخواه و بدخواه در رقابت برای بقا کنیم، نمی‌توانیم آن را متوقف کنیم. یکی از درس‌های جنگ سرد این است که هر دو طرف، توافق کردند که از طریق معاهدات به تنظیم تسلیحات هسته‌ای بپردازند؛ اما این تنها پس از یک بحران فوق‌العاده - بحران موشکی کوبا - به دست آمد. یعنی درست همان زمانی که آن‌ها به موقع از این وضعیت عقب‌نشینی کردند. بعد از آن، جنگ سرد طبق قواعدی با یک خط تلفن مستقیم بین «کرملین» و «کاخ سفید» که به آن‌ها اجازه می‌داد هر زمان که اوضاع خطرناک می‌شد، با هم ارتباط برقرار کنند، پیش رفت. آن خط تلفن دیگر وجود ندارد. من فکر نمی‌کنم که در حال حاضر یک خط تلفن مستقیم بین «واشنگتن»، «پکن» و «مسکو» وجود داشته باشد. درک این نکته بسیار مهم است که وقتی اتحاد جماهیر شوروی فروپاشید، آمریکایی‌ها واقعاً فکر می‌کردند که تاریخ به پایان رسیده است.

 

شرق، نظم تک‌قطبی را برهم می‌زند

همان جمله معروف «فرانسیس فوکویاما»؟

رابرت اسکیدلسکی: بله، فوکویاما. تصور بر این بود که شما می‌توانید به‌نوعی مدینه فاضله علمی بروید. تهدیدهای اصلی از بین رفته بودند؛ زیرا همیشه قوانینی وجود داشت که همه بر سر آن‌ها توافق داشتند. این قوانین عمدتاً توسط ایالات متحده - هژمون جهان - وضع می‌شد، اما همه این قوانین را به‌عنوان چیزی برای خیر همگانی می‌پذیرفتند. اما اکنون ما دیگر به این موضوع باور نداریم. نمی‌دانم چه زمانی از این باور فاصله گرفتیم. شاید از زمانی که روسیه و چین شروع به نشان‌دادن قدرت خود کردند و گفتند «نه! شما باید یک نظم چندقطبی داشته باشید. شما نمی‌توانید چنین سیستمی تحت سلطه غرب داشته باشید که در آن همه قوانین را از قوانین سازمان تجارت جهانی گرفته تا قوانین صندوق بین‌المللی پول و... به دیگران دیکته کنید و آنها هم بپذیرند.»

بنابراین ما بسیار از این موضوع فاصله داریم که بتوانیم فکر کنیم چگونه می‌توانیم رقابت در رشد هوش مصنوعی را متوقف کنیم؛ زیرا وقتی که این موضوع بخشی از جنگ یا رقابت نظامی شود، می‌تواند به هر حدی که ممکن است، تشدید شود. این موضوع من را درباره آینده نسبتاً ناامید می‌کند.

 

آیا راهی برای دموکراتیک کردن گسترش و توسعه هوش مصنوعی می‌بینید؟

رابرت اسکیدلسکی: شما پرسشی را مطرح کردید که فکر می‌کنم توسط «شوشانا زوبوف» [8] - نویسنده «عصر سرمایه‌داری نظارتی؛ مبارزه برای آینده بشری در مرز جدید قدرت» [9] - مطرح شده است. این کتاب درباره کنترل هوش مصنوعی توسط الیگارشی‌ها بحث می‌کند. سه یا چهار پلتفرم وجود دارند که واقعاً تعیین می‌کنند در دنیای هوش مصنوعی چه اتفاقی می‌افتد؟ به این دلیل که هیچ‌کس دیگری در موقعیت رقابت نیست. آن‌ها سرمایه‌گذاری‌های زیادی در این زمینه می‌کنند. سؤال جالب این است که چه کسی واقعاً تصمیم‌گیرنده است؟ آیا این الیگارشی‌ها هستند یا دولت‌ها که حرف آخر را می‌زنند؟

 

 به نظر می‌رسد که مردم عادی احساس می‌کنند در تصمیم‌گیری‌ها نقشی ندارند. آن‌ها نگران این هستند که هوش مصنوعی چگونه بر زندگی روزمره و شغل‌هایشان تأثیر خواهد گذاشت و همچنین نگران سوءاستفاده‌های احتمالی از سوی شرکت‌های فناوری و تأثیر آن بر آینده سیاسی هستند. می‌توان این احساس را در دوره فعلی انتخابات ایالات متحده حس کرد.

رابرت اسکیدلسکی: بگذارید به کتاب مقدس اشاره کنم؛ زیرا می‌توان گفت که این کتاب، آخرالزمانی را پیش‌بینی کرده است که مقدمه‌ای برای ظهور مجدد خواهد بود. «آخرالزمان» به معنای «افشاگری» یا «آشکارسازی» است. ما از این واژه استفاده می‌کنیم، اما نمی‌توانیم مفهوم آن را درک کنیم. برای ما آخرالزمان به معنای پایان همه چیز است. سیستم جهانی فرومی‌ریزد و سپس یا نژاد بشر نابود می‌شود یا انسان‌ها باقی می‌مانند و باید از سطح بسیار پایین‌تری دوباره آن را بسازند.

در حوزه هوش مصنوعی به دلیل پیچیدگی، شفافیتی وجود ندارد؛ در نتیجه پاسخگویی و مسئولیت‌پذیری نیز دیده نمی‌شود.

اما من کاملاً به «آلبرت هیرشمن» [10] و ایده‌اش درباره «آخرالزمان کوچک» که می‌تواند فرآیند یادگیری را ترویج کند، علاقه‌مند هستم. ما از فاجعه‌ها یاد می‌گیریم. ما از تنها فکرکردن به احتمال فاجعه یاد نمی‌گیریم؛ زیرا به‌ندرت باور داریم که آن‌ها واقعاً اتفاق بیفتند. اما وقتی فاجعه‌ای رخ می‌دهد، از آن یاد می‌گیریم. این یکی از ویژگی‌های انسانی ماست. یادگیری ممکن است برای همیشه باقی نماند، اما مانند یک تلنگر است.

دو جنگ جهانی منجر به ایجاد اتحادیه اروپا و سقوط فاشیسم شد. یک دنیای نسبتاً صلح‌آمیز و باز از ویرانه‌های آن جنگ شروع به توسعه کرد. من نمی‌خواهم بگویم که ما به یک جنگ دیگر نیاز داریم تا یاد بگیریم، زیرا اکنون آسیب‌ها بسیار بزرگ‌تر هستند. در گذشته - زمانی که هنوز در موقعیتی برای جنگ‌های متعارف بودیم - این جنگ‌ها بسیار ویرانگر بودند؛ اما تهدیدی برای بقای بشریت ایجاد نمی‌کردند. اکنون ما سلاح‌های هسته‌ای را داریم. نردبان تشدید ویرانی، اکنون بسیار بالاتر از قبل است. همچنین ما نمی‌توانیم آخرالزمان‌ها را بسازیم. این کار غیراخلاقی و غیرممکن است. ما نمی‌توانیم - به زبان اخلاقی - شر را برای جهان بخواهیم تا خیر از آن به وجود آید. این واقعیت که این موضوع اغلب یک مکانیزم تاریخی بوده است، به این معنا نیست که می‌توانیم آن را برای پیشرفت‌های خودمان به کار بگیریم.

 

آیا شما معتقدید که فناوری به‌خودی‌خود خنثی و بی‌طرف است؟ آیا این فقط ابزاری است که بسته به نیت انسان می‌تواند برای موارد خوب یا بد استفاده شود؟

رابرت اسکیدلسکی: من معتقد نیستم که فناوری خنثی و بی‌طرف است. پشت توسعه آن همیشه هدفی - اغلب هدفی نظامی - بوده است. نقش تدارکات نظامی در پیشرفت فناوری و هوش مصنوعی بسیار زیاد بوده است. به بیان واضح‌تر، نمی‌دانم که آیا بدون بودجه نظامی، ما شاهد پیشرفت‌های مفیدی در پزشکی بودیم یا اینکه من و شما حتی می‌توانستیم این گفتگوی مجازی را بدون درخواست نظامی انجام دهیم. از این نظر، فناوری هرگز در اهداف و آرزوهای خود بی‌طرف نبوده است. همیشه یک عنصر متکبرانه وجود داشته است. بسیاری از دانشمندان و ریاضی‌دانان معتقدند که می‌توانند راهی برای کنترل بشریت پیدا کنند تا از بروز فاجعه‌های گذشته جلوگیری کنند و به‌نوعی جبر فناورانه اعتقاد دارند. اینکه علمِ پیشرفته و کاربردهای آن، می‌توانند اشتباهات بشریت را از بین ببرند. شما می‌توانید با علم و فناوری، گناه اولیه بشر را حذف کنید.

 

ما انسان‌ها، ناقص هستیم

به نظر می‌رسد چیزی که ویکتور فرانکنشتاین قبل از اینکه آزمایشش به هم بخورد، با آن موافق بوده است.

رابرت اسکیدلسکی: بله. این اندیشه همچنین در مورد «فون نویمان» و آن ریاضی‌دانان اوایل قرن بیستم وجود داشت. آن‌ها واقعاً معتقد بودند که اگر بتوانید جامعه را بر پایه ریاضیات بنا کنید، به‌سوی کمال خواهید رفت. این‌گونه بود که رؤیاهای عصر روشنگری از طریق توسعه علم، به سمت هوش مصنوعی پیش رفتند. این یک رؤیای خطرناک است؛ زیرا من فکر می‌کنم ما ناقص هستیم. انسانیت در نقص و عدم کمال است و اگر بخواهید آن را از بین ببرید، بشریت را نابود خواهید کرد. اگر هم موفق شوید، آن‌ها به زامبی‌ها تبدیل خواهند شد.

 

یعنی یک موجود کامل، غیرانسانی است؟

رابرت اسکیدلسکی: بله. یک موجود کامل، دیگر انسان نیست.

 

نظر شما در مورد اینکه چگونه عناصر سیاسی فاشیست ممکن است با ظهور هوش مصنوعی هم راستا شوند چیست؟

رابرت اسکیدلسکی: روشی که من در مورد آن بیشتر بحث کرده‌ام، درباره تأثیرات هوش مصنوعی بر گسترش استفاده از شبکه‌های اجتماعی و تأثیرات این رسانه‌های اجتماعی بر سیاست است. شبکه‌های اجتماعی به بدترین غرایز انسان‌ها مجال بروز می‌دهند. انواع مختلفی از تنفر، عدم تحمل، توهین و این مسائل، در بدنه سیاسی متورم می‌شوند و در نهایت، سیاست‌مدارانی را تولید می‌کنند که می‌توانند از آن‌ها بهره‌برداری کنند. این نکته‌ای است که اغلب گفته می‌شود و در آن حقیقت زیادی وجود دارد. البته وعدة داده شده، کاملاً متفاوت بود. قرار بود بحث‌های حوزه عمومی دموکراتیزه شود. شما آن را از دست نخبگان خارج و واقعاً دموکراتیک می‌کردید. در آن زمان دموکراسی راهی خودپایدار برای بهبود بود؛ اما آنچه ما می‌بینیم، چیز بسیار متفاوتی است. ما اقلیت‌هایی را می‌بینیم که قدرت گسترش نفرت را دارند و سیاست‌مدارانی که از طریق آن اقلیت‌ها برای ایجاد سیاست نفرت، قدرت یافته‌اند.

دیدگاه متفاوتی با محوریت تئوری‌های توطئه وجود دارد. بسیاری از ما قبلاً آن‌ها را به‌عنوان وسواس‌ها و مشغله‌های ذهنی غیرمنطقی افراد دیوانه که ریشه در جهل دارد رد کرده‌ایم. اما جهل در توسعه هوش مصنوعی گنجانده شده است. ما واقعاً نمی‌دانیم این سیستم‌ها چگونه کار می‌کنند. ما درحالی‌که بر شفافیت تأکید می‌کنیم، واقعیت این است که عملیات شبکه‌های کامپیوتری ما مثل یک سیاه‌چاله است و حتی برنامه‌نویسان نیز در درک نحوه عملکرد این شبکه‌ها دچار مشکل می‌شوند. ایده شفافیت اساساً معیوب است. چیزها زمانی شفاف هستند که ساده باشند. علی‌رغم بحث‌های ما درباره نیاز به شفافیت بیشتر در حوزه‌هایی مانند بانکداری و سیاست، عدم وجود آن به این معنی است که ما نمی‌توانیم مسئولیت‌پذیری و پاسخگویی را تضمین کنیم. اگر نتوانیم این سیستم‌ها را شفاف کنیم، نمی‌توانیم آن‌ها را پاسخ‌گو نگه داریم و این موضوع به‌وضوح مشهود است.

پرونده مدیران شرکت پست بریتانیا (ماجرای رسوایی فناوری اطلاعات هورایزن[11]) را در نظر بگیرید. هزاران نفر از آن‌ها بر اساس یک ماشین معیوب به ناحق محکوم شدند. هیچ‌کس واقعاً نمی‌دانست که حقیقت چیست. زمانی که عیب شناسایی شد، تعداد زیادی از افراد با منافع خاص از جمله تولیدکنندگان به دنبال کتمان آن عیب بودند.

پاسخگویی، یک مسئله مهم و کلیدی است. ما می‌خواهیم حاکمان و سیاست‌مداران خود را پاسخ‌گو نگه‌داریم، اما قادر به درک نحوه کار سیستم‌هایی که بسیاری از فعالیت‌های ما را اداره می‌کنند، نیستیم. من فکر می‌کنم این موضوع بسیار مهم است. افرادی که این موضوع را شناختند، بیشتر دانشمندان یا افرادی نیستند که در مورد آن صحبت می‌کنند؛ بلکه رمان‌نویسان ویران شهری و نویسندگان علمی - تخیلی هستند. البته افراد مشهوری نیز مانند «اورول» و «هاکسلی» و همچنین شخصیت‌هایی مانند «کافکا»، ظهور بوروکراسی دیجیتال و نحوه کاملاً غیرقابل‌نفوذ شدن آن را دیدند.

من در مورد توانایی‌مان در مقابله با این موضوع بدبین هستم؛ اما تعامل با افرادی که بدبین نیستند را هم ارزشمند می‌دانم. عدم درک سیستم، خیره‌کننده است. من غالباً وقتی از فناوری استفاده می‌کنم، آن را ناامیدکننده می‌یابم؛ زیرا درخواست‌های غیرممکنی را تحمیل می‌کند، درحالی‌که وعده آینده‌ای توهمی از آسایش را می‌دهد. این به «کینز» و آرمان‌شهر او از آزادی انتخاب مرتبط است. چرا این آرمان‌شهر محقق نشد؟ او مسئله سیری‌ناپذیری را نادیده گرفت؛ زیرا ما با وعده‌های غیرقابل‌مقاومتی همچون بهبود اوضاع و راحتی بیشتر، بمباران می‌شویم. یک کلیک برای تأیید و ناگهان خود را درون ماشین گرفتار کرده‌اید.

 

تکنولوژی، آزادی را هدف گرفته است

 ما در حال انجام یک گفتگوی مجازی هستیم و این فوق‌العاده است که به هم متصل هستیم. اما این ناراحت‌کننده است که فکر کنیم ممکن است کسی به صحبت‌های ما گوش دهد، مکالمه ما را ضبط کند و از آنها برای اهدافی استفاده کند که هرگز با آنها موافقت نکرده‌ایم.

رابرت اسکیدلسکی: من در حال حاضر در یک دفتر پارلمانی هستم. نمی‌دانم آیا آنها سیستمی از نوع برادر بزرگ یا قیم و کنترل‌گر برای دیدن و شنیدن آنچه می‌گوییم و انجام می‌دهیم ایجاد کرده‌اند یا خیر؛ اما در نهایت ممکن است کسی وارد شود و بگوید، «هی! فکر نمی‌کنم مکالمه شما برای اهداف سازمان ما مفید باشد! ما قصد داریم شما را به چیزی متهم کنیم.» البته در این مورد خاص خیلی بعید است. ما در این نوع کنترل پیش‌بینی‌شده توسط اورول نیستیم؛ اما جاده به‌نوعی کوتاه شده است. در برابر این موضوع، تعهد جوامع آزاد به آزادی، آزادی اندیشه و پاسخگویی قرار دارد. هرکدام از این تعهدات بر اساس غیرممکن‌بودن کنترل انسان‌ها شکل گرفته است. جاسوسی یک عمل بسیار قدیمی توسط دولت‌ها است. در جهان باستان نیز جاسوس‌ها وجود داشتند و همیشه تمایل داشتند از حوادث باخبر باشند.

 

به توجه به‌سرعت پیشرفت فناوری، این موضوع چندان دور از ذهن نیست. ما حسگرهای پوشیدنی داریم که احساسات را تشخیص می‌دهند و شرکت‌هایی مانند «نیورالینک» [12] در حال توسعه رابط‌های مغزی - رایانه برای اتصال مغز ما به دستگاه‌هایی هستند که افکار را تفسیر می‌کنند. حتی توالت‌های هوشمندی داریم که داده‌هایی را ثبت می‌کنند که می‌تواند برای اهداف شوم استفاده شود!

رابرت اسکیدلسکی: بله. بینش شگفت‌انگیز برخی از این نویسندگان داستان‌پرداز جالب است. به‌عنوان‌مثال، در رمان «ماشین» [13] اثر «ادوارد مورگان فورستر» [14] که در سال ۱۹۰۶ - بیش از ۱۲۰ سال پیش - نوشته شده است؛ او جامعه‌ای را تصور می‌کند که همه به‌خاطر یک رویداد فاجعه‌بار در سطح زمین به زیر زمین رفته‌اند. همه چیز تحت کنترل ماشین‌ها است. سپس، یک روز ماشین متوقف می‌شود. آن‌ها همه می‌میرند، زیرا کاملاً به آن وابسته‌اند. هوا، غذا و همه چیز، به ماشین وابسته است. نویسندگان و فیلمسازان با تخیل خود راهی برای بحث در مورد این موضوعات دارند که فراتر از درک کسانی است که به تفکر منطقی متعهد هستند. این یک سطح متفاوت از درک است.

 

 شما در کتاب خود، چالش‌های ناشی از انگیزه سیری‌ناپذیر سرمایه‌داری برای رشد و سود را برجسته می‌کنید. این انگیزه‌ها که اغلب اخلاق را قربانی می‌کند، بیشتر در مورد هوش مصنوعی است. اما شما استدلال می‌کنید که تقابل واقعی بین سرمایه‌داری و سوسیالیسم نیست، بلکه بین انسان‌ها و بشریت است. اگر می‌شود توضیح بدهید که منظورتان از تقابل بین بشر و بشریت چیست؟

رابرت اسکیدلسکی: من فکر می‌کنم تعریف مباحث سیاسی کنونی یا اشکال سیاستی که در سراسر جهان در حال شکل‌گیری است، با استفاده از تقسیم‌بندی قدیمی چپ و راست دشوار است. ما اغلب جنبش‌ها را به‌عنوان راست افراطی یا چپ افراطی به اشتباه برچسب‌گذاری می‌کنیم. به نظر من، مسئله واقعی این است که چگونه می‌توان بر فناوری و هوش مصنوعی کنترل داشت. ممکن است بگویید که رویکردهای چپ یا راست ناظر به کنترل وجود دارد، اما فکر می‌کنم این خطوط مبهم است و نمی‌توان به‌راحتی دو قطب را بر اساس دیدگاه‌هایشان در این زمینه تعریف کرد.

اما یک حوزه دیگر باقی مانده است که به آنچه «کینز» می‌گفت مربوط می‌شود و آن مسئله توزیع است. اقتصاد نئوکلاسیک، نابرابری را افزایش داده و مقدار زیادی از قدرت را به دست پلتفرم‌ها سپرده است. «کینز» معتقد بود که آزادی از توزیع ثمرات ماشین به دست خواهد آمد. او تصور نمی‌کرد که این ثمرات به این شدت، توسط یک الیگارشی مالی تصرف شود؛ بنابراین از این منظر، فکر می‌کنم تقسیم‌بندی چپ و راست دوباره اهمیت پیدا می‌کند. شما باید بازتوزیع زیادی داشته باشید. توزیع مجدد منافع، رضایت را افزایش می‌دهد و قدرت نظریه‌های توطئه را کاهش می‌دهد. بسیاری از مردم اکنون فکر می‌کنند که نخبگان کاری انجام می‌دهند که در راستای منافع بشریت نیست. بخشی به‌خاطر این است که آن‌ها از آنچه که باید فقیرتر هستند. رشد فقر در جوامع ثروتمند در ۳۰ یا ۴۰ سال گذشته بسیار چشمگیر بوده است.

 

همه ما کارگران سرمایه‌داری هستیم

از زمانی که انقلاب کینزی لغو شد، سرمایه‌داری اجازه یافته که در جامعه ما به‌شدت گسترش یابد. در اینجا است که چپ و راست هنوز مهم هستند؛ اما دیگر مبنای بلوک‌های سیاسی پایدار نیستند. نخست‌وزیر ما می‌گوید که هدف ما بهبود وضعیت کارگران است. کارگران چه کسانی هستند؟ ما کارگر هستیم. دیگر نمی‌توان درباره طبقه صحبت کرد؛ زیرا بلوک‌های قدیمی طبقه‌ای که مارکس شناسایی کرده بود، بین کسانی که هیچ چیز برای فروش جز نیروی کار خود ندارند و کسانی که دارایی‌های اقتصادی را در اختیار دارند، مبهم شده است. اگر افراد بسیار ثروتمند و بقیه را در نظر بگیرید، این تقسیم‌بندی هنوز وجود دارد. اما نمی‌توان بر اساس آن تقسیم‌بندی قدیمی سیاست را پیش برد. نمی‌دانم تقسیمات سیاسی جدید چگونه خواهد بود. درک این که ماشین‌ها مشاغل را تصاحب می‌کنند، به همراه این واقعیت که الیگارش‌ها اغلب پشت این تغییرات تکنولوژیک هستند، سخت است. وقتی این ایده را مطرح می‌کنید، می‌تواند توهم گونه‌ای از توطئه به نظر برسد و ما را به نظریه‌های توطئه مختلفی گرفتار کند.

آنچه من آرزو دارم، سطحی از حکمرانی است که باید بالاتر از آنچه در حال حاضر داریم باشد. بسیاری از رهبران قبلی آمریکا و اروپا از دولتمردان کنونی، سیاست‌مداران برجسته‌تری بودند. فکر می‌کنم بسیاری از بهترین افراد، به‌خاطر وضعیت کنونی فرایند سیاسی از ورود به سیاست دلسرد شده‌اند. آرزو می‌کنم که بتوانم امیدوارتر باشم. امیدواری یکی از ویژگی‌های انسان‌ها است. انسان‌ها باید امید داشته باشند. در مورد امیدوار بودن مردم، من به رویکرد اقتصادی اشاره می‌کنم. من وقت زیادی برای ساخت مدل‌های ریاضی اقتصادی ندارم، اما ایده‌های خاصی وجود دارد که می‌توانند از طریق سیاست‌های اقتصادی بهتر تحقق یابند. شما می‌توانید رشد بهتری داشته باشید. شما می‌توانید ضمانت‌های شغلی داشته باشید. شما می‌توانید برنامه‌های آموزشی مناسبی را اجرا کنید. شما می‌توانید کارهای مختلفی انجام دهید که باعث می‌شود مردم احساس بهتری داشته باشند و بنابراین کمتر در معرض تفکر توطئه یا نفرت قرار بگیرند. فقط کافی است درجه‌ای از رضایت را افزایش دهید. این مسائل نمی‌تواند مشکلات وجودی که در پیش است را حل کند، اما فکر می‌کنم سیاست را قادر می‌سازد تا با آن‌ها بهتر برخورد کند.

https://www.ineteconomics.org/perspectives/blog/can-we-avoid-a-franken-future-with-ai

 

[1] . Mary Shelley

[2] . Robert Skidelsky

[3] . Mindless: The Human Condition in the Age of Artificial Intelligence

[4] . Institute for New Economic Thinking

[5] . Misha Glenny

[6] . game of chicken: بازی جوجه که با نام‌های بزدلی، شاهین - قمری و برف توده نیز شناخته می‌شود، یک مدل مؤثر برای بررسی تلاقی دو بازیکن در نظریه بازی‌ها است. قانون بازی این است که در حین اینکه هیچ یک از دو بازیکن، تمایلی به تسلیم‌شدن در مقابل دیگری ندارد، بدترین نتیجه این است که هیچ‌کدام تسلیم نشوند. انتخاب واژه «جوجه» برای این بازی، ریشه در یک بازی خیابانی دارد که در آن دو راننده به سمت هم در یک امتداد با سرعت زیاد حرکت می‌کنند و یکی باید از مسیر خارج شود وگرنه هر دو با هم برخورد می‌کنند و کشته می‌شوند. در حالتی که یکی از راننده‌ها خود را از مسیر خارج کند، آن راننده بازنده است و او را به‌خاطر ترسو بودن، «جوجه» خطاب می‌کنند و راننده‌ای که در مسیر باقی‌مانده بود، برنده اعلام می‌شود. این واژه در علوم سیاسی و اقتصادی خیلی رایج است.

[7] . John von Neumann

[8] . Shoshana Zuboff

[9] . The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power

[10] . Albert Hirschman

[11] . Horizon IT scandal

[12] . Neuralink

[13] . The Machine

[14] . E.M. Forster’

 

/ انتهای پیام /