گروه جامعه و اقتصاد «سدید»؛ طی سالهای اخیر با پیدایش هوش مصنوعی و گسترش استفاده از آن و پیشرفتهای گسترده روزانهای که در این ارتباط رخ میدهد، این موضوع توجه نظریهپردازان حوزه سیاست خارجی، امنیت بینالملل و روابط بینالملل را به خود جلب کرده است. «هنری کیسینجر» - وزیر امور خارجه سابق آمریکا - ، «اریک اشمیت» [1] - مدیرعامل سابق گوگل - و «گریگ موندی» [2] - مشاور ارشد مدیرعامل مایکروسافت - در کتاب «پیدایش هوش مصنوعی، امید و روح انسان» [3] (۲۰۲۴) به موضوع نقش هوش مصنوعی در موضوعات حیاتی بشر میپردازند. مقاله پیش رو، از این کتاب که سال جاری میلادی و پیش از مرگ کیسینجر تکمیل و استخراج شده و در وبسایت مجله آمریکایی «Foreign Affairs» منتشر شده است. این سه پژوهشگر برجسته تأکید میکنند که هوش مصنوعی، ممکن است آینده نظم جهانی را از خود متأثر کند و کشورها با علم به این که تسلط به هوش مصنوعی میتواند جایگاه آنها را در هرم توزیع قدرت جهانی و در نتیجه نظم آینده تعیین کند، وارد رقابت بسیار گستردهای در این زمینه شدهاند. آنها تأکید میکنند هوش مصنوعی تمامی مفاهیم سنتی جنگوصلح را تغییر خواهد داد.
هوش مصنوعی عامل تعیینکننده نظم جهانی
از تنظیم مجدد استراتژی نظامی تا بازسازی دیپلماسی، هوش مصنوعی به یک عامل تعیینکننده اصلی نظم جهانی تبدیل خواهد شد. فارغ از ترس یا طرفداری، هوش مصنوعی امکان جدیدی از عینیت و بیطرفی را در تصمیمگیری استراتژیک معرفی میکند؛ اما این بیطرفی که هم توسط بازیگران صلحطلب و هم جنگطلبها مورداستفاده قرار میگیرد، باید ذهنیت انسانی را که برای اعمال مسئولانه قدرت ضروری است، حفظ کند. هوش مصنوعی در جنگ بهترین و بدترین تجلیات بشری را به تصویر خواهد کشید و بهعنوان وسیلهای برای جنگ و پایاندادن به آن عمل خواهد کرد.
رهبران کشورها معتقدند که یک مزیت تاکتیکی جزئی، میتواند در هر درگیری در آینده تعیینکننده باشد و هوش مصنوعی میتواند همان مزیت را ارائه دهد.
مبارزه طولانیمدت بشریت برای پیشرفت در ترتیبات پیچیدهتر، بهنحویکه هیچ دولتی بر آنها تسلط مطلق پیدا نکند، بهصورت یک قانون پیوسته و بدون وقفه طبیعی درآمده است. در دنیایی که بازیگران اصلی هنوز انسان هستند - حتی اگر با هوش مصنوعی برای اطلاعرسانی، مشاوره و راهنمایی تجهیز شده باشند - کشورها باید درجهای از ثبات را بر اساس هنجارهای مشترک رفتاری داشته باشند. اما اگر هوش مصنوعی بهعنوان مجموعهای از نهادهای سیاسی، دیپلماتیک و نظامی عملاً مستقل ظاهر شود، این امر، موازنه قدیمی قدرت را با یک عدم تعادل جدید و ناشناخته مواجه میکند. نظم بینالمللی ناپایدار و در حال تغییری که طی چند قرن گذشته توسط کشورها ایجاد شده بود، بخشی از دلیل بقای خود را به برابری ذاتی بازیگران وابسته است. در دنیایی با عدم تقارن شدید، مخصوصاً اگر برخی کشورها با سرعت بیشتری نسبت به دیگران از هوش مصنوعی در بالاترین سطح استفاده کنند، تحولات بسیار کمتر قابلپیشبینی خواهد بود. در مواردی که برخی انسانها ممکن است به طور نظامی یا دیپلماتیک در برابر یک کشور با هوش مصنوعی پیشرفته یا در برابر خود هوش مصنوعی قرار بگیرند، انسانها ممکن است در بقا با مشکل مواجه شوند، چه رسد به رقابت. چنین نظمی میتواند شاهد فروپاشی داخلی جوامع و گسترش غیرقابلکنترل درگیریهای خارجی باشد.
احتمالات دیگری نیز زیاد است. فراتر از جستوجوی امنیت، انسانها مدتهاست که برای پیروزی یا دفاع از شرافت خود به جنگ پرداختهاند. ماشینها در حال حاضر فاقد هرگونه تصوری از پیروزی یا شرافت هستند. آنها ممکن است هرگز به جنگ نروند و به جای آن - بهعنوانمثال برای نقل و انتقالهای فوری و به دقت تقسیمشده - سرزمینها را بر اساس محاسبات پیچیده انتخاب کنند. همچنین ممکن است اقداماتی انجام دهند که به جنگهای خونین فرسایشی انسانی تبدیل میشود. در یک سناریو، نوع بشر ممکن است بهقدری دگرگون شود که به طور کامل از خشونتهای انسانی پرهیز کند. در سناریوی دیگر، ممکن است به طرزی کاملاً تحت سلطه فناوری قرار بگیریم که ما را به گذشتهای پر از توحش بازگرداند.
معمای امنیت در هوش مصنوعی
بسیاری از کشورها بر روی چگونگی «پیروزی در مسابقه هوش مصنوعی» تمرکز کردهاند. بخشی از این انگیزه قابلدرک است. فرهنگ، تاریخ، ارتباطات و ادراکها با هم ترکیب شدهاند تا وضعیتی دیپلماتیک میان قدرتهای بزرگ امروز ایجاد کنند تا ناامنی و شکوتردید را در طرفین تقویت کند. رهبران معتقدند که یک مزیت تاکتیکی جزئی میتواند در هر درگیری در آینده تعیینکننده باشد و هوش مصنوعی میتواند همان مزیت را ارائه دهد.
ممکن است شرکتهایی که هوش مصنوعی را در اختیار دارند و آن را توسعه میدهند، قدرت اجتماعی، اقتصادی، نظامی و سیاسی کاملاً فراگیری را به دست آورند.
اگر هر کشور بخواهد موقعیت خود را در زمینه هوش مصنوعی ارتقا داده و به حداکثر پیشرفت در این زمینه نائل شود، شرایط برای یک مسابقه روانشناختی میان نیروهای نظامی و سازمانهای اطلاعاتی رقیب به وجود خواهد آمد که مشابه آن را بشریت هرگز تجربه نکرده است. یک معضل و معمای امنیتی وجودی در انتظار است. اولین آرزوی منطقی برای هر بازیگر انسانی که هوش مصنوعی فوق هوشمند را در اختیار داشته باشد (هوش مصنوعی فرضی باهوشتر از انسان) ممکن است تلاش برای تضمین این باشد که هیچ دولت دیگری این نسخه قدرتمند از فناوری را به دست نیاورد. هر بازیگر همچنین به طور منطقی میتواند فرض کند که رقیبش هم اگرچه با همان عدم اطمینانها و خطرات مشابه روبرو است، اما در حال تفکر درباره اقدام مشابهی است.
در غیاب جنگ، یک هوش مصنوعی فوقهوشمند میتواند برنامه رقیب را تضعیف، تخریب و مسدود کند. بهعنوانمثال، هوش مصنوعی وعده میدهد که ویروسهای رایانهای معمولی را با قدرت بیسابقهای تقویت کرده و به طور کامل آنها را از دید پنهان کند. مانند ویروس رایانهای «استاکسنت» که در سال ۲۰۱۰ کشف شد و تصور میشد که یکپنجم از سانتریفیوژهای اورانیوم ایران را خراب کرده است. یک عامل هوش مصنوعی میتواند پیشرفت رقیب را خراب کند و درعینحال حضور خود را هم پنهان نماید و در نتیجه دانشمندان دشمن را وادار به تعقیب سایهها کند. یک هوش مصنوعی با ظرفیت منحصربهفرد خود برای دستکاری نقاط ضعف در روانشناسی انسانی، میتواند رسانههای یک کشور رقیب را به کنترل خود درآورده و سیلابی از اطلاعات نادرست مصنوعی تولید کند. این کار به قدری میتواند نگرانکننده باشد که موجب ایجاد مخالفتهای گسترده علیه پیشرفتهای بیشتر در ظرفیتهای هوش مصنوعی آن کشور شود.
کشورها بهسختی میتوانند درک روشنی از وضعیت خود نسبت به دیگران در مسابقه هوش مصنوعی پیدا کنند. در حال حاضر، بزرگترین مدلهای هوش مصنوعی در شبکههای امنی که از بقیه اینترنت جدا شدهاند، آموزش داده میشوند. برخی از مدیران معتقدند که توسعه هوش مصنوعی دیر یا زود به پناهگاههای غیرقابلنفوذی منتقل خواهد شد که ابررایانههای آنها با رآکتورهای هستهای تغذیه میشوند. مراکز داده اکنون در اعماق بستر اقیانوسها در حال ساخت هستند و بهزودی ممکن است در مدارهای اطراف زمین قرار گیرند. شرکتها یا کشورها ممکن است به طور فزایندهای «به طور مخفیانه» عمل کنند و انتشار تحقیقات هوش مصنوعی را متوقف کنند تا نهتنها از امکانپذیری اقدامات مخرب جلوگیری کنند، بلکه سرعت پیشرفت خود را نیز پنهان کنند. برای تحریف تصویر واقعی پیشرفت خود، برخی ممکن است حتی به طور عمدی تحقیقات گمراهکننده با کمک هوش مصنوعی در ایجاد جعلهای قانعکننده منتشر کنند.
برای چنین فریبهای علمی، تاریخچهای وجود دارد. در سال ۱۹۴۲، فیزیکدان روسی - «گئورگی فلوروف» [4] - به درستی نتیجهگیری کرد که ایالات متحده در حال ساخت بمب اتمی است؛ زیرا او متوجه شد که آمریکاییها و بریتانیاییها به طور ناگهانی انتشار مقالات علمی در مورد شکافت هستهای را متوقف کردهاند. امروزه باتوجهبه پیچیدگی و ابهام سنجش پیشرفت به سمت چیزی بسیار انتزاعی مانند هوش، چنین رقابتی بیشازپیش غیرقابلپیشبینی میشود. اگرچه برخی مزیت را معادل با اندازه مدلهای هوش مصنوعی در اختیارشان میدانند، اما یک مدل بزرگ، لزوماً در تمام زمینهها برتر نیست و ممکن است همیشه بر مدلهای کوچکتر که در مقیاس گستردهتری به کار گرفته میشوند، غلبه نکند. ماشینهای هوش مصنوعی کوچکتر و تخصصیتر ممکن است مانند گروهی از پهپادها در برابر یک ناو هواپیمابر عمل کنند که قادر به نابودی آن نیستند، اما برای خنثیکردن آن کافی هستند.
ممکن است تصور شود که یک بازیگر، در صورت نشاندادن موفقیت در یک قابلیت خاص، دارای یک مزیت کلی است؛ اما مشکل این نوع تفکر این است که هوش مصنوعی تنها به یک فرآیند یادگیری ماشین اشاره دارد که نهتنها در یک فناوری خاص، بلکه در طیف وسیعی از فناوریها گنجانده شده است. قابلیت داشتن در هر یک از زمینهها، ممکن است به عواملی کاملاً متفاوت از قابلیت در زمینهای دیگر وابسته باشد. به این ترتیب، هر «مزیتی» که به طور معمول محاسبه میشود، ممکن است توهمی باشد. علاوه بر این، همانطور که انفجار غیرمنتظره قابلیتهای هوش مصنوعی در سالهای اخیر نشان داده است، مسیر پیشرفت نه خطی و نه قابلپیشبینی است. حتی اگر بتوان گفت که یک بازیگر، پیشرو دیگران است، به طور تقریبی به تعداد سالها یا ماهها، یک پیشرفت ناگهانی فنی یا نظری در یک زمینه کلیدی در یک لحظه بحرانی میتواند موقعیت همه بازیکنان را معکوس کند. در چنین دنیایی، جایی که هیچ رهبری نمیتواند به معتبرترین اطلاعات خود، غریزههای اولیه خود یا حتی اساس واقعیت اعتماد کند، نمیتوان به دولتها خرده گرفت که از موضع حداکثری شک و سوءظن عمل کنند. در حال حاضر، رهبران بدون تردید با این فرض که تلاشهای آنها تحت نظارت است یا تحت نفوذ شدید و تحریف یا تغییر اطلاعات قرار دارند، تصمیم میگیرند.
محاسبات استراتژیک هر بازیگر در خط مقدم، با پیشفرض بدترین سناریوها، این خواهد بود که سرعت و رازداری را بر ایمنی اولویت دهد. رهبران انسانی ممکن است درگیر این ترس باشند که چیزی به نام جایگاه دوم وجود ندارد و بازی با حاصل جمع جبری صفر است. تحت این فشار، ممکن است بهکارگیری هوش مصنوعی بهعنوان عامل بازدارنده در برابر اختلالات خارجی، زودتر از موعد تسریع شود.
پارادایم جدید جنگ
در تقریباً تمام تاریخ بشر، جنگ در فضایی تعریفشده صورت گرفته است که در آن میشد با اطمینانی معقول از توانایی و موقعیت نیروهای دشمن آگاه بود. ترکیب این دو ویژگی به هر طرف این احساس امنیت روانی و توافق مشترک را میداد که امکان تعدیل آگاهانه تلفات وجود دارد. سرعت و تحرک، یکی از قابلپیشبینیترین عواملی بوده است که توانایی هر یک از تجهیزات نظامی را پشتیبانی میکند. نمونه اولیه، توسعه توپخانه است. به مدت یک هزاره پس از ساخت آن، دیوارهای «تئودوسیوس» - شهر بزرگ قسطنطنیه - را از مهاجمان بیرونی محافظت میکردند؛ اما در سال ۱۴۵۲، یک مهندس توپخانه مجارستانی به امپراتور «کنستانتین یازدهم» پیشنهاد داد که یک توپ غولپیکر بسازد که از پشت دیوارهای دفاعی به سمت مهاجمین شلیک کند و آنها را خرد کند. اما امپراتور متکبر و ازخودراضی که نه ابزار مادی و نه آیندهنگری برای تشخیص اهمیت این فناوری در اختیار نداشت، این پیشنهاد را رد کرد.
شرکتها میتوانند ائتلافهایی را برای تحکیم قدرت قابلتوجه خود تشکیل دهند. این اتحادهای شرکتی ممکن است کارکردهای سنتی دولت - ملت را بر عهده بگیرند.
متأسفانه از نظر او، مهندس مجارستانی یک مزدور بود. مهندس مجارستانی هم تاکتیک خود را تغییر داده، امپراتور را عوض کرد و طراحی خود را بهروز کرد تا قابلحملتر شود. این توپ جدید باید توسط حداقل ۶۰ گاو یا ۴۰۰ نفر حمل شود. وی به رقیب امپراتور - سلطان محمد دوم عثمانی - که در حال آمادهسازی برای محاصره این قلعه نفوذناپذیر بود، نزدیک شد. این مهندس مجارستانی خلاق، با ادعای اینکه این توپ میتواند «دیوارهای بابل را بشکند»، توجه جوانترین سلطان عثمانی را به خود جلب کرد و به نیروهای ترک کمک کرد تا در تنها ۵۵ روز، دیوارهای باستانی قسطنطنیه را در هم بشکنند.
ابعاد این درام در قرن پانزدهم بارهاوبارها در تاریخ تکرار شده است. در قرن نوزدهم، سرعت و تحرک، ابتدا سرنوشت فرانسه - وقتی ارتش ناپلئون بر اروپا غلبه یافت - را تغییر داد و سپس سرنوشت «پروس» را تحت هدایت «هلموت فون مولتکه» [5] و «آلبرشت فون روون» [6] که بر روی راهآهنهای تازه توسعهیافته سرمایهگذاری کردند تا مانور سریعتر و انعطافپذیرتری را ممکن سازند، تغییر داد. همچنین «حمله رعدآسا» - یک مدل از همان اصول نظامی آلمانی - در جنگ جهانی دوم علیه متفقین با تأثیر بزرگ و ترسناکی به کار گرفته شد.
«جنگ برقآسا» در عصر جنگ دیجیتال، معنا و گستردگی جدیدی یافته است. سرعتها آنی هستند. مهاجمان دیگر نیازی برای قربانیکردن تعداد زیادی از نیروهای خود برای حفظ تحرک ندارند؛ زیرا جغرافیا دیگر مانع نیست. اگرچه این ترکیب عمدتاً به نفع حمله در حملات دیجیتال بوده است، دوران هوش مصنوعی میتواند شاهد افزایش سرعت پاسخ و اجازه تطابق دفاعهای سایبری با حملات سایبری باشد.
در جنگهای مکانیکی و سخت، هوش مصنوعی یک جهش دیگر به جلو را ایجاد خواهد کرد. بهعنوانمثال، پهپادها بسیار سریع و بهصورت غیرقابلتصوری پویا خواهند بود. هنگامی که هوش مصنوعی برای هدایت نهتنها یک پهپاد، بلکه برای مدیریت ناوگان آنها به کار گرفته شود، تودهای از پهپادها شکل خواهند گرفت و بهصورت هماهنگ، مانند یک جمعیت یکپارچه پرواز خواهند کرد. علاوه بر این، هوش مصنوعی دفاع سریع و انعطافپذیر مشابهی را ارائه خواهد کرد. ساقط کردن ناوگان هواپیماهای بدون سرنشین با پرتابههای معمولی، غیرعملی است؛ اما تفنگهای مجهز به هوش مصنوعی که گلولههایی از فوتونها و الکترونها را شلیک میکنند (به جای مهمات) میتوانند همان ظرفیتهای مرگبار ناتوانکنندهای را که یک طوفان خورشیدی میتواند مدار ماهوارههای در معرض نور را سرخ کند، دوباره ایجاد کند.
سلاحهای مجهز به هوش مصنوعی به طور بیسابقهای دقیق خواهند بود. محدودیتهای دانش درباره جغرافیای دشمن، همواره تواناییها و نیتهای هر طرف جنگ را محدود کرده است، اما اتحاد علم و جنگ، تضمین کرده است که دقت ابزارها افزایش یابد و انتظار میرود هوش مصنوعی پیشرفتهای بیشتری را به ارمغان آورد؛ بنابراین هوش مصنوعی فاصله بین نیت اولیه و نتیجه نهایی، از جمله در کاربرد نیروی کشنده را کاهش میدهد. چه تودههای پهپادی زمینی، چه گروههای ماشینی مستقر در دریا یا احتمالاً ناوگان ماشینها از قابلیتهای بسیار دقیقی برای کشتن انسانها با حداقل درجه عدم اطمینان و تأثیر نامحدود برخوردار خواهند بود. محدودههای تخریب بالقوه تنها به اراده و مهار هر دو طرف - یعنی انسان و ماشین - بستگی خواهد داشت.
بااینحال، عصر جنگ با هوش مصنوعی در درجه اول به ارزیابی نه از قابلیتهای دشمن، بلکه به ارزیابی نیات و کاربردهای استراتژیک آنها تقلیل خواهد یافت. در عصر هستهای، ما قبلاً به چنین مرحلهای وارد شدهایم، اما اهمیت آن با اثبات ارزش هوش مصنوعی بهعنوان سلاح جنگی، بهوضوح بیشتری نمایان خواهد شد. با وجود چنین فناوری ارزشمندی، انسانها ممکن است حتی هدفهای اصلی جنگهای مبتنی بر هوش مصنوعی نباشند. هوش مصنوعی در واقع میتواند انسانها را بهعنوان یک نیروی نیابتی در جنگ حذف کند و جنگ را کمتر مرگآور کند. اما مرگآوری کمتر، به معنی عدم تعیینکنندگی و اهمیت آن نخواهد بود. همچنین در آینده به نظر نمیرسد که تنها تصاحب سرزمین بتواند موجب تهاجم هوش مصنوعی شود، اما مراکز داده و زیرساختهای دیجیتال حیاتی، قطعاً هدف حملات خواهند بود. پس شکست و تسلیمشدن زمانی اتفاق نمیافتد که تعداد حریف کاهش یابد و زرادخانهاش خالی شود، بلکه زمانی اتفاق میافتد که هوش مصنوعی ناتوان از حفظ دارایی فناورانه دولتها شود.
حتی انگیزههای حاکم بر میدان جنگ جدید نیز تا حدودی بیگانه خواهد بود. نویسنده انگلیسی - «جی کی چسترتون» [7] - یک بار به طعنه گفت: «سرباز واقعی نه به دلیل تنفر از چیزی که در مقابلش قرار گرفته، بلکه به دلیل عشق به چیزی که در پشت سرش قرار دارد میجنگد.» بعید است که جنگ مبتنی بر هوش مصنوعی، شامل عشق یا نفرت باشد، چه رسد به مفهوم شجاعت سرباز و از سوی دیگر، ممکن است هنوز شامل خودخواهی، هویت و وفاداری باشد. هرچند که ماهیت آن هویتها و وفاداریها، ممکن است با آنچه امروز وجود دارد سازگار نباشد.
محاسبه در جنگ همواره نسبتاً ساده بوده است. هر طرفی که اولینبار درد نبرد را غیرقابلتحمل بداند، احتمالاً شکست خواهد خورد. آگاهی از نواقص و کاستیهای خود در گذشته موجب احتیاط و خویشتنداری شده است. بدون چنین آگاهی و بدون حس درد، نمیتوان جز این تصور کرد که چه چیزی میتواند موجب احتیاط در جنگهای هوش مصنوعی شود یا چه چیزی میتواند به پایاندادن به درگیریها منجر شود. یک هوش مصنوعی بازی شطرنج، اگر هرگز از قوانین تعیینکننده پایان بازی مطلع نشده باشد، میتواند تا آخرین مهره بازی کند.
بازسازی ژئوپلیتیک
در هر دورهای از تاریخ بشر، تقریباً بهعنوان پیروی از یک قانون طبیعی، دولتی ظهور کرده است که همانطور که کیسینجر گفت «قدرت، اراده و انگیزههای فکری و اخلاقی» لازم را برای شکلدهی به کل نظام بینالمللی مطابق با ارزشهای خود داشته است. آشناترین ساختار تمدنهای انسانی، سیستم «وستفالیایی» است که به طور متداول درک میشود. بااینحال، ایده دولت - ملت مستقل، تنها چند قرن قدمت دارد و از معاهداتی که مجموعاً بهعنوان صلح وستفالیا در اواسط قرن هفدهم شناخته میشوند، پدید آمده است. این واحد اجتماعی به طور پیشفرض و به طور از قبل تعین شده وجود نداشته است و ممکن است برای عصر هوش مصنوعی مناسب نباشد. در واقع با افزایش اطلاعات نادرست و تبعیض خودکار که منجر به از دست رفتن ایمان به این ساختار میشود، هوش مصنوعی ممکن است چالشی ذاتی برای قدرت دولتهای ملی ایجاد کند.
بهعلاوه، هوش مصنوعی ممکن است موقعیتهای نسبی رقبای موجود در سیستم امروز را بازتنظیم کند. اگر قدرتهای آن عمدتاً توسط خود دولتهای ملی مهار شده و به کار گرفته شود، بشریت ممکن است مجبور به حرکت به سمت یک ایستایی هژمونیک یا یک موازنه جدید از دولتهای ملی قدرت یافته از هوش مصنوعی شود. این فناوری همچنین میتواند کاتالیزوری برای یک انتقال بنیادیتر باشد؛ انتقال به یک سیستم کاملاً جدید که در آن دولتهای ملی مجبور به کنارگذاشتن نقش محوری خود در زیرساخت سیاسی جهانی شوند.
در جنگهای آینده، رقابت دیگر برای تصاحب سرزمین یا نابودی نیروهای انسانی طرف مقابل نخواهد بود؛ بلکه حمله به مراکز داده و زیرساختهای دیجیتال، رقبا را به تسلیم وا خواهد داشت.
یک احتمال این است که شرکتهایی که هوش مصنوعی را در اختیار دارند و آن را توسعه میدهند، قدرت اجتماعی، اقتصادی، نظامی و سیاسی کاملاً فراگیری را به دست آورند. دولتهای امروزی مجبورند با موقعیت دشوار خود بهعنوان حامیان شرکتهای خصوصی، با اعطای قدرت نظامی، سرمایه دیپلماتیک و وزن اقتصادی خود برای ترویج این شرکتهای داخلی و بهعنوان حامیان شهروندان عادی که نسبت به طمع و پنهانکاری انحصاری این شرکتها مشکوک هستند، کنار بیایند. این ممکن است تناقضی غیرقابلتحمل باشد. در همین حال، شرکتها میتوانند ائتلافهایی را برای تحکیم قدرت قابلتوجه خود تشکیل دهند. این اتحادهای شرکتی ممکن است کارکردهای سنتی دولت - ملت را به عهده بگیرند؛ اگرچه به جای اینکه به دنبال تعریف و گسترش سرزمینهای محدود باشند، شبکههای دیجیتال پراکنده را بهعنوان حوزه خود پرورش دهند.
یک گزینه دیگر نیز وجود دارد. انتشار کنترل نشده و منبعباز، میتواند باندها یا قبیلههای کوچکتری با ظرفیتهای هوش مصنوعی غیراستاندارد اما قابلتوجه ایجاد کند که برای اداره، تأمین و دفاع از خود در حوزهای محدود کافی است. در میان گروههای انسانی که اقتدار مستقر را به نفع حکمرانی غیرمتمرکز مالی و ارتباطی رد میکنند، چنین آنارشی اولیهای مبتنی بر فناوری میتواند در نهایت موفق شود. همچنین این گروهها ممکن است بُعد مذهبی داشته باشند. بههرحال از نظر دامنه، مسیحیت، اسلام و هندوئیسم همگی بزرگتر و پایدارتر از هر دولتی در تاریخ بودهاند. در عصر آینده، مذهب بیشتر از شهروندی و ملیت، ممکن است بهعنوان چارچوبی مرتبط برای هویت و وفاداری مطرح شود.
در هر دو حالت، آینده چه تحت سلطه ائتلافهای شرکتی باشد و چه به گروههای مذهبی پراکنده تقسیم شود، «سرزمینی» که هر گروه بر سر آن ادعا میکند و برای میجنگد - نه چند اینچ زمین، بلکه یک چشمانداز دیجیتال خواهد بود که به دنبال جلب وفاداری کاربران خود است. پیوندهای بین این کاربران و هر ادارهای، مفهوم سنتی شهروندی را تضعیف خواهد کرد و توافقات بین این نهادها، بههیچوجه شبیه ائتلافهای معمول نخواهد بود.
صلح و قدرت
سیاستهای خارجی دولت - ملتها بر اساس تعادل بین ایدهآلیسم و رئالیسم ساخته و سپس تنظیم شدهاند. موازنههای موقتی که توسط رهبران ما ایجاد شده است، در گذشته نه بهعنوان حالتهای پایانی، بلکه تنها بهعنوان استراتژیهای زودگذر (در صورت لزوم) برای زمان خود تلقی میشوند. دوگانگی بین تعقیب منافع و تعقیب ارزشها یا بین منافع یک دولت - ملت خاص و خیر جهانی، بخشی از این تکامل بیپایان بوده است. رهبران کشورهای کوچکتر در انجام دیپلماسی خود از نظر تاریخی، با صراحت پاسخ دادهاند و ضرورتهای بقای خود را در اولویت قرار دادهاند. در مقابل، مسئولان امپراتوریهای جهانی با وسایل لازم برای تحقق اهداف جدید، با وضعیت دشوارتری مواجه بودهاند.
از آغاز تمدن، با رشد واحدهای انسانی سطوح جدیدی از همکاری ایجاد شدهاند، اما امروز شاید بهخاطر مقیاس چالشهای سیارهای و همچنین نابرابریهای مادی مشهود در میان و در درون دولتها، یک واکنش منفی به این روند ظهور کرده است. هوش مصنوعی میتواند با نیازهای این مقیاس بزرگتر از حکومت انسانی همخوانی داشته باشد و قادر باشد نهتنها الزامات کشور را با جزئیات و دقت ببیند، بلکه تعاملات جهانی را نیز درک کند.
ما امیدواریم هوش مصنوعی که برای اهداف سیاسی در داخل و خارج از کشور به کار گرفته میشود، بتواند به موفقیتهایی فراتر از این زمینهها برسد. به طور ایدهآل، این فناوری میتواند راهحلهای جدید و بهینه جهانی ارائه دهد، با افق زمانی طولانیتر و دقت بیشتری نسبت به آنچه انسانها قادر به انجام آن هستند و به این ترتیب، منافع متضاد انسانی را همسو کند. در دنیای آینده، هوشهای ماشینی که در حال مدیریت تعارض و مذاکره برای صلح هستند، ممکن است به روشنکردن یا حتی غلبه بر معضلات سنتی کمک کنند. بااینحال، اگر هوش مصنوعی واقعاً بتواند مشکلاتی را که باید خودمان حل میکردیم حل کند، ممکن است با بحرانی از اعتماد مواجه شویم؛ بحرانی از اعتمادبهنفس بیش از حد یا حتی کمبود اعتمادبهنفس.
در مورد اول، هنگامی که محدودیتهای توانایی خود برای خوداصلاحی را درک کنیم، ممکن است دشوار باشد که اعتراف کنیم قدرت زیادی را به ماشینها در مدیریت مسائل وجودی رفتار انسانی واگذار کردهایم. در مورد دوم، درک اینکه صرفاً حذف اراده انسانی از مدیریت امور ما کافی بوده است تا مشکلات غیرقابلحل ما را حل کند، ممکن است به طرز بسیار صریحی نقاط ضعف طراحی انسانی را آشکار کند. اگر چه صلح، همواره تنها یک انتخاب داوطلبانه ساده بوده، اما هزینه نواقص انسانی با سکه جنگ دائمی پرداخت شده است. دانستن اینکه یک راهحل همواره وجود داشته اما هرگز توسط ما تصور نشده است، میتواند غرور انسان را در هم بشکند.
در مورد امنیت، بر خلاف جابهجایی مردم در تلاشهای علمی یا دیگر امور آکادمیک، ممکن است ما بهراحتی بیطرفی یک طرف ثالث را بهعنوان راهی ضروری برای برتری نسبت به خودخواهی انسانی بپذیریم؛ چنانکه انسانها بهراحتی نیاز به یک واسطه در یک طلاق پرتنش را تشخیص میدهند. برخی از بدترین ویژگیهای ما ممکن است ما را قادر سازد که بهترینهای خود را بروز دهیم؛ این که غریزه انسانی به سمت خودخواهی حتی به ضرر دیگران - برود، ممکن است ما را برای پذیرش هوش مصنوعی آماده کند.
https://www.foreignaffairs.com/united-states/war-and-peace-age-artificial-intelligence
[1] . ERIC SCHMIDT
[2] . CRAIG MUNDIE
[3] . Genesis: Artificial Intelligence, Hope, and the Human Spirit
[4] . Georgy Flyorov
[5] . Helmuth von Moltke (the Elder)
[6] . Albrecht von Roon
[7] . G. K. Chesterton
/ انتهای پیام /