آینده جنگ‌وصلح در جهان عصر هوش مصنوعی از نظر سه شخصیت برجسته؛

جنگ‌وصلح در عصر هوش مصنوعی

جنگ‌وصلح در عصر هوش مصنوعی
اگر دولت‌ها بخواهند موقعیت خود را در زمینه هوش مصنوعی ارتقا داده و به حداکثر پیشرفت در این زمینه نائل شوند، رقابتی میان نیروهای نظامی و سازمان‌های اطلاعاتی رقیب به وجود خواهد آمد که مشابه آن را بشریت هرگز تجربه نکرده است.

گروه جامعه و اقتصاد «سدید»؛ طی سال‌های اخیر با پیدایش هوش مصنوعی و گسترش استفاده از آن و پیشرفت‌های گسترده روزانه‌ای که در این ارتباط رخ می‌دهد، این موضوع توجه نظریه‌پردازان حوزه سیاست خارجی، امنیت بین‌الملل و روابط بین‌الملل را به خود جلب کرده است. «هنری کیسینجر» - وزیر امور خارجه سابق آمریکا - ، «اریک اشمیت» [1] - مدیرعامل سابق گوگل - و «گریگ موندی» [2] - مشاور ارشد مدیرعامل مایکروسافت - در کتاب «پیدایش هوش مصنوعی، امید و روح انسان» [3] (۲۰۲۴) به موضوع نقش هوش مصنوعی در موضوعات حیاتی بشر می‌پردازند. مقاله پیش رو، از این کتاب که سال جاری میلادی و پیش از مرگ کیسینجر تکمیل و استخراج شده و در وب‌سایت مجله آمریکایی «Foreign Affairs» منتشر شده است. این سه پژوهشگر برجسته تأکید می‌کنند که هوش مصنوعی، ممکن است آینده نظم جهانی را از خود متأثر کند و کشورها با علم به این که تسلط به هوش مصنوعی می‌تواند جایگاه آنها را در هرم توزیع قدرت جهانی و در نتیجه نظم آینده تعیین کند، وارد رقابت بسیار گسترده‌ای در این زمینه شده‌اند. آنها تأکید می‌کنند هوش مصنوعی تمامی مفاهیم سنتی جنگ‌وصلح را تغییر خواهد داد.

 

هوش مصنوعی عامل تعیین‌کننده نظم جهانی

از تنظیم مجدد استراتژی نظامی تا بازسازی دیپلماسی، هوش مصنوعی به یک عامل تعیین‌کننده اصلی نظم جهانی تبدیل خواهد شد. فارغ از ترس یا طرف‌داری، هوش مصنوعی امکان جدیدی از عینیت و بی‌طرفی را در تصمیم‌گیری استراتژیک معرفی می‌کند؛ اما این بی‌طرفی که هم توسط بازیگران صلح‌طلب و هم جنگ‌طلب‌ها مورداستفاده قرار می‌گیرد، باید ذهنیت انسانی را که برای اعمال مسئولانه قدرت ضروری است، حفظ کند. هوش مصنوعی در جنگ بهترین و بدترین تجلیات بشری را به تصویر خواهد کشید و به‌عنوان وسیله‌ای برای جنگ و پایان‌دادن به آن عمل خواهد کرد.

رهبران کشورها معتقدند که یک مزیت تاکتیکی جزئی، می‌تواند در هر درگیری در آینده تعیین‌کننده باشد و هوش مصنوعی می‌تواند همان مزیت را ارائه دهد.

مبارزه طولانی‌مدت بشریت برای پیشرفت در ترتیبات پیچیده‌تر، به‌نحوی‌که هیچ دولتی بر آن‌ها تسلط مطلق پیدا نکند، به‌صورت یک قانون پیوسته و بدون وقفه طبیعی درآمده است. در دنیایی که بازیگران اصلی هنوز انسان هستند - حتی اگر با هوش مصنوعی برای اطلاع‌رسانی، مشاوره و راهنمایی تجهیز شده باشند - کشورها باید درجه‌ای از ثبات را بر اساس هنجارهای مشترک رفتاری داشته باشند. اما اگر هوش مصنوعی به‌عنوان مجموعه‌ای از نهادهای سیاسی، دیپلماتیک و نظامی عملاً مستقل ظاهر شود، این امر، موازنه قدیمی قدرت را با یک عدم تعادل جدید و ناشناخته مواجه می‌کند. نظم بین‌المللی ناپایدار و در حال تغییری که طی چند قرن گذشته توسط کشورها ایجاد شده بود، بخشی از دلیل بقای خود را به برابری ذاتی بازیگران وابسته است. در دنیایی با عدم تقارن شدید، مخصوصاً اگر برخی کشورها با سرعت بیشتری نسبت به دیگران از هوش مصنوعی در بالاترین سطح استفاده کنند، تحولات بسیار کمتر قابل‌پیش‌بینی خواهد بود. در مواردی که برخی انسان‌ها ممکن است به طور نظامی یا دیپلماتیک در برابر یک کشور با هوش مصنوعی پیشرفته یا در برابر خود هوش مصنوعی قرار بگیرند، انسان‌ها ممکن است در بقا با مشکل مواجه شوند، چه رسد به رقابت. چنین نظمی می‌تواند شاهد فروپاشی داخلی جوامع و گسترش غیرقابل‌کنترل درگیری‌های خارجی باشد.

احتمالات دیگری نیز زیاد است. فراتر از جست‌وجوی امنیت، انسان‌ها مدت‌هاست که برای پیروزی یا دفاع از شرافت خود به جنگ پرداخته‌اند. ماشین‌ها در حال حاضر فاقد هرگونه تصوری از پیروزی یا شرافت هستند. آنها ممکن است هرگز به جنگ نروند و به جای آن - به‌عنوان‌مثال برای نقل و انتقال‌های فوری و به دقت تقسیم‌شده - سرزمین‌ها را بر اساس محاسبات پیچیده انتخاب کنند. همچنین ممکن است اقداماتی انجام دهند که به جنگ‌های خونین فرسایشی انسانی تبدیل می‌شود. در یک سناریو، نوع بشر ممکن است به‌قدری دگرگون شود که به طور کامل از خشونت‌های انسانی پرهیز کند. در سناریوی دیگر، ممکن است به طرزی کاملاً تحت سلطه فناوری قرار بگیریم که ما را به گذشته‌ای پر از توحش بازگرداند.

 

معمای امنیت در هوش مصنوعی

بسیاری از کشورها بر روی چگونگی «پیروزی در مسابقه هوش مصنوعی» تمرکز کرده‌اند. بخشی از این انگیزه قابل‌درک است. فرهنگ، تاریخ، ارتباطات و ادراک‌ها با هم ترکیب شده‌اند تا وضعیتی دیپلماتیک میان قدرت‌های بزرگ امروز ایجاد کنند تا ناامنی و شک‌وتردید را در طرفین تقویت کند. رهبران معتقدند که یک مزیت تاکتیکی جزئی می‌تواند در هر درگیری در آینده تعیین‌کننده باشد و هوش مصنوعی می‌تواند همان مزیت را ارائه دهد.

ممکن است شرکت‌هایی که هوش مصنوعی را در اختیار دارند و آن را توسعه می‌دهند، قدرت اجتماعی، اقتصادی، نظامی و سیاسی کاملاً فراگیری را به دست آورند.

اگر هر کشور بخواهد موقعیت خود را در زمینه هوش مصنوعی ارتقا داده و به حداکثر پیشرفت در این زمینه نائل شود، شرایط برای یک مسابقه روان‌شناختی میان نیروهای نظامی و سازمان‌های اطلاعاتی رقیب به وجود خواهد آمد که مشابه آن را بشریت هرگز تجربه نکرده است. یک معضل و معمای امنیتی وجودی در انتظار است. اولین آرزوی منطقی برای هر بازیگر انسانی که هوش مصنوعی فوق هوشمند را در اختیار داشته باشد (هوش مصنوعی فرضی باهوش‌تر از انسان) ممکن است تلاش برای تضمین این باشد که هیچ دولت دیگری این نسخه قدرتمند از فناوری را به دست نیاورد. هر بازیگر همچنین به طور منطقی می‌تواند فرض کند که رقیبش هم اگرچه با همان عدم اطمینان‌ها و خطرات مشابه روبرو است، اما در حال تفکر درباره اقدام مشابهی است.

در غیاب جنگ، یک هوش مصنوعی فوق‌هوشمند می‌تواند برنامه رقیب را تضعیف، تخریب و مسدود کند. به‌عنوان‌مثال، هوش مصنوعی وعده می‌دهد که ویروس‌های رایانه‌ای معمولی را با قدرت بی‌سابقه‌ای تقویت کرده و به طور کامل آنها را از دید پنهان کند. مانند ویروس رایانه‌ای «استاکس‌نت» که در سال ۲۰۱۰ کشف شد و تصور می‌شد که یک‌پنجم از سانتریفیوژهای اورانیوم ایران را خراب کرده است. یک عامل هوش مصنوعی می‌تواند پیشرفت رقیب را خراب کند و درعین‌حال حضور خود را هم پنهان نماید و در نتیجه دانشمندان دشمن را وادار به تعقیب سایه‌ها کند. یک هوش مصنوعی با ظرفیت منحصربه‌فرد خود برای دستکاری نقاط ضعف در روان‌شناسی انسانی، می‌تواند رسانه‌های یک کشور رقیب را به کنترل خود درآورده و سیلابی از اطلاعات نادرست مصنوعی تولید کند. این کار به قدری می‌تواند نگران‌کننده باشد که موجب ایجاد مخالفت‌های گسترده علیه پیشرفت‌های بیشتر در ظرفیت‌های هوش مصنوعی آن کشور شود.

کشورها به‌سختی می‌توانند درک روشنی از وضعیت خود نسبت به دیگران در مسابقه هوش مصنوعی پیدا کنند. در حال حاضر، بزرگ‌ترین مدل‌های هوش مصنوعی در شبکه‌های امنی که از بقیه اینترنت جدا شده‌اند، آموزش داده می‌شوند. برخی از مدیران معتقدند که توسعه هوش مصنوعی دیر یا زود به پناهگاه‌های غیرقابل‌نفوذی منتقل خواهد شد که ابررایانه‌های آن‌ها با رآکتورهای هسته‌ای تغذیه می‌شوند. مراکز داده اکنون در اعماق بستر اقیانوس‌ها در حال ساخت هستند و به‌زودی ممکن است در مدارهای اطراف زمین قرار گیرند. شرکت‌ها یا کشورها ممکن است به طور فزاینده‌ای «به طور مخفیانه» عمل کنند و انتشار تحقیقات هوش مصنوعی را متوقف کنند تا نه‌تنها از امکان‌پذیری اقدامات مخرب جلوگیری کنند، بلکه سرعت پیشرفت خود را نیز پنهان کنند. برای تحریف تصویر واقعی پیشرفت خود، برخی ممکن است حتی به طور عمدی تحقیقات گمراه‌کننده با کمک هوش مصنوعی در ایجاد جعل‌های قانع‌کننده منتشر کنند.

برای چنین فریب‌های علمی، تاریخچه‌ای وجود دارد. در سال ۱۹۴۲، فیزیک‌دان روسی - «گئورگی فلوروف» [4] - به درستی نتیجه‌گیری کرد که ایالات متحده در حال ساخت بمب اتمی است؛ زیرا او متوجه شد که آمریکایی‌ها و بریتانیایی‌ها به طور ناگهانی انتشار مقالات علمی در مورد شکافت هسته‌ای را متوقف کرده‌اند. امروزه باتوجه‌به پیچیدگی و ابهام سنجش پیشرفت به سمت چیزی بسیار انتزاعی مانند هوش، چنین رقابتی بیش‌ازپیش غیرقابل‌پیش‌بینی می‌شود. اگرچه برخی مزیت را معادل با اندازه مدل‌های هوش مصنوعی در اختیارشان می‌دانند، اما یک مدل بزرگ، لزوماً در تمام زمینه‌ها برتر نیست و ممکن است همیشه بر مدل‌های کوچک‌تر که در مقیاس گسترده‌تری به کار گرفته می‌شوند، غلبه نکند. ماشین‌های هوش مصنوعی کوچک‌تر و تخصصی‌تر ممکن است مانند گروهی از پهپادها در برابر یک ناو هواپیمابر عمل کنند که قادر به نابودی آن نیستند، اما برای خنثی‌کردن آن کافی هستند.

ممکن است تصور شود که یک بازیگر، در صورت نشان‌دادن موفقیت در یک قابلیت خاص، دارای یک مزیت کلی است؛ اما مشکل این نوع تفکر این است که هوش مصنوعی تنها به یک فرآیند یادگیری ماشین اشاره دارد که نه‌تنها در یک فناوری خاص، بلکه در طیف وسیعی از فناوری‌ها گنجانده شده است. قابلیت داشتن در هر یک از زمینه‌ها، ممکن است به عواملی کاملاً متفاوت از قابلیت در زمینه‌ای دیگر وابسته باشد. به این ترتیب، هر «مزیتی» که به طور معمول محاسبه می‌شود، ممکن است توهمی باشد. علاوه بر این، همان‌طور که انفجار غیرمنتظره قابلیت‌های هوش مصنوعی در سال‌های اخیر نشان داده است، مسیر پیشرفت نه خطی و نه قابل‌پیش‌بینی است. حتی اگر بتوان گفت که یک بازیگر، پیشرو دیگران است، به طور تقریبی به تعداد سال‌ها یا ماه‌ها، یک پیشرفت ناگهانی فنی یا نظری در یک زمینه کلیدی در یک لحظه بحرانی می‌تواند موقعیت همه بازیکنان را معکوس کند. در چنین دنیایی، جایی که هیچ رهبری نمی‌تواند به معتبرترین اطلاعات خود، غریزه‌های اولیه خود یا حتی اساس واقعیت اعتماد کند، نمی‌توان به دولت‌ها خرده گرفت که از موضع حداکثری شک و سوءظن عمل کنند. در حال حاضر، رهبران بدون تردید با این فرض که تلاش‌های آنها تحت نظارت است یا تحت نفوذ شدید و تحریف یا تغییر اطلاعات قرار دارند، تصمیم می‌گیرند.

محاسبات استراتژیک هر بازیگر در خط مقدم، با پیش‌فرض بدترین سناریوها، این خواهد بود که سرعت و رازداری را بر ایمنی اولویت دهد. رهبران انسانی ممکن است درگیر این ترس باشند که چیزی به نام جایگاه دوم وجود ندارد و بازی با حاصل جمع جبری صفر است. تحت این فشار، ممکن است به‌کارگیری هوش مصنوعی به‌عنوان عامل بازدارنده در برابر اختلالات خارجی، زودتر از موعد تسریع شود.

 

پارادایم جدید جنگ

در تقریباً تمام تاریخ بشر، جنگ در فضایی تعریف‌شده صورت گرفته است که در آن می‌شد با اطمینانی معقول از توانایی و موقعیت نیروهای دشمن آگاه بود. ترکیب این دو ویژگی به هر طرف این احساس امنیت روانی و توافق مشترک را می‌داد که امکان تعدیل آگاهانه تلفات وجود دارد. سرعت و تحرک، یکی از قابل‌پیش‌بینی‌ترین عواملی بوده است که توانایی هر یک از تجهیزات نظامی را پشتیبانی می‌کند. نمونه اولیه، توسعه توپخانه است. به مدت یک هزاره پس از ساخت آن، دیوارهای «تئودوسیوس» - شهر بزرگ قسطنطنیه - را از مهاجمان بیرونی محافظت می‌کردند؛ اما در سال ۱۴۵۲، یک مهندس توپخانه مجارستانی به امپراتور «کنستانتین یازدهم» پیشنهاد داد که یک توپ غول‌پیکر بسازد که از پشت دیوارهای دفاعی به سمت مهاجمین شلیک کند و آن‌ها را خرد کند. اما امپراتور متکبر و ازخودراضی که نه ابزار مادی و نه آینده‌نگری برای تشخیص اهمیت این فناوری در اختیار نداشت، این پیشنهاد را رد کرد.

شرکت‌ها می‌توانند ائتلاف‌هایی را برای تحکیم قدرت قابل‌توجه خود تشکیل دهند. این اتحادهای شرکتی ممکن است کارکردهای سنتی دولت - ملت را بر عهده بگیرند.

متأسفانه از نظر او، مهندس مجارستانی یک مزدور بود. مهندس مجارستانی هم تاکتیک خود را تغییر داده، امپراتور را عوض کرد و طراحی خود را به‌روز کرد تا قابل‌حمل‌تر شود. این توپ جدید باید توسط حداقل ۶۰ گاو یا ۴۰۰ نفر حمل شود. وی به رقیب امپراتور - سلطان محمد دوم عثمانی - که در حال آماده‌سازی برای محاصره این قلعه نفوذناپذیر بود، نزدیک شد. این مهندس مجارستانی خلاق، با ادعای اینکه این توپ می‌تواند «دیوارهای بابل را بشکند»، توجه جوان‌ترین سلطان عثمانی را به خود جلب کرد و به نیروهای ترک کمک کرد تا در تنها ۵۵ روز، دیوارهای باستانی قسطنطنیه را در هم بشکنند.

ابعاد این درام در قرن پانزدهم بارهاوبارها در تاریخ تکرار شده است. در قرن نوزدهم، سرعت و تحرک، ابتدا سرنوشت فرانسه - وقتی ارتش ناپلئون بر اروپا غلبه یافت - را تغییر داد و سپس سرنوشت «پروس» را تحت هدایت «هلموت فون مولتکه» [5] و «آلبرشت فون روون» [6] که بر روی راه‌آهن‌های تازه توسعه‌یافته سرمایه‌گذاری کردند تا مانور سریع‌تر و انعطاف‌پذیرتری را ممکن سازند، تغییر داد. همچنین «حمله رعدآسا» - یک مدل از همان اصول نظامی آلمانی - در جنگ جهانی دوم علیه متفقین با تأثیر بزرگ و ترسناکی به کار گرفته شد.

«جنگ برق‌آسا» در عصر جنگ دیجیتال، معنا و گستردگی جدیدی یافته است. سرعت‌ها آنی هستند. مهاجمان دیگر نیازی برای قربانی‌کردن تعداد زیادی از نیروهای خود برای حفظ تحرک ندارند؛ زیرا جغرافیا دیگر مانع نیست. اگرچه این ترکیب عمدتاً به نفع حمله در حملات دیجیتال بوده است، دوران هوش مصنوعی می‌تواند شاهد افزایش سرعت پاسخ و اجازه تطابق دفاع‌های سایبری با حملات سایبری باشد.

در جنگ‌های مکانیکی و سخت، هوش مصنوعی یک جهش دیگر به جلو را ایجاد خواهد کرد. به‌عنوان‌مثال، پهپادها بسیار سریع و به‌صورت غیرقابل‌تصوری پویا خواهند بود. هنگامی که هوش مصنوعی برای هدایت نه‌تنها یک پهپاد، بلکه برای مدیریت ناوگان آنها به کار گرفته شود، توده‌ای از پهپادها شکل خواهند گرفت و به‌صورت هماهنگ، مانند یک جمعیت یکپارچه پرواز خواهند کرد. علاوه بر این، هوش مصنوعی دفاع سریع و انعطاف‌پذیر مشابهی را ارائه خواهد کرد. ساقط کردن ناوگان هواپیماهای بدون سرنشین با پرتابه‌های معمولی، غیرعملی است؛ اما تفنگ‌های مجهز به هوش مصنوعی که گلوله‌هایی از فوتون‌ها و الکترون‌ها را شلیک می‌کنند (به جای مهمات) می‌توانند همان ظرفیت‌های مرگبار ناتوان‌کننده‌ای را که یک طوفان خورشیدی می‌تواند مدار ماهواره‌های در معرض نور را سرخ کند، دوباره ایجاد کند.

سلاح‌های مجهز به هوش مصنوعی به طور بی‌سابقه‌ای دقیق خواهند بود. محدودیت‌های دانش درباره جغرافیای دشمن، همواره توانایی‌ها و نیت‌های هر طرف جنگ را محدود کرده است، اما اتحاد علم و جنگ، تضمین کرده است که دقت ابزارها افزایش یابد و انتظار می‌رود هوش مصنوعی پیشرفت‌های بیشتری را به ارمغان آورد؛ بنابراین هوش مصنوعی فاصله بین نیت اولیه و نتیجه نهایی، از جمله در کاربرد نیروی کشنده را کاهش می‌دهد. چه توده‌های پهپادی زمینی، چه گروه‌های ماشینی مستقر در دریا یا احتمالاً ناوگان ماشین‌ها از قابلیت‌های بسیار دقیقی برای کشتن انسان‌ها با حداقل درجه عدم اطمینان و تأثیر نامحدود برخوردار خواهند بود. محدوده‌های تخریب بالقوه تنها به اراده و مهار هر دو طرف - یعنی انسان و ماشین - بستگی خواهد داشت.

بااین‌حال، عصر جنگ با هوش مصنوعی در درجه اول به ارزیابی نه از قابلیت‌های دشمن، بلکه به ارزیابی نیات و کاربردهای استراتژیک آنها تقلیل خواهد یافت. در عصر هسته‌ای، ما قبلاً به چنین مرحله‌ای وارد شده‌ایم، اما اهمیت آن با اثبات ارزش هوش مصنوعی به‌عنوان سلاح جنگی، به‌وضوح بیشتری نمایان خواهد شد. با وجود چنین فناوری ارزشمندی، انسان‌ها ممکن است حتی هدف‌های اصلی جنگ‌های مبتنی بر هوش مصنوعی نباشند. هوش مصنوعی در واقع می‌تواند انسان‌ها را به‌عنوان یک نیروی نیابتی در جنگ حذف کند و جنگ را کم‌تر مرگ‌آور کند. اما مرگ‌آوری کمتر، به معنی عدم تعیین‌کنندگی و اهمیت آن نخواهد بود. همچنین در آینده به نظر نمی‌رسد که تنها تصاحب سرزمین بتواند موجب تهاجم هوش مصنوعی شود، اما مراکز داده و زیرساخت‌های دیجیتال حیاتی، قطعاً هدف حملات خواهند بود. پس شکست و تسلیم‌شدن زمانی اتفاق نمی‌افتد که تعداد حریف کاهش یابد و زرادخانه‌اش خالی شود، بلکه زمانی اتفاق می‌افتد که هوش مصنوعی ناتوان از حفظ دارایی فناورانه دولت‌ها شود.

حتی انگیزه‌های حاکم بر میدان جنگ جدید نیز تا حدودی بیگانه خواهد بود. نویسنده انگلیسی - «جی کی چسترتون» [7] - یک بار به طعنه گفت: «سرباز واقعی نه به دلیل تنفر از چیزی که در مقابلش قرار گرفته، بلکه به دلیل عشق به چیزی که در پشت سرش قرار دارد می‌جنگد.» بعید است که جنگ مبتنی بر هوش مصنوعی، شامل عشق یا نفرت باشد، چه رسد به مفهوم شجاعت سرباز و از سوی دیگر، ممکن است هنوز شامل خودخواهی، هویت و وفاداری باشد. هرچند که ماهیت آن هویت‌ها و وفاداری‌ها، ممکن است با آنچه امروز وجود دارد سازگار نباشد.

محاسبه در جنگ همواره نسبتاً ساده بوده است. هر طرفی که اولین‌بار درد نبرد را غیرقابل‌تحمل بداند، احتمالاً شکست خواهد خورد. آگاهی از نواقص و کاستی‌های خود در گذشته موجب احتیاط و خویشتن‌داری شده است. بدون چنین آگاهی و بدون حس درد، نمی‌توان جز این تصور کرد که چه چیزی می‌تواند موجب احتیاط در جنگ‌های هوش مصنوعی شود یا چه چیزی می‌تواند به پایان‌دادن به درگیری‌ها منجر شود. یک هوش مصنوعی بازی شطرنج، اگر هرگز از قوانین تعیین‌کننده پایان بازی مطلع نشده باشد، می‌تواند تا آخرین مهره بازی کند.

 

بازسازی ژئوپلیتیک

در هر دوره‌ای از تاریخ بشر، تقریباً به‌عنوان پیروی از یک قانون طبیعی، دولتی ظهور کرده است که همان‌طور که کیسینجر گفت «قدرت، اراده و انگیزه‌های فکری و اخلاقی» لازم را برای شکل‌دهی به کل نظام بین‌المللی مطابق با ارزش‌های خود داشته است. آشناترین ساختار تمدن‌های انسانی، سیستم «وستفالیایی» است که به طور متداول درک می‌شود. بااین‌حال، ایده دولت - ملت مستقل، تنها چند قرن قدمت دارد و از معاهداتی که مجموعاً به‌عنوان صلح وستفالیا در اواسط قرن هفدهم شناخته می‌شوند، پدید آمده است. این واحد اجتماعی به طور پیش‌فرض و به طور از قبل تعین شده وجود نداشته است و ممکن است برای عصر هوش مصنوعی مناسب نباشد. در واقع با افزایش اطلاعات نادرست و تبعیض خودکار که منجر به از دست رفتن ایمان به این ساختار می‌شود، هوش مصنوعی ممکن است چالشی ذاتی برای قدرت دولت‌های ملی ایجاد کند.

به‌علاوه، هوش مصنوعی ممکن است موقعیت‌های نسبی رقبای موجود در سیستم امروز را بازتنظیم کند. اگر قدرت‌های آن عمدتاً توسط خود دولت‌های ملی مهار شده و به کار گرفته شود، بشریت ممکن است مجبور به حرکت به سمت یک ایستایی هژمونیک یا یک موازنه جدید از دولت‌های ملی قدرت یافته از هوش مصنوعی شود. این فناوری همچنین می‌تواند کاتالیزوری برای یک انتقال بنیادی‌تر باشد؛ انتقال به یک سیستم کاملاً جدید که در آن دولت‌های ملی مجبور به کنارگذاشتن نقش محوری خود در زیرساخت سیاسی جهانی شوند.

در جنگ‌های آینده، رقابت دیگر برای تصاحب سرزمین یا نابودی نیروهای انسانی طرف مقابل نخواهد بود؛ بلکه حمله به مراکز داده و زیرساخت‌های دیجیتال، رقبا را به تسلیم وا خواهد داشت.

یک احتمال این است که شرکت‌هایی که هوش مصنوعی را در اختیار دارند و آن را توسعه می‌دهند، قدرت اجتماعی، اقتصادی، نظامی و سیاسی کاملاً فراگیری را به دست آورند. دولت‌های امروزی مجبورند با موقعیت دشوار خود به‌عنوان حامیان شرکت‌های خصوصی، با اعطای قدرت نظامی، سرمایه دیپلماتیک و وزن اقتصادی خود برای ترویج این شرکت‌های داخلی و به‌عنوان حامیان شهروندان عادی که نسبت به طمع و پنهان‌کاری انحصاری این شرکت‌ها مشکوک هستند، کنار بیایند. این ممکن است تناقضی غیرقابل‌تحمل باشد. در همین حال، شرکت‌ها می‌توانند ائتلاف‌هایی را برای تحکیم قدرت قابل‌توجه خود تشکیل دهند. این اتحادهای شرکتی ممکن است کارکردهای سنتی دولت - ملت را به عهده بگیرند؛ اگرچه به جای اینکه به دنبال تعریف و گسترش سرزمین‌های محدود باشند، شبکه‌های دیجیتال پراکنده را به‌عنوان حوزه خود پرورش دهند.

یک گزینه دیگر نیز وجود دارد. انتشار کنترل نشده و منبع‌باز، می‌تواند باندها یا قبیله‌های کوچک‌تری با ظرفیت‌های هوش مصنوعی غیراستاندارد اما قابل‌توجه ایجاد کند که برای اداره، تأمین و دفاع از خود در حوزه‌ای محدود کافی است. در میان گروه‌های انسانی که اقتدار مستقر را به نفع حکمرانی غیرمتمرکز مالی و ارتباطی رد می‌کنند، چنین آنارشی اولیه‌ای مبتنی بر فناوری می‌تواند در نهایت موفق شود. همچنین این گروه‌ها ممکن است بُعد مذهبی داشته باشند. به‌هرحال از نظر دامنه، مسیحیت، اسلام و هندوئیسم همگی بزرگ‌تر و پایدارتر از هر دولتی در تاریخ بوده‌اند. در عصر آینده، مذهب بیشتر از شهروندی و ملیت، ممکن است به‌عنوان چارچوبی مرتبط برای هویت و وفاداری مطرح شود.

در هر دو حالت، آینده چه تحت سلطه ائتلاف‌های شرکتی باشد و چه به گروه‌های مذهبی پراکنده تقسیم شود، «سرزمینی» که هر گروه بر سر آن ادعا می‌کند و برای می‌جنگد - نه چند اینچ زمین، بلکه یک چشم‌انداز دیجیتال خواهد بود که به دنبال جلب وفاداری کاربران خود است. پیوندهای بین این کاربران و هر اداره‌ای، مفهوم سنتی شهروندی را تضعیف خواهد کرد و توافقات بین این نهادها، به‌هیچ‌وجه شبیه ائتلاف‌های معمول نخواهد بود.

 

صلح و قدرت

سیاست‌های خارجی دولت - ملت‌ها بر اساس تعادل بین ایده‌آلیسم و رئالیسم ساخته و سپس تنظیم شده‌اند. موازنه‌های موقتی که توسط رهبران ما ایجاد شده است، در گذشته نه به‌عنوان حالت‌های پایانی، بلکه تنها به‌عنوان استراتژی‌های زودگذر (در صورت لزوم) برای زمان خود تلقی می‌شوند. دوگانگی بین تعقیب منافع و تعقیب ارزش‌ها یا بین منافع یک دولت - ملت خاص و خیر جهانی، بخشی از این تکامل بی‌پایان بوده است. رهبران کشورهای کوچک‌تر در انجام دیپلماسی خود از نظر تاریخی، با صراحت پاسخ داده‌اند و ضرورت‌های بقای خود را در اولویت قرار داده‌اند. در مقابل، مسئولان امپراتوری‌های جهانی با وسایل لازم برای تحقق اهداف جدید، با وضعیت دشوارتری مواجه بوده‌اند.

از آغاز تمدن، با رشد واحدهای انسانی سطوح جدیدی از همکاری ایجاد شده‌اند، اما امروز شاید به‌خاطر مقیاس چالش‌های سیاره‌ای و همچنین نابرابری‌های مادی مشهود در میان و در درون دولت‌ها، یک واکنش منفی به این روند ظهور کرده است. هوش مصنوعی می‌تواند با نیازهای این مقیاس بزرگ‌تر از حکومت انسانی همخوانی داشته باشد و قادر باشد نه‌تنها الزامات کشور را با جزئیات و دقت ببیند، بلکه تعاملات جهانی را نیز درک کند.

ما امیدواریم هوش مصنوعی که برای اهداف سیاسی در داخل و خارج از کشور به کار گرفته می‌شود، بتواند به موفقیت‌هایی فراتر از این زمینه‌ها برسد. به طور ایده‌آل، این فناوری می‌تواند راه‌حل‌های جدید و بهینه جهانی ارائه دهد، با افق زمانی طولانی‌تر و دقت بیشتری نسبت به آنچه انسان‌ها قادر به انجام آن هستند و به این ترتیب، منافع متضاد انسانی را همسو کند. در دنیای آینده، هوش‌های ماشینی که در حال مدیریت تعارض و مذاکره برای صلح هستند، ممکن است به روشن‌کردن یا حتی غلبه بر معضلات سنتی کمک کنند. بااین‌حال، اگر هوش مصنوعی واقعاً بتواند مشکلاتی را که باید خودمان حل می‌کردیم حل کند، ممکن است با بحرانی از اعتماد مواجه شویم؛ بحرانی از اعتمادبه‌نفس بیش از حد یا حتی کمبود اعتمادبه‌نفس.

در مورد اول، هنگامی که محدودیت‌های توانایی خود برای خوداصلاحی را درک کنیم، ممکن است دشوار باشد که اعتراف کنیم قدرت زیادی را به ماشین‌ها در مدیریت مسائل وجودی رفتار انسانی واگذار کرده‌ایم. در مورد دوم، درک اینکه صرفاً حذف اراده انسانی از مدیریت امور ما کافی بوده است تا مشکلات غیرقابل‌حل ما را حل کند، ممکن است به طرز بسیار صریحی نقاط ضعف طراحی انسانی را آشکار کند. اگر چه صلح، همواره تنها یک انتخاب داوطلبانه ساده بوده، اما هزینه نواقص انسانی با سکه جنگ دائمی پرداخت شده است. دانستن اینکه یک راه‌حل همواره وجود داشته اما هرگز توسط ما تصور نشده است، می‌تواند غرور انسان را در هم بشکند.

در مورد امنیت، بر خلاف جابه‌جایی مردم در تلاش‌های علمی یا دیگر امور آکادمیک، ممکن است ما به‌راحتی بی‌طرفی یک طرف ثالث را به‌عنوان راهی ضروری برای برتری نسبت به خودخواهی انسانی بپذیریم؛ چنان‌که انسان‌ها به‌راحتی نیاز به یک واسطه در یک طلاق پرتنش را تشخیص می‌دهند. برخی از بدترین ویژگی‌های ما ممکن است ما را قادر سازد که بهترین‌های خود را بروز دهیم؛ این که غریزه انسانی به سمت خودخواهی حتی به ضرر دیگران - برود، ممکن است ما را برای پذیرش هوش مصنوعی آماده کند.

https://www.foreignaffairs.com/united-states/war-and-peace-age-artificial-intelligence

 

[1] . ERIC SCHMIDT

[2] . CRAIG MUNDIE

[3] . Genesis: Artificial Intelligence, Hope, and the Human Spirit

[4] . Georgy Flyorov

[5] . Helmuth von Moltke (the Elder)

[6] . Albrecht von Roon

[7] . G. K. Chesterton

/ انتهای پیام /