رهبر انقلاب اسلامی با هشدار درباره خطرات بهرهبردار بودن صرف از این فناوری، بر ضرورت تسلط بر لایههای عمیق و متنوع هوش مصنوعی تأکید میکنند و میگویند: «بهرهبردار بودن در مسئله هوش مصنوعی امتیاز محسوب نمیشود. این فناوری لایههای عمیق و متنوعی دارد که در اختیار دیگران است. اگر نتوانیم بر این لایهها مسلط شویم، در آینده ممکن است ساختارهایی مشابه آژانسهای بینالمللی ایجاد شود که برای استفاده از بخشهای مختلف هوش مصنوعی، اجازه یا محدودیت اعمال کنند. قدرتطلبان و فرصتطلبان دنیا به دنبال چنین اقداماتی هستند.» ۱۴۰۳/۰۶/۰۶
حضرت آیتالله خامنهای تأکید میکنند که کشور باید حداقل در میان ده کشور برتر جهان در حوزه هوش مصنوعی قرار گیرد و به دولت چهاردهم توصیه کردهاند که «در زمان دولت سیزدهم، سازمانی به نام "سازمان ملی هوش مصنوعی" زیر نظر رئیسجمهور تشکیل شد. اگر این سازمان همچنان با نظارت مستقیم رئیسجمهور به فعالیت خود ادامه دهد، امیدواری زیادی برای دستیابی به اهداف متصور در این حوزه وجود خواهد داشت.»
رهبر انقلاب از مسئولان خواستهاند تا با برنامهریزی دقیق، فناوری هوش مصنوعی را بهعنوان یکی از ارکان اصلی پیشرفت کشور در اولویت قرار دهند و زمینههای رشد آن را در همه سطوح فراهم کنند.
از این رو، در ادامه مطالب پروندهی «بررسی الزامات پیشرفت ایران در حوزه هوش مصنوعی»، گفتوگویی با دکتر کاظم فولادی قلعه، عضو هیئت علمی دانشگاه تهران و سرپرست آزمایشگاه فضای سایبر دانشگاه تهران، به بررسی موضوع حکمرانی بر بستر هوش مصنوعی پرداخته است.
به نظر میرسد که امروز، حدّاقل برای مردم ما، هوش مصنوعی در جنبههای سرگرمی و تفریحی آن خلاصه شده و مردم هنوز از واقعیّت هوش مصنوعی و کاربردهای جدّیای که در زندگیشان میتواند داشته باشد، خیلی خبر ندارند. لطفاً یک مقدار به صورت جدّیتر از این موضوع بگویید و بفرمایید که هوش مصنوعی چه کاربردهای جدّیای در زندگی مردم دارد.
بسم الله الرّحمن الرّحیم. ابتدا خدمت جنابعالی و همچنین مخاطبانی که این مصاحبه را میبینند سلام عرض میکنم و افتخار دارم که برای توضیح و تشریح این موضوع بسیار مهم در خدمتتان هستم. در واقع، آینده به گونهای است که هر کسی در هر مجموعهای و در هر شغلی مشغول کار است، از مقولهی هوش مصنوعی متأثّر میشود و همانطور که فرمودید، یکی از اوّلین تأثیراتش در همین زمینههای معیشت و اقتصاد مردم و به طور کلّی در زندگی مردم است.
ببینید! خیلی از بخشهای زندگی ما به نوعی وابستگی به تصمیمات هوشمند دارد و تا زمانی که ماشینها نتوانند آن کیفیّت لازم را در این تصمیمگیری و چیزهای شبیه به این ارائه بدهند، خود انسانها این کارها را انجام میدهند. مثلاً فرض کنید یک کسی میخواهد مجوّز یک فعّالیّتی را بگیرد، امّا با وجود همهی سازوکارهای پیشرفتهای که امروز در حوزهی آیتی برای صدور این مجوّز فعّالیّت پیشبینی شده ــ مثل همین درگاه خدمات واحدهای که دولت ایجاد کرده ــ در نهایت، یک شوراهایی باید بنشینند تصمیماتی بگیرند که آنها هم قاعدتاً بر حسب یک معیارهایی این کار را انجام میدهند. اگر هوش مصنوعی مثلاً در یک چنین حوزهای نهادینه بشود و جا بیفتد، عملاً میشود این شوراها را کنار گذاشت و این کارهایی را که مردم مثلاً در راهاندازی کسبوکار به آن نیاز دارند، کامپیوتر با الگوریتمهای پیشرفتهای که دارد، شاید حتّی بتواند دقیقتر از مجموعههای انسانی هم انجام بدهد و خود همین باعث میشود که حجم بالایی از کارها در زمان خیلی کوتاهتری رقم بخورد و حتّی این سیستم میتواند خیلی باحوصلهتر از آدمها باشد. اگر مثلاً یک کسی بخواهد در مورد همان کسبوکاری که دنبال مجوّزش است مشاوره بگیرد که مثلاً آیا من این کار را شروع بکنم یا نه، ممکن است امروز یک مشاور انسانی خوب گیرش بیاید و راهنمایی مناسبی به او بدهد، ممکن هم هست این اتّفاق نیفتد و او مجوّز هم بگیرد و کارش را شروع کند، امّا خدای ناکرده شکست بخورد. اگر در یک چنین کاربردی هوش مصنوعی جای خودش را به طور واقعی پیدا بکند، آن فرد که درخواست مجوّز داد، به آن مراحل تصمیمگیری که میرسد، دیگر معطّل انسان و تشکیلات انسانی نمیشود و همان سیستم میتواند معیارها را بررسی بکند و حتّی مشاورههایی به فرد بدهد، بگوید مثلاً اگر این کار را شروع بکنی ممکن است که در یک چنین مواردی با چالشهایی روبهرو بشوی یا حتّی بهعکس، ممکن است مثلاً پیشنهاد بکند که این حوزه خیلی مهم است، شما اگر ورود بکنی مثلاً میتوانی سود کلانی در طول سال داشته باشی. به هر صورت، ضمن اینکه دارد فعّالیّتهای آن انسانها را انجام میدهد، یک ارتباط مناسبی هم با مخاطبش برقرار میکند. در نهایت، اوّلاً آن گلوگاههایی که تصمیمگیریهای هوشمند انسانی در آنها ضروری بوده کنار گذاشته میشود و امور تسهیل میشود، سرعت کارها بالاتر میرود، حجم کارهایی که در واحد زمان قابل انجام است افزایش پیدا میکند و به نظر میرسد بعضی از این معضلات نظام اداری که برای مردم مشکل ایجاد میکند برطرف میشود.
البتّه مثالهای دیگری هم میشود زد. مثلاً فرض کنید در مقولهی آموزش، یک فردی میخواهد در مورد یک حرفهای آموزش ببیند؛ هوش مصنوعی میتواند راهنماییاش بکند که در این زمینه بهتر است که شما از چه مسیری جلو بروی. این راهنمایی هم میتواند کاملاً اختصاصی باشد؛ یعنی برای هر فردی متناسب با استعدادی که دارد، متناسب با امکاناتی که دارد و در محلّی که زندگی میکند، یک راهنمایی اختصاصی صورت بگیرد و بهترین گزینه به او پیشنهاد بشود. پس در حوزههای آموزشی هم ما برای هر فردی، متناسب با نیازی که داریم، میتوانیم محتوای آموزشی اختصاصی ارائه بکنیم.
برگردیم به حوزهی کسبوکار. کسی یک چیزی را دارد تولید میکند، میخواهد آن را بفروشد؛ بهترین مشتریها با بهترین قیمتها توسّط هوش مصنوعی میتواند برای آن فرد معرّفی بشود، تبلیغات میتواند به صورت هدفمند ارائه بشود و بالاخره این مجموعهدادههای عظیمی که پشت صحنهی سیستم هوش مصنوعی هست، میتواند این راهنمایی را برای افراد ایجاد بکند که مثلاً مخاطبان اصلی شما چه کسانی هستند؛ اگر قرار است پیامی هم بدهید، آن سیستم پیامرسان برای عموم مردم کار نکند، بلکه فقط آن قشر مخاطب را به شکل درستی شناسایی کند.
بنابراین، تحوّل حتّی در رسانه هم اتّفاق میافتد و اینکه فقط یک رسانه وجود داشته باشد و همه یک محتوای ثابت ببینند، به کمک هوش مصنوعی میتواند متحوّل بشود. همین چیزی که داریم میگوییم، الان در خیلی از پلتفرمهای شبکههای اجتماعی دارد استفاده میشود و آن محتوایی که به کاربر نشان داده میشود، اصطلاحاً شخصیسازی و سفارشیسازی شده و آن چیزهایی را به فرد نشان میدهد که او بعضاً احساس رضایت بیشتری از آنها میکند و خودش بیشتر دنبال آن موضوعات است؛ یعنی این رسانه، رسانهی اختصاصی او شده.
البتّه ما میتوانیم تا فردا صبح هم این مثالها را مرور بکنیم و تمام نشود، امّا کلید همهی اینها یک نکته است: هر جا انجام یک کاری نوعی از تصمیمگیری انسانی را نیاز داشته باشد، اینجا ما میتوانیم با هوش مصنوعی آن انسان را کنار بگذاریم و به جایش ماشین قرار بدهیم؛ نتیجهاش هم این است که حالا آن کار میتواند با سرعت بیشتر و در حجم بیشتری در واحد زمان انجام بشود و حتّی یک جاهایی دقّتش هم میتواند بالاتر باشد. البتّه در مورد بسیاری از پارامترهای دیگر هم در اینجا میشود صحبت کرد.
شما میگویید که یک بخش زیادی از این شغلها توسّط ماشین انجام میشود.آیا این روند باعث نمیشود که مردم شغلهای خودشان را از دست بدهند و اعتراضات اجتماعی شکل بگیرد؟ در این صورت، چه اتّفاقی خواهد افتاد؟
بله، همینطور است؛ در واقع، این هم مثل همهی پدیدههای توسعهی دیگر است. ما در حوزهی توسعه، همهی این قصّهها را تجربه کردیم؛ در این موضوع هم این قصّه حتماً اتّفاق میافتد. امروز آمار این است که هشتاد درصد شغلها بین سالهای ۲۰۳۰ تا ۲۰۴۰ به واسطهی هوش مصنوعی از بین میروند و به جای آنها شغلهای جدیدی شکل میگیرد. همین نکتهای که شما میفرمایید، دقیقاً میتواند در موضوع از بین رفتن شغلها رقم بخورد؛ یعنی معیشت افراد دچار مشکل میشود و به تبع آن، اعتراضات اجتماعی هم میتواند شکل بگیرد. ولی اگر همین افرادی که شغلشان دارد تغییر پیدا میکند یا از بین میرود، بتوانند خودشان را در این فاصلهی زمانی با شغل جدیدی که حالا به واسطهی هوش مصنوعی به وجود میآید هماهنگ کنند، این خطر میتواند مرتفع بشود؛ یعنی یک شغل جدیدی با یک سازوکار تازه به وجود میآید.
حالا مثلاً ما دههی شصتی هستیم؛ احتمالاً یادتان هست که در دههی شصت، حروفچینی روزنامهها و کتابها در چاپخانهها عموماً سربی بود و بهندرت ابزار پیشرفتهتری وجود داشت و فقط یک جاهای خاصّی ابزارهای کامپیوتری در اختیار داشتند. در دههی هفتاد، سیستم حروفچینی رفت به سمت کامپیوتری شدن؛ یعنی به انتهای دههی هفتاد که رسیدیم، حروفچینی سربی تقریباً دیگر استفاده نمیشد و امروز هم اصلاً مسئلهای عجیب است؛ اگر در مورد حروفچینی سربی کسی صحبت کند، گویی دارد در مورد یک چیز ماقبل تاریخ صحبت میکند. کامپیوتر آمد و در ایران هم یکی از اوّلین کاربردهای عمومی کامپیوتر، همین موضوع حروفچینی و نشر کامپیوتری بود و یک سری نرمافزارهایی به وجود آمد که اتّفاقاً بومی هم بودند، داخل خود کشور ساخته شده بودند و خیلی هم باکیفیّت کار میکردند؛ مثل نرمافزار زرنگار، مثل نقش، مثل نشر الف و نامهنگار. من تعمّداً اسمهایشان را میآورم، به خاطر اینکه ما فکر میکنیم همه چیز از خارج برای ما آمده، ولی واقعاً این محصولات توسّط آدمهای داخل کشور تولید شده بود و بهخوبی هم کار میکردند و هنوز قابلیّتهایی دارند که بعضی از نرمافزارهای خارجی نتوانستند آنها را پیادهسازی کنند.
به هر صورت، امروز در مقولهی حروفچینی، کسی که بلد بود با سیستم تایپ سربی کار بکند، آن دانشش دیگر قابل استفاده نیست ولی همانها احتمالاً خودشان هم با مدل حروفچینی کامپیوتری پیش رفتهاند. امروز هم شغل تایپیست دارد کنار گذاشته میشود؛ یعنی سیستم هوش مصنوعی امروز میتواند همین گفتوگوی ما را به صورت آنلاین تبدیل به متن بکند و حتّی بعد میتواند آن متن را ویراستاری بکند. ببینید! همهی اینها امروز مشاغلی هستند که هوش مصنوعی میتواند اینها را جایگزین کند. بنابراین، فرد در شغلی شبیه به شغل خودش که با هوش مصنوعی بهروز شده، میتواند مشغول به کار بشود.
البتّه به نظر میرسد دیگر آن حجم از نیروی انسانی مورد نیاز نیست؛ مثلاً آمار بعضی از کشورها در دو سال گذشته این بود که تقریباً هشتاد درصد نیروهای گرافیستشان را مرخّص کردند و گفتند اگر ما ده نفر گرافیست داریم، دیگر دو نفر هم باشند کفایت میکند؛ چون هوش مصنوعی نیاز گرافیگیشان را برطرف میکرده، دیگر به آن هشت نفر نیاز ندارند. بنابراین، بسته به نیاز، حجم فعّالیّت انسانی هم تغییر میکند که خب آن افراد طبیعتاً میتوانند بروند سراغ شغلهای جدیدی که با هوش مصنوعی دارد شکل میگیرد.
البتّه بعضی از شغلها پیچیدگی دارد و این نگرانی کاملاً درست است؛ ما در دورهی فعلی، شغلهایی با هوش مصنوعی داریم که سطح معلومات و سواد بالایی احتیاج دارد و فرد باید تحصیلات تکمیلی در دانشگاه را در آن رشتهها دنبال کرده باشد تا بتواند موفّق بشود و خیلی از شغلها هم امروز هست که اصلاً سواد خاصّی نیاز ندارد و حتّی شاید کسی که فقط خواندن و نوشتن بداند، بتواند آنها را انجام بدهد. نگرانی در مورد هوش مصنوعی این است که این شغلهایی که افراد در آینده به سراغش میروند، ممکن است پیچیدگیهای بالاتری داشته باشد؛ یعنی سطح سواد بالاتری بخواهد، سطح معلومات بیشتر و تمرکز بیشتری بخواهد که به هر صورت، نظام آموزشی با شناخت دقیق ملاحظات این ماجرا باید نیروهای دهههای آینده را تربیت بکند؛ امّا اگر بخواهد همچنان با همان سبک گذشته پیش برود، این حتماً میتواند منجر به بحرانهای اجتماعی بشود.
شما در صحبتهایتان یک اشارهای داشتید به تهدیدهایی که هوش مصنوعی میتواند برای ما داشته باشد. به نظر شما، این موضوع در چه زمینههایی میتواند برای کشور تهدیدآور باشد؟
ما اگر در بحث هوش مصنوعی وارد سطوح بالاتر از تکنیکی و سطوحی که عمومی است بشویم، آنجا، هم پیچیدگیاش یک مقدار بیشتر است، هم ملاحظات متنوّعی دارد. پس من اوّل یک مقدّمهای در مورد این قضیّه عرض میکنم.
در نسبت با حاکمیّتها و نظامهای ادارهی جهان در سطوح مختلف ــ چه سازمانهای بینالمللی و جهانی، چه دولتهای محلّی در کشورهای مختلف و ذیل آنها در استانداریها، فرمانداریها، شهرداریها و حتّی ادارهی محلّهها ــ آنجایی که ما میخواهیم به کاربرد حاکمیّتی هوش مصنوعی اشاره بکنیم، عملاً باید چهارچوب و پارادایم اختصاصی هوش مصنوعی را تعریف بکنیم. هوش مصنوعی اینجا دیگر صرفاً یک ابزار تلقّی نمیشود، بلکه میشود گفت اصلاً یک سازوکاری است برای اینکه نوع خاصّی از حاکمیّت تعمیق پیدا بکند و محقّق بشود.
این نوع خاصّ حاکمیّت چیست؟ حدّاقل در کشور خودمان، بیش از بیست سال است که داریم میبینیم نوعی از حاکمیّت به اسم «حاکمیّت سایبرنتیکی» دارد محقّق میشود و ابعادش هم روزبهروز گستردهتر میشود. «حاکمیّت سایبرنتیکی»، در واقع، متأثّر از دانش سایبرنتیک شکل میگیرد و دانش سایبرنتیک هم دانش حکومت از طریق روش کنترل است. برای کنترل، یک مدل مفهومی وجود دارد و آنهم اینکه هر وقت صحبت از کنترل میکنیم، لاجرم دو جزء سیستمی وجود خواهند داشت: کنترلکننده و کنترلشونده. اینها از هم تفکیک میشوند؛ یعنی سازوکار کنترل، تفکیک دو جزء فاعل کنترل و مفعول کنترل را لازم دارد. فاعل کنترل یک جزئی است که میتواند فکر کند، میتواند تصمیمگیری کند و در نهایت، نتیجهی پردازشهای فکری خودش را به صورت یک فرمان به کنترلشونده ارائه میکند. کنترلشونده حتّی اگر توان فکر کردن هم داشته باشد، اینجا نباید از آن استفاده کند، بلکه فقط باید فرمان را اجرا کند. پس تفکیک یک جزئی که فقط باید کار بکند از جزئی که فقط باید فکر بکند، در سازوکار سیستم سایبرنتیکی وجود دارد.
بخش کنترلشونده، متناسب با فرمانی که دریافت کرده، کار خودش را انجام میدهد؛ کار را که انجام داد، نتیجهی انجام کارش روی محیط آن مجموعه آثاری میگذارد و این آثار دوباره توسّط کنترلکننده میتواند مورد تحلیل و بررسی قرار بگیرد که اصطلاحاً به این میگویند «فیدبک»؛ یعنی خروجی سیستم دوباره به خود سیستم برمیگردد و حالا کنترلکننده نگاه میکند ببیند اهدافی که مدّ نظر داشته محقّق شده یا نه؛ بنابراین، فرمانش را برای مرحلهی بعدی به گونهای اصلاح میکند که آن اهداف، بهتر محقّق بشود. این چرخهی بین کنترلکننده و کنترلشونده تا بینهایت ادامه پیدا میکند و عملاً در این فرایند، کنترلکننده از کنترلشونده سلب اختیار میکند. اینکه گفتیم کنترلشونده نباید فکر کند، یعنی از آن سلب اختیار میشود و در نهایت، هدف کنترلکننده محقّق میشود. کنترلشونده هم چون در یک فرایند نرم دارد این دستورات را دریافت میکند و اجباری احساس نمیکند، مقاومتی هم نمیکند و آن مقولهی سلب اختیار رقم میخورد.
البتّه یک مقدار این حرف سنگین است؛ یعنی وقتی ما این را بیان میکنیم که یک چنین مدل حاکمیّتی وجود دارد، کسی باور نمیکند. حالا ممکن است یک روزی در ایران هم یک چنین حاکمیّتی شکل بگیرد، ولی بحث ما یک بحث علمی است؛ اینکه آن اتّفاقی را که دارد میافتد، بر اساس متغیّرها و پارامترهای آن پدیده ملاحظه میکنیم و حتّی نمونههای جهانی برایش داریم. الان نوع حاکمیّتی که در چین شکل گرفته یک چنین حاکمیّتی است و کشورهایی مثل استرالیا و کانادا هم دارند این مدل حاکمیّتی را دنبال میکنند و به این سمت رفتهاند. البتّه احتمالاً برای مخاطبان ما عجیب است که مثلاً یک کشوری که ایدئولوژی کمونیستی دارد، چطور با کشورهایی که ایدئولوژی لیبرالیستی دارند مشابه عمل میکند. اینها جزو همان تحوّلاتی است که ما در مقولهی «نظم جدید جهان» باید روی آن تمرکز کنیم و ببینیم، ولی ریشهاش از نظر علمی برمیگردد به این مدل «حاکمیت سایبرنتیکی» که عرض کردم تابع دانش سایبرنتیک است.
اشکال این مدل حاکمیّت در سطح بالا این است که وقتی شما این مدل حاکمیّت را در مورد جامعهی انسانی میخواهید به کار ببرید، با ماهیّت انسان که اساساً با اختیار و آزادیاش تعریف میشود تضاد پیدا میکند. خب ما در جمهوری اسلامی مدّعی یک نوع متفاوتی از حاکمیّت هستیم، به اسم «حاکمیّت ولایی»؛ اینجا به جای سایبرنتیک، ولایت کار میکند و روش، روش ولایی است. در روش ولایی، به جای کنترل، ما هدایت داریم، هدایت هم مبتنی بر اختیار رقم میخورد؛ یعنی گردش اطّلاعات در نظام ولایی منجر به رشد مردم میشود، منجر به رشد جامعه میشود و جامعهای که رشید میشود، خودش کار درست را انجام میدهد و اینجا دیگر به اجبار و این مدلی که در بعضی از آن کشورها دارد رقم میخورد، نیازی وجود ندارد. خوب است حالا مخاطبان ما از این منظر یک بار آن کتاب ارزشمند رهبر انقلاب را ببینند؛ یعنی «طرح کلّی اندیشهی اسلامی در قرآن» که یک اثر ماندگار است و بر اساس مجموعهی سخنرانیهای حضرت آقا در ماه مبارک رمضان سال ۵۳ هجری شمسی تهیّه شده. آنجا حضرت آقا مدل «حاکمیّت ولایی» را همراه با مقدّماتی که قبلش در حوزهی توحید و نبوّت و مانند اینها وجود دارد، تشریح میکنند. فارغ از اینکه این اثر منتسب به رهبر معظّم انقلاب است، اصلاً به عنوان یک شاهکار علمی قابل ملاحظه و مطالعه است. این را از این جهت گفتیم که اگر میگوییم که ما یک مدل متفاوت از حاکمیّت را داریم، این چیزی نیست که حالا تازه بخواهیم برویم روی آن مطالعه انجام بدهیم؛ نه، روی آن کار شده، صحبت شده و بزرگان دیگری هم ذیل همین دیدگاه فعّالیّت کردهاند. لذا ما مدل حاکمیّتی اختصاصی خودمان را داریم و امروز نگران هستیم که مدل «حاکمیّت سایبرنتیکی» به خاطر تفوّق تکنولوژیکش چون اصالت را به ماشینها میدهد، ماشینها را قدرتمند میکند و مردم را ذیل ریلگذاری ماشینی تعریف میکند، باعث شود که حاکمیّت از نوع ولایی تضعیف بشود.
ما حالا باید وارد جزئیّات این مسئله بشویم که سایبرنتیک به عنوان یک علم پایه و مدل حکمرانی سایبرنتیکی در سطح بالاترش، دنیای آینده را چگونه رقم میزند. گفتیم که روش سایبرنتیک کنترل است. کنترل از نظر فنّی به دو بال احتیاج دارد: بال ارتباطات و بال محاسبات. به دلیل اینکه ما بین کنترلکننده و کنترلشونده تفکیک قائل شدیم و کنترلکننده میخواهد به کنترلشونده فرمان بدهد، این ارسال فرمان که در قالب ارسال اطّلاعات است نیازمند سازوکار ارتباطات است. طبیعی است که فاصلهی بین کنترلکننده و کنترلشونده هم میتواند خیلی دور باشد؛ مثلاً چند هزار کیلومتر بینشان فاصله باشد، ولی سازوکار ارتباطی قوی اگر وجود دارد، میتواند در کسری از ثانیه این فرمان را منتقل کند؛ یعنی همین اتّفاقی که امروز در شبکهی اینترنت دارد میافتد و ما شاهدش هستیم. از آن طرف، هم کنترلکننده و هم کنترلشونده ساختار محاسباتی دارند که ورودیشان اطّلاعات است، خروجی اطّلاعات هم تحویل میدهند؛ لذا شما به محاسبات هم احتیاج دارید. بهخصوص، واحد کنترلکننده که میخواهد فکر کند و فرمان بدهد و باید حجم زیادی از اطّلاعات را پردازش بکند، نیاز به حجم بالاتری از منابع محاسباتی خواهد داشت. پس ارتباطات و محاسبات، دو رکن فرعی حساب میشوند برای رکن اصلی کنترل در نظام سایبرنتیکی.
در حوزهی ارتباطات، شما امروز با موضوع پهنباند یا باند گسترده مواجه هستید؛ یعنی آن پهنهی باند خیلی زیاد و ظرفیّت مخابراتی و ارتباطی که حجم اطّلاعاتی را در واحد زمان میتواند ارسال بکند. تکنولوژیای مثل فیبر نوری، تکنولوژیای مثل ۵جی و ۶جی ــ که امروز برای توسعهی اینها خیلی فعّالیّت میشود ــ و چیزهایی شبیه به اینها را که ما در دنیا داریم میبینیم، این بُعد نظام سایبرنتیکی را تقویت میکند. در مقابلش، ما پیشرفت در محاسبات را در حوزهی سختافزار و نرمافزار هم شاهدیم. امروز در کلّ جهان، در واحد زمان، چند هزار عملیّات محاسباتی در یک مجموعهی کوچک دارد رقم می خورد. البتّه چند هزار خیلی کم است و باید بگوییم میلیاردها، بلکه هزاران میلیارد عمل محاسباتی دارد انجام میشود.
هوش مصنوعی هم در بُعد محاسبات تعریف میشود؛ یعنی اگر میگوییم امروز هوش مصنوعی دارد کاربردهای خودش را در حوزههای مختلف نشان میدهد، یعنی محاسبات پیشرفته، حتّی در حدّ مغز انسان و بلکه بالاتر از آن توسّط هوش مصنوعی امکانپذیر میشود و کارهایی را که قبلاً شما نمیتوانستید انجام بدهید، حالا میتوانید از آن توقّع داشته باشید. امروز مثلاً ما میبینیم که بینایی کامپیوتری خیلی پیشرفت کرده؛ مثلاً اگر قرار بود کنترل کیفیّت یک محصول در کارخانه با چشم آن مسئول فنّیای که آنجا گذاشتیم رقم بخورد، امروز آن آدم را برمیداریم و به جایش یک کامپیوتر میگذاریم با بینایی کامپیوتری که آن کنترل کیفیّت را رقم میزند؛ مثلاً در یک کارخانهی تولید کاشی، میخواهید ببینید کاشیها شکستگی دارد یا چاپ طرح روی آن درست انجام شده یا نه که اگر مثلاً اشکالی دارد، آن را کنار بگذارد و فقط آن کاشیهای سالم را برای بستهبندی ارسال کند و چیزهای شبیه به این که به سیستم بینایی و چشم نیاز داشته باشد. یا حتّی در خصوص شنوایی، گفتیم که میتواند گفتوگوی ما را به صورت آنلاین به متن تبدیل کند؛ خب این باید حرف ما را بشنود و تا حدّی هم باید آن را بفهمد تا بتواند ترجمهاش کند یا به متن تبدیلش کند. ببینید! همهی اینها کارهای محاسباتی است؛ یعنی هر چقدر ما در هوش مصنوعی جلو میرویم، رکن محاسبات که ابزار کنترل است دارد قویتر میشود. لذا ارتباطات قوی و محاسبات قوی، نتیجهاش کنترل قوی است.
حالا سؤال این است که این کنترل دست چه کسی است؟ اگر این کنترل مثلاً دست یک حاکمیّت صالحی باشد که منافع مردم را در نظر میگیرد نه منافع یک قشر خاصّی که ممکن است به تعبیری مافیا تلقّی بشوند یا خدای ناکرده منافع استکبار جهانی به طور ویژه بخواهد آنجا محقّق بشود، نگران خیلی از موضوعات نخواهیم بود. هرچند ذات کنترل به خاطر آن سلب اختیاری که انجام میدهد نقص جدّیای دارد، ولی حکومت صالح میتواند این را مدیریّت بکند؛ مثلاً جاهایی مثل همین کنترل کیفیّت در کارخانهها که توسّط ماشین انجام میشود، اتّفاقاً اینها را تشویق کند که از هوش مصنوعی بیشتر استفاده بشود؛ ولی مثلاً حوزهی قضاوت، جایی که میخواهد در مورد رفتار انسان قضاوتی صورت بگیرد یا حتّی بحثهایی مثل آموزش، اینها چیزهایی است که بهتر است کمتر به ماشینها سپرده بشود. حکومت صالح، بر اساس مصالح و نیازهای مردم، میتواند درست از این سیستم استفاده کند؛ امّا اگر این دست یک حاکمیّت ناصالحی باشد و مدل استکباری را ما اینجا داشته باشیم، بدترین استفادهها را از این سیستمها خواهند کرد و با سلب اختیاری که از مردم انجام میدهند، اساساً امکان رشد مردم را از آنها میگیرند و امکانات ویژهای را که عموم مردم میتوانند داشته باشند، در این قضیّه از دست میدهند.
پس ما میتوانیم اینجا نگران این قضیّه باشیم که این پیشرفت هوش مصنوعی که منجر به پیشرفت حاکمیّت سایبرنتیکی مبتنی بر کنترل میشود، قدرت چه کسی را زیاد میکند. آیا ما به عنوان کشور جمهوری اسلامی ایران، قدرتمان را میتوانیم افزایش بدهیم یا اینکه ممکن است غفلتی بکنیم یا به روشهایی کار را پیش ببریم که قدرت دشمنمان را بیشتر بکنیم؟ در حقیقت، این یکی از نقاط عطف کلیدی تصمیمگیری ما است که باید این فهم را از ماجرا داشته باشیم که بتوانیم درست تصمیمگیری کنیم. متأسّفانه، بحث در مورد سیستمهای سایبرنتیکی و علم سایبرنتیک در مجامع علمی بسیار محدود است، هنوز دستگاههای حاکمیّتی اهمّیّت این ماجرا را متوجه نشدهاند و خیلیها حتّی به ارتباط بین هوش مصنوعی و سایبرنتیک دقّت نمیکنند.
حالا من یک نکتهی تاریخی خدمت شما عرض بکنم. هر سه حوزهی علوم شناختی، علم سایبرنتیک و هوش مصنوعی، تقریباً همزمان با هم متولّد شدند؛ یعنی دههی ۱۹۴۰ و ۱۹۵۰ میلادی زمانی است که این سه رشته به عنوان رشتههای علمی جدید به دنیا معرّفی شدند. اینها از نظر اهدافی که دارند و از نظر روشهایشان، خیلی به هم نزدیکند. حتّی در مورد هوش مصنوعی یک نقلی در منابع تاریخی این حوزه هست که یکی از دلایلی که آقای جان مککارتی ــ پدر هوش مصنوعی ــ عنوان «Artificial intelligence» را در سال ۱۹۵۴ پیشنهاد کرد و بحثهای خودش را ذیل عنوان «سایبرنتیک» مطرح نکرد، این بود که میخواست با آقای نوربرت وینر مواجه نشود. وینر پدر علم سایبرنتیک است و همان نقشی که نیوتن در فیزیک دارد که شما در فیزیک از هر راهی میروید باز به نیوتن برخورد میکنید، همان نقش را وینر در علم سایبرنتیک دارد. در واقع، وینر این علم را چهارچوببندی کرد و مشخّصاتش را مطرح کرد، ولی این مفاهیم مربوط به ماشینهای یادگیرنده و یادگیری ماشین را که امروز نقل اصلی محافل هوش مصنوعی است، اوّلین بار مککارتی مطرح کرد. لذا گفته میشود که چون جان مککارتی میخواست با وینر مواجهه و مبارزهی علمی نداشته باشد، عنوان دیگری را انتخاب کرد و حمایتهای جایگزینی را عملاً از مجموعههای علمی و اقتصادی آن دوران در ایالات متّحده جلب کرد. بههرحال، علم هوش مصنوعی جلو رفت و به علم سایبرنتیک ــ با وجود اهمّیّتی که داشت و دانشمندان بزرگی هم که داشت ــ به این شدّت مثل علم هوش مصنوعی توجّه نشد، غافل از اینکه ریشههای علم هوش مصنوعی در دانش سایبرنتیک است که هم قدیمیتر است و هم وقتی پایههای یک نظریّهای در جای دیگر بیان شده، اصالت با آن است.
وقتی یک دانشی هست که مستقیم دارد مقولهی کنترل را مطرح میکند، بحثش حاکمیّت است و اینکه اصلاً اختیار دست چه کسی باشد و کنترل را چه کسی رقم بزند، خب جنس این علم خیلی اقتدارزا است و تولید قدرت میکند، برخلاف بعضی از علوم که اقتدارزدا هستند؛ یعنی شما هر چقدر به سمت آنها میروید، به خاطر نوع نگرششان و ابزارهایی که نیاز دارند، شما را به یک جایی وابستهتر میکنند. مثلاً بعضی از علوم ما امروز اینجوری هستند و به ابزارهای خاصّ تکنولوژیک نیاز دارند؛ علوم ارزشمندی هم هستند، خیلی هم مفیدند، ولی چون نیاز دارند که شما حتماً بروید به سمت مثلاً تهیّهی آن دستگاهها و اگر آن دستگاهها نباشند نمیتوانید کار را پیش ببرید، دشمن هم این نیاز ما را میداند، لذا ما را در آن حوزهها تحریم میکند و مشکلات ما را چند برابر میکند. مثلاً در آن مجامع علمیشان، یک جاهایی اصلاً ما را راه نمیدهند که مطّلع بشویم دارند چه کار میکنند! خب خود همین بیاطّلاعی، عقبماندگی برای کشور به وجود میآورد. ولی وقتی ما میرویم سراغ علومی که این اتّفاق برایش کمتر میتواند بیفتد، مستقلتر هستند و سعی میکنیم نظام علمیمان را از دل آن علوم توسعه بدهیم و بالا بیاوریم، ورق کاملاً برمیگردد.
در این مدّتی که آقا فرمودند «به لایههای عمیق هوش مصنوعی توجّه بکنید»، برای خیلیها سؤال شده است که این «لایههای عمیق» دقیقاً چیست. به این سؤال میشود اینجوری پاسخ داد که این لایهها در دو بُعد نظری و عملی قابل دستهبندی هستند. ما اگر بُعد نظری قضیّه را ببینیم، یک بخش از دانش هوش مصنوعی ذیل علوم کامپیوتر و مهندسی کامپیوتر و علوم فنّی مربوط به حوزهی تولید سیستمهای محاسباتی است. عمیقتر از آن، دانش ریاضیّات و دانش فیزیک است که میشود گفت آنجا سازوکارهای علمی سیستمهای هوشمند را به ما ارائه میکند. همهی اینها مبتنی بر الگوریتمهایی هستند که بر پایهی ریاضیّات بنا شدهاند و موقع پیادهسازی هم تابع نظریّههای فیزیکی هستیم. مثلاً یکی از چیزهایی که امروز خیلی امیدآفرین است برای اینکه محاسبات پیشرفته بتواند در آینده رقم بخورد، محاسبات کوانتومی است؛ یعنی سیستمهای کوانتومی که مبتنی بر فیزیک کوانتوم طرّاحی میشوند. پس ما اینجا تابع علم فیزیک هستیم و در کنارش تابع علم ریاضی. از آن عمیقتر، حوزهای مثل حوزهی سایبرنتیک است که عرض کردم هوش مصنوعی اساساً به عنوان جزئی از واحدهای محاسبات در نظام سایبرنتیکی تعریف میشود. پس ما باید در دانش سایبرنتیک مستقل بشویم و نظریّههای بومی خودمان را داشته باشیم، به جزئیّاتش باید اشراف داشته باشیم و بهترین استفادهها را از آن ببریم، همانطور که در بقیّهی علوم پایه مثل ریاضی و فیزیک باید این اتّفاق بیفتد.
از آن عمیقتر، علوم انسانی است؛ در علوم انسانی، ما شاخهای عمیقتر از فلسفه نداریم. الگوهای امروز هوش مصنوعی تابع نگاههای خاصّ فلسفی هستند؛ مثلاً آن مدل استقرائی که دیوید هیوم در شکلگیری علم مدّ نظر داشت، امروز مستقیماً روی روشهای ماشینلرنینگ ما اثر گذاشته؛ یعنی همان فکر آمده و به محصول تبدیل شده. یا فرض بفرمایید در دیدگاهی که دکارت در جدا کردن ذهن و مادّه داشت ــ یک دوگانهانگاری را دکارت مطرح میکند که ما در عالم، دو جوهر جدا داریم که قوانین خاصّ خودشان را دارند ــ این دوگانهانگاری دکارتی این تفکیکهای دوگانه مثل «مادّه» و «معنا» را عمیقتر میکند و آثارش حالا در هوش مصنوعی خودش را نشان میدهد، مثل همین تفکیک سختافزار از نرمافزار. ما عملاً بخش زیادی از نظریّههای هوش مصنوعی امروز را در ریشههای فلسفی آن میتوانیم ببینیم و دنبال بکنیم و اتّفاقاً در غرب روی اینها خیلی دارند کار میکنند. الان شاید حوزههای فعّالیّت پژوهشیاش در ایران یک مقداری کمرنگ است، ولی ما منابع غربی را که نگاه میکنیم، میبینیم که دانشمندان فلسفهشان دقیقاً دوشادوش مهندسها و ساینتیستها در حوزهی هوش مصنوعی دارند جلو میآیند و عمیقاً دربارهی مباحث فلسفی بحث میکنند.
در کنار فلسفه، ما حوزهی اخلاق را داریم و اخلاق هم بعضی وقتها زیرمجموعهی فلسفه تلقّی میشود. دانش اخلاق دربارهی این صحبت میکند که چگونه علم به عمل تبدیل میشود و معیار تبدیل ذهنیّتها و الگوهای فکری به رفتارها به چه شکلی است. غربیها، در مدل تمدّنسازیشان، به مدل اخلاق سودانگارانه خیلی علاقه نشان دادند. بر اساس این مدل، هر آن چیزی که سود بیشتری دارد اخلاقیتر است. کسانی مثل جرمی بنتام و جان استوارت میل، نظریّهپردازان اخلاقی غرب تلقّی میشوند؛ حتّی کانت هم نگاههای اخلاقی دارد و نظریّهی اخلاقیاش را تحت عنوان «وظیفهگرایی» مطرح میکند. از طرفی، ما نیز در مکاتب خودمان حرفهای متفاوتی برای مباحث اخلاقی داریم و اینها میتوانند تحوّلات بنیادین در هوش مصنوعی به وجود بیاورند. آن چیزی که امروز دارد به عنوان هوش مصنوعی برای ما روایت میشود، یکی از این مکاتب است که حالا خاصّ تمدّن غرب بوده و با دیدگاههای آنها هماهنگی داشته.
بقیّهی حوزههای علوم انسانی هم به همین نسبتی که در مورد فلسفه صحبت کردیم، اینجا اثرگذار هستند؛ یعنی روانشناسی، جامعهشناسی و انسانشناسی. من اگر یک ذرّه جلوتر بروم، میبینیم امروز اصلاً شاخهای از علم نیست که برای هوش مصنوعی موضوعیّت نداشته باشد و هوش مصنوعی یا قرار است روی آن اثر مستقیم بگذارد و متحوّلش بکند، یا اینکه خود آن علم اصلاً جزو زیربناهای هوش مصنوعی به حساب بیاید. پس در لایههای نظری، میبینید که هوش مصنوعی خودش را حتّی به فلسفه هم میرساند. لذا اگر قرار است ما یک کشور مستقلّی باشیم و بتوانیم در این قضیّه حرف خودمان را به دنیا بزنیم، باید در این زمینههای علوم انسانی و علوم پایه هم خودمان را تقویت بکنیم. در نهایت، آن بحثهای فنّیمهندسیاش هست که در لایههای آخر مطرح میشود.
این مطالبی که عرض کردم، فقط لایههای حوزهی فکری و نظری است؛ اگر برویم در لایههای عملی، این قصّه شاید از یک جهاتی هم جذّابتر بشود. لایههای عمیق هوش مصنوعی در حوزهی عملی برمیگردد به تکنولوژیهایی که این حوزه را میسازند و تقویت میکنند. هوش مصنوعی نیاز دارد به محاسبات، نیاز دارد به ابزارها و تکنیکهای محاسباتی، کامپیوترهای پیشرفته و پردازش موازی. چند هزار پردازنده همزمان باید کار کنند تا شما مثلاً بتوانید یک کاری شبیه کاری که انسان انجام میدهد ــ مثل همین خواندن متن، دیدن یک صحنه و درک آن صحنه ــ رقم بزنید؛ این کار، محاسبات سنگینی میخواهد، پس شما کامپیوتر میخواهید. امروز میشود گفت که این کامپیوترها برای ما مشکل ایجاد کرده، حدّاقل از این جهت که اوّلاً خودمان سازنده نیستیم، از آن طرف هم تحریمهایی که در این قضیّه وجود دارد باعث میشود که ما بهراحتی نتوانیم به اینها دسترسی داشته باشیم. جالب است که در یک حوزهای مثل رمزارز ــ که الان هفت هشت سال است که خیلیها را به خودش مشغول کرده و هنوز هم ما قانون مشخّصی برایش نداریم ــ همین منابع محاسباتی مشابه توسّط افرادی که دنبال منافع مادّی خودشان بودند فراهم شده و با مصرف برق بسیار زیادی دارند رمزارزها را تولید میکنند که از منافع اقتصادیاش بهرهمند بشوند. همین سختافزارها دقیقاً میتواند در هوش مصنوعی هم مورد استفاده قرار بگیرد، ولی کمتر آمدند اینها را در هوش مصنوعی استفاده کنند؛ یعنی شاید ۹۹ درصد همین سختافزارها دارد در حوزهی رمزارز استفاده میشود و فقط یک درصدش برای هوش مصنوعی. خب آن نظام تحریمکننده هم برای کاربرد هوش مصنوعی شما را اذیّت میکند و نمیگذارد خیلی راحت به آن برسید؛ ولی برای کاربرد رمزارز، ظاهراً اینها راحت به آن دسترسی داشتند و مشکلی برای آن ندارند. لذا ما در حوزهی سختافزار برای محاسبات، نیازهای جدّی داریم و یا باید در این زمینه خودمان مستقل بشویم، یا تا زمانی که مستقل بشویم باید سازوکار دسترسی به این منابع را به صورت پایدار برای خودمان فراهم بکنیم؛ این، یکی از بخشهای مهم قضیّه است. حالا چیزی که من در دانشگاهها خبر دارم، متأسّفانه بسیاری از پژوهشهای هوش مصنوعی ما به خاطر این نیازهای سختافزاری دارد روی سرورهای شرکتهای خارجی انجام میشود؛ مثلاً گوگل یک امکانی را فراهم میکند، دانشجوها از اینجا منابع محاسباتی گوگل را استفاده میکنند تا بتوانند کارهای پژوهشیشان را به نتیجه برسانند. خب در این خلال، تمام دادههای ما، تمام کدها و اصلاً آن دستاوردهای علمی، مستقیم در اختیار دیگران قرار میگیرد! قبل از اینکه خودمان بتوانیم اینها را به محصول تبدیل کنیم و بهرهبرداریاش را داشته باشیم، آنها دسترسی کامل به آن دارند و استفاده میکنند. پس ببینید چقدر ضروری است که ما بتوانیم در این حوزه مستقل بشویم و آن را به نتیجه برسانیم.
بحث بعدی بحث دادهها است: گردش دادهها و جمعآوری دادههای مورد نیاز برای آموزش سیستمهای هوش مصنوعی در حوزههای مختلف؛ این جزو آن لایههای عملی هوش مصنوعی است که باید به آن توجّه بشود. خب امروز گردش دادهها خیلی مطلوب نیست؛ یک جاهایی مشکل قانونی داریم و یک جاهایی اصلاً ابزارها و سازوکارهای گردآوری دادهها و ذخیرهسازی آنها به خاطر هزینههای بالایش یا بعضاً مشکلاتی که دارند محقّق نشده. تا زمانی هم که ریل دادهها تنظیم نشود و آن تحوّل دیجیتال رقم نخورد و ما حکمرانی داده در کشور نداشته باشیم، این بهرهبرداری از زیرساختِ داده نمیتواند اتّفاق بیفتد و اینجا باز هوش مصنوعی دچار مشکل میشود.
از این عمیقتر هم میشود بحث را پیش برد. من ترجیح میدهم خود اکوسیستم تولید و بهرهبرداری از سیستم هوش مصنوعی را هم در همین قسمت دستهبندی کنم؛ یعنی ما نیروی انسانی مورد نیازمان برای این کارها را هم باید دقیقاً جزئی از آن لایهها ببینیم. ما اگر متخصّص کافی نداشته باشیم یا متخصّصهایمان بهروز نباشند و این اطّلاعات را نداشته باشند که این سیستمهای جدید را چطور باید راهاندازی بکنند، باز آن قصّهی کاربر شدنمان تقویت میشود و نمیتوانیم زیرساخت اقتصادی خودمان را ایجاد بکنیم.
حالا ممکن است مخاطبان بگویند که «چرا اصرار دارید حتماً اینها بومی و داخلی باشند؟ در یک فضای جهانی، ما با همهی دنیا میتوانیم همکاری کنیم و از توانمندیهای همدیگر استفاده کنیم. حالا اگر کشور ما مثلاً در سختافزار ضعیف است، اشکال ندارد؛ سختافزار را از یک کشور دیگری تهیّه میکنیم، نرمافزار با خودمان.» ببینید! این فکر در یک دنیایی که واقعاً بر مبنای عدالت شکل گرفته باشد و دنیایی باشد که مردم در ظلم و ستم نباشند، خیلی ایدئال است، خیلی هم خوب است که همهی بشریّت با هم همکاری کنند برای یک تحوّل و به هم سرویس بدهند و یک همزیستی واقعی رقم بخورد؛ ولی میدانیم که دنیای واقعی اینجوری نیست. در دنیای واقعی، ما امروز در یک نظام ظالمانه داریم زندگی میکنیم و نظام ظالمانه دنیا را تقسیم کرده به کشورهای توسعهیافته و در حال توسعه و توسعهنیافته؛ یعنی واقعاً نگاه دنیا به کشورها اینجوری است. از یک جنبهی دیگر، فضای استکبار و قدرتهای استکباری اساساً کشورهای دیگر را برنمیتابند و اصلاً نمیخواهند اینها پیشرفتی داشته باشند؛ لذا ریلگذاری میکنند که پیشرفت این کشورها صدمه بخورد و نتوانند جلو بروند. خیلی صریح، دنیای امروز دنیای جنگ است. ما حالا به هفتم اکتبر و سالگرد طوفانالاقصیٰ هم داریم نزدیک میشویم؛ ببینید در این یک سال چه جنایت بزرگی در غزّه توسّط اسرائیل و همپیمانان او دارد رقم میخورد! رژیم صهیونیستی به هیچ قاعدهی انسانیای بسنده نمیکند و به هیچ چیزی پایبند نیست. خب ما حالا در این شرایط به چه کسی میتوانیم تکیه بکنیم؟ با کدام دولت و با کدام مجموعه میخواهیم جلو برویم؟ در شرایط فعلی، واقعاً این نظریّه که «حالا برویم با دنیا کار کنیم» نظریّهی پایداری نیست. اتّفاقاً ممکن است یک جاهایی هم با ما همکاری کنند؛ یعنی اگر شما این پرچم را بالا بگیرید که ما میخواهیم با دنیا صلح کنیم و در این موضوع تکنولوژی با هم کار کنیم، اینها در یک مقطعی به شما سرویس میدهند، امّا بعد شما را کاملاً وابسته میکنند؛ وقتی شما همهی امکانات داخلیتان را کنار گذاشتید و خودتان را فقط به امکانات بیرون از مرزها محدود کردید، اوّل خوب به شما سرویس میدهند، امکانات رایگان میدهند، امّا وقتی نقطهی آسیبپذیری شما از حوزهی وابستگی را دقیقاً شناسایی کردند، حالا سرویسها یکییکی قطع میشود.
امروز در مورد فیلترینگ خیلی صحبت میکنند و میگویند چرا سایتها فیلتر است. بیایید از آن طرف سؤال کنیم: چرا بسیاری از سایتهای مفید برای ما تحریم است؟ چرا بسیاری از منابع اطّلاعاتی در وب، وقتی شما از آیپی ایران وارد میشوید، صراحتاً به شما میگوید که شما دسترسی ندارید؟ مگر نمیگویند فضای آزاد اطّلاعات است؟ ما متّهم هستیم که بعضی از پلتفرمها و سایتها را به هر دلیلی فیلتر کردهایم؛ خب آن طرف هم باید به این پاسخ بدهد که چرا در آن بخشها ما را تحریم کرده. شما میبینید هر جایی که برای فساد اخلاقی جامعه میتواند کاری انجام بدهد، دشمن هم فشار میآورد که شما اینها را از فیلتر خارج بکنید؛ آنجایی که میخواهد از طریقش عملیّات تروریستی انجام بشود یا میخواهند خلاف منافع کشور کاری انجام بدهند، تشویق میکنند که آنها از حالت فیلترینگ داخلی خارج بشود امّا از آن طرف، منابع علمیای را که در سالهای گذشته ما به آنها وابستگی پیدا کردیم، از دسترس ما خارج میکنند! امروز مقالات علمیای که اساتید ما مینویسند و در سایتهای بینالمللی منتشر میشود و نمایههای بینالمللی دارد، خود آن سامانههای نمایه از دسترس ما خارج است. الان اگر شما با پژوهشگران و اساتید صحبت کنید، قطعاً برایتان خواهند گفت که چقدر با دشواری مواجهند تا بتوانند به مقالهی خودشان که در مجلّهی معتبری در آن طرف دنیا منتشر شده، در یکی از این نمایهسازها دسترسی پیدا کنند و آمارش را بگیرند؛ یعنی نهتنها ممکن است به فیلترشکن نیاز داشته باشند، بلکه به اکانتی نیاز دارند که هزینهاش مثلاً چند هزار دلار است. دولت هم البتّه همیشه سعی کرده این منابع را در اختیار دانشگاهها قرار بدهد؛ یعنی وزارت علوم مثلاً هزینهی اشتراک اینها را میپردازد، ولی یک وقتهایی واقعاً منابع کشور اینقدر دچار بحران و تنگنا میشود که اصلاً پولی ندارند برای اینکه آن اشتراکها را بدهند. عددش هم واقعاً وحشتناک است؛ حالا من چون دقیقاً در خاطرم نیست، عدد را ذکر نمیکنم؛ ولی اگر آمار رسانهها را ببینید، این رقم درشتی است که کشور باید در سال بپردازد تا آنها فقط دسترسیها را برای ما ایجاد کنند که ما مقالهی خودمان را بتوانیم در آن طرف ببینیم.
ببینید! اینها واقعیّت دنیا است. در این واقعیّت، تکیه و ایجاد وابستگی به چیزی که صفر تا صدش دست خودمان نیست، میتواند خطرناک باشد؛ مانند اتّفاقی که چندی پیش در لبنان افتاد که دستگاههای الکترونیکی دچار انفجار کنترلشده شدند. وقتی میگوییم سایبرنتیک، یعنی همین؛ هیچ کس آنجا حضور نداشته، بلکه از راه دور مشخّص است که کدام دستگاهها باید منفجر بشوند، فرمان آن داده شده و این هم فرمان انفجار را صادر کرد. حالا اینکه چهجوری آن انفجار اتّفاق میافتد، از نظر فنّی روشهای مختلفی میشود برایش تحلیل کرد؛ ما الان اطّلاعات میدانی نداریم که ببینیم با کدام روش این کار را انجام میدهند، ولی نظام سطح بالایش کاملاً روشن است: یک نظام فرماندهی کنترل هست، یک کنترلکنندهای هست، یک کنترلشونده هست و کنترلکننده فرمان را داده و اینها منفجر شدند. بنابراین، این ابزاری که امروز همهی ما داریم استفاده میکنیم، گوشی تلفن همراه، لپتاپ و تمام دستگاههایی که در فضای ارتباطات دارند مورد استفاده قرار میگیرند، واقعاً یک چنین تهدیدی هم دارند. حالا این تهدید، تهدید سخت آن است؛ تهدید نرم آن چیست؟ جمعآوری اطّلاعات از ما؛ مرتّب دارند از ما اطّلاعات میگیرند، مرتّب دارند جزئیّات زندگی ما و فعّالیّتهای ما را ثبت و تحلیل میکنند. حالا هوش مصنوعی اینجا وارد میشود. این دادهها دیگر دادههای خام نیستند؛ هوش مصنوعی اینها را تجزیه و تحلیل میکند و آمار میگیرد، خلاصهبندی میکند، جمعبندی میکند و آن که میخواهد یک عملیّات خرابکارانه در دنیا انجام بدهد، حالا به همهی اینها دسترسی دارد. حالا اینکه الان انجام میدهد یا نه، تصمیمش بر اساس منافعش است که آیا امروز مثلاً این اقدام در ایران ممکن است یا نه؛ اگر چنین کاری را الان انجام بدهند، ممکن است مردم ایران بگویند حالا که اینجوری شد، ما اصلاً دیگر از هیچ وسیلهی الکترونیکی استفاده نمیکنیم و خودمان تحریم میکنیم اینها را. لذا غرب شاید در مورد ایران هنوز به این نقطه نرسیده و میگوید هنوز باید گردآوری اطّلاعات بکنیم، هنوز باید مردم را وابستهتر بکنیم و صبر کنیم تا هر وقتی وابستگی کامل شد، در خصوص آن جریاناتی که میخواهیم رقم بزنیم اقدام کنیم.
آن موضوع ایجاد ایستگاهی مانند آژانس انرژی اتمی برای هوش مصنوعی هم که رهبر انقلاب فرمودند، در همین راستا است؟ یعنی یک جایی که کنترل کند چه کسی این فنّاوری را داشته باشد، چه کسی نداشته باشد یا چقدر داشته باشد.
دقیقاً همینطور است. ببینید! الان با این صحبتهایی که کردیم، داریم متوجّه میشویم که این فنّاوری چه قدرت عظیمی است؛ یعنی کشوری که در هوش مصنوعی مستقل باشد و بتواند نیازهای خودش را آنجوری که خودش صلاح میداند در این حوزه به کار ببرد، قدرتمند میشود. بهترین مثالی که ما در این زمینه داریم، صنایع دفاعیمان است. صنایع دفاعی ما هیچ وقت ملزم به رعایت پروتکلهای بینالمللی نبودند و خودشان موظّف بودند که دکترین اختصاصی داشته باشند و بر اساس دکترین خودشان عمل بکنند. ما امروز یکی از قدرتهای برتر موشکی در جهانیم و هیچ کس شکّی در این ندارد. شهید طهرانیمقدّم به عنوان پدر موشکی ایران و بقیّهی بزرگوارانی که در قید حیات هستند یا به فیض شهادت نائل شدند، کشور را به یک چنین نقطهای رساندند. ما در دکترین دفاعیمان باید موشک نقطهزن داشته باشیم، چون موشکی که بخواهد برود تخریب گستردهای انجام بدهد و باگناه و بیگناه را یکجا از بین ببرد، در دکترین دفاعی ما نقشی ندارد؛ این را خود حضرت آقا هم در بیاناتشان تأکید کردهاند. ما بر همین اساس، رفتیم روی نوع خاصّی از موشک تمرکز کردیم و آن را توسعه دادیم و الان به قدرت ملّی ما تبدیل شده که هم بازدارندگی برای ما ایجاد میکند، هم اقتدار و همهی آن مؤلّفههایی که میخواهیم داشته باشیم. بنابراین، در هوش مصنوعی هم اگر دکترین ملّی هوش مصنوعی با همین نگاه برای ما تدوین بشود، آن موقع مشخّص میشود کجا از هوش مصنوعی باید استفاده کرد، کجا نباید استفاده کرد، چه نوعی از هوش مصنوعی مجاز است و کدام نوع مجاز نیست. مثلاً ما میگوییم آن هوش مصنوعیای که منجر به سلب اختیار از مردم بشود و اختیار را از انسانها بگیرد، جلوی این را میگیریم؛ برعکس، آن هوش مصنوعیای که سلاحهای ما را تقویت کند تا بتوانیم بهتر با دشمن بجنگیم ــ منظورم از «سلاح»، آن نوعی از هوش مصنوعی است که حکمرانی ما را تقویت میکند و حکمرانی بهتری را رقم میزند ــ روی آن تمرکز میکنیم، به آن اولویّت میدهیم و به این ترتیب، ما میتوانیم خودمان را بیاوریم در جمع همان ده کشور برتر در هوش مصنوعی که حضرت آقا میفرمایند.
لذا همهی شاخصهای بینالمللی برای هوش مصنوعی هم از این زاویه باید مورد بحث و بررسی ما باشد. ممکن است شاخصی امروز در دنیا خیلی مهم باشد و مثلاً در آن شاخص وقتی دارند ما را ارزیابی میکنند، اصلاً ما در دنیا کشور آخر باشیم و رتبهمان خیلی بد باشد، ولی ما در اهدافمان نگاه میکنیم میبینیم جمهوری اسلامی و مردم ایران این هدف را اصلاً نمیخواهند. مثلاً یکی از اهداف هوش مصنوعی برای بحث «برابری جنسیّتی» است. «برابری جنسیّتی» یعنی دیگر چیزی به اسم «مرد» و «زن»، جداگانه موضوعیّت جدّیای نداشته باشد و شما وقتی این را تقویت میکنید ــ که یکی از اهداف سند توسعهی پایدار ۲۰۳۰ است ــ اساساً بنیان خانواده زده میشود. این مقولهی حجاب و فتنههایی که ما در دو سال گذشته داشتیم، همه ذیل آن هدف «برابری جنسیّتی» است. خب اصلاً یکی از آرمانهای هوش مصنوعی این است که آن را تقویت کند و ما وقتی برنامههای بینالمللی برای این قضیّه را اجرا کنیم، به اسم هوش مصنوعی آمدهایم یک چیزی ضدّ قوانین خودمان و ضدّ اهداف و سیاستهای کلّی خودمان اجرا کردهایم. پس چارهای نداریم جز اینکه یک پارادایم اختصاصی، یک دکترین اختصاصی و ملّی برای هوش مصنوعی داشته باشیم و ذیل آن عمل بکنیم. حالا غرب چون این را میداند و در حوزههای دیگر تجربه دارد، برای اینکه کشورها نتوانند به این جمعبندی برسند و چنین کاری بکنند، میخواهد یک نهادی را ایجاد کند که آن نهاد شبیه آژانس بینالمللی انرژی هستهای این کشورها را تحت کنترل خودش دربیاورد و نهایتاً بگوید شما مثلاً این هوش مصنوعی را داشته باش، اینها را نداشته باش یا اصلاً این مدل از هوش مصنوعی را باید بروی با فلان کشور قرارداد ببندی و کار بکنی؛ یعنی همان محدودیّتهایی که ما متأسّفانه در بیست و چند سال گذشته، در انرژی هستهای تجربه کردیم و قصّهی غمانگیزش را همه دیدیم.
سال ۱۳۹۹ وزارت خارجه یک نامهای را از سازمان ملل دریافت کرده بود بابت کدهای اخلاقی هوش مصنوعی. سازمان ملل میخواست این کدها را تدوین بکند، لذا برای کشورهای مختلف از جمله جمهوری اسلامی هم این متن را فرستاده بودند که نظرات کشورها را بگیرند؛ بالاخره این سازوکاری است که سازمان ملل در ظاهر اجرا میکند. یک نسخه از این سند برای ارائهی نظر به دست ما رسید و ما در آزمایشگاه پژوهشی فضای سایبری دانشگاه تهران این سند را با جزئیّات بررسی کردیم. خب مثل خیلی از اسناد دیگری که آنها مینویسند، ظاهرش ظاهر خوبی است؛ یعنی حس میشود که نگاه انساندوستانه دارند و میخواهند به بشریّت خدمت کنند، حرف از اخلاق هم بود که توسعهی هوش مصنوعی اخلاقی باشد و کدهای اخلاقی را رعایت بکنیم. آن نامه حالا در اینترنت موجود است و دوستان میتوانند مراجعه کنند ببینند. ما آنجا پیشبینی کردیم که قرار است یک چنین اتّفاقی بیفتد؛ گفتیم از ظاهر این سند اینجور برمیآید که قرار است یک مجموعهای شبیه آژانس بینالمللی انرژی اتمی در دنیا شکل بگیرد و فعّالیّتهای کشورهایی که در دنیا هستند، ذیل این آژانس رصد بشود و نوع خاصّی از هوش مصنوعی پیش برود و از آن طرف هم اجازه ندهند که کشورها در این موضوع بتوانند رشد و استقلال خودشان را به دست بیاورند. این پیشبینی طبق آن تجربهای بود که در مسئلهی انرژی اتمی داشتیم؛ لذا برآورد ما این بود که چنین اتّفاقی دارد میافتد، تا اینکه پارسال دبیرکلّ سازمان ملل صراحتاً تأکید کرد که ما باید یک چنین آژانسی ایجاد بکنیم و معلوم شد که آن پیشبینی ما صحّت داشته. البتّه ما این نامه را در آن دو سال اّول منتشر نکرده بودیم، امّا سال ۱۴۰۲ بعد از این ماجرا نامه را منتشر کردیم و گفتیم که ما این پیشبینی را داشتیم که قرار است یک چنین اتّفاقی بیفتد، حضرت آقا هم در بحثهایشان در یک ماه گذشته بر این قضیّه تأکید کردند.
البتّه هیچ کدام از اینها پیشگویی نیست، بلکه کاملاً داریم واقعیّتهای جهانی را میبینیم و نگاه میکنیم. این آژانس اگر واقعاً شکل بگیرد ولی هنوز تکلیف ما مشخّص نباشد و آن استقلال را در این قضیّه ایجاد نکرده باشیم، خیلی خطرناکتر از آژانس انرژی اتمی است. حواسمان باشد که ما هنوز به انرژی اتمی وابسته نشدهایم و آن زمانی هم که اینها شروع کردند برای کشور محدودیّت درست کنند، کشور وابسته به انرژی اتمی نبود؛ منتها یک تحلیل دقیق علمی وجود داشت که مثلاً تا افق سی یا چهل سال آینده اگر کشور ما برق هستهای نداشته باشد، با چه بحرانهایی مواجه میشود. همین آیندهنگری بود که اصرار داشت ما حتماً فنّاوری هستهای را در کشور توسعه بدهیم و هنوز هم آن آیندهنگری کاملاً درست است. ولی در مورد هوش مصنوعی قصّه یک ذرّه خطرناکتر است، زیرا ما کموبیش وابسته شدهایم؛ ما در یک بخشهایی به هوش مصنوعی وابسته شدهایم و خیلی سریع داریم جلو میرویم. بیشتر از نهادهای حاکمیّتی هم امروز نهادهای اقتصادی به هوش مصنوعی وابسته شدهاند و نهادهای اقتصادی میتوانند فشار اجتماعی را چند برابر کنند. نهادهای حاکمیّتی چون مقولهی امنیّت را درک میکنند و با آن دستوپنجه نرم میکنند، مستقیم میتوانند یک جوری قضیّه را حل کنند؛ ولی در خصوص نهاد اقتصادی که کارش کلّاً با بازار و تعامل مستقیم با مردم است، ما نمیتوانیم یک چنین فرمولی را اجرا کنیم. بنابراین، در نوع وابستگیها باید مراقبت کنیم که وابستگی نتواند بحران ایجاد بکند.
بههرحال، آن مجموعه در سازمان ملل دیر یا زود رسماً تشکیل میشود و امروز دیده میشود که نوع قصّهاش به چه شکلی است؛ لذا ما سریعاً باید دکترین ملّی هوش مصنوعی را تدوین بکنیم. این دکترین حتی فراتر از سیاستهای کلّی است؛ یعنی اگر مجمع تشخیص مصلحت هم دارد روی سیاستهای کلّیاش کار میکند، قبلش باید دکترین آن را تدوین بکند. تجربهی خوب ما در امور نظامی و سلاحهای پیشرفتهای که داریم باید در هوش مصنوعی به شکل درستی استفاده بشود که به نظر من در آن بُعد نظریاش در حوزهی دکترین خلاصه میشود. انشاءالله اگر ما این اقدام را انجام بدهیم، حتّی اگر آن آژانس هم تشکیل بشود، میتوانیم فعّالانه در آنجا تأثیرگذار باشیم و اگر واقعاً دیدیم به ضرر کشور ما است، ما مجبور نیستیم به این پیمانها بپیوندیم و از اینها اطاعت بکنیم.
خیلی مباحث خوب و عالیای بود و شما تقریباً به تمام سؤالات پاسخ دادید. در پایان، اگر نکتهی خاصّی در این زمینه باقی مانده، ما در خدمتتان هستم.
من فقط یک نکتهای را دربارهی روایت امروز از هوش مصنوعی عرض بکنم. روایتی که امروز به اسم هوش مصنوعی رایج است و در دنیا دارد تبلیغ میشود و نقطهی کانونیاش را هم خود سازمان ملل باید در نظر بگیریم، در تلاش است که اهداف سند توسعهی پایدار را ــ که اینجا به «سند ۲۰۳۰» معروف است ــ محقّق بکند. هفده هدف در حوزههای فرهنگی، اجتماعی، سیاسی و اقتصادی در این سند وجود دارد که اینها اگر به طور کامل محقّق بشوند، حاکمیّتهای محلّی به صورت کامل از دُور خارج خواهند شد و یک نوع حکومت جهانی شکل میگیرد که حالا نمیخواهیم بگوییم سردمدارش آمریکا یا کشور دیگری است؛ این مسئله خیلی اهمّیّتی ندارد، بلکه مهم این است که دست حاکمیّتهای محلّی از ابزارهای کنترلی و سازوکارهای مدیریّت کشورشان تهی میشود و این باعث میشود که عملاً در ذیل نظام سلطه عمل کنند و آن استقلالی که همهی کشورها میخواهند داشته باشند و ما به خاطر مسائل خاصّ کشورمان روی آن تأکید بیشتری داریم از دست میرود. این روایت، روایت خطرناکی است؛ لذا ما روایت خاصّ خودمان از هوش مصنوعی را حتماً باید جدّی بگیریم، نسبت به روایت دشمن در حوزهی هوش مصنوعی باید مشکوک باشیم، خیلی با حساسیّت برخورد بکنیم و تا مطمئن نشدیم این چیزهایی که میگویند به نفع مجموعهی کشور ما است، آنها را اجرا نکنیم.
بههرحال، اینجا بحث دشمنشناسی مطرح است و به نگاه کلانی نیاز دارد که حتّی بالاتر از سطح استراتژیک است و یک بحث فوق استراتژیک تلقّی میشود. انشاءالله با این نگاه، ما امکان این را داریم که در چند سال آینده واقعاً جزو ده کشور برتر در هوش مصنوعی باشیم و برای رفع نیازهای خودمان از آن استفاده بکنیم و کشور را به شکل بهتری ارتقاء بدهیم؛ مطمئنّاً، با همّت جوانان و حمایتهایی که از سمت حاکمیّت رقم میخورد، این آینده دور نخواهد بود.
/انتهای پیام/
منبع: رسانه KHAMENEI.IR