در گفت‌وگو با دکتر کاظم فولادی قلعه مطرح شد؛

تدوین سند ملی دکترین هوش مصنوعی؛ گامی اساسی

تدوین سند ملی دکترین هوش مصنوعی؛ گامی اساسی
ما سریعاً باید دکترین ملّی هوش مصنوعی را تدوین بکنیم. این دکترین حتی فراتر از سیاست‌های کلّی است؛ یعنی اگر مجمع تشخیص مصلحت هم دارد روی سیاست‌های کلّی‌اش کار می‌کند، قبلش باید دکترین آن را تدوین بکند. تجربه‌ی خوب ما در امور نظامی و سلا‌ح‌های پیشرفته‌ای که داریم باید در هوش مصنوعی به شکل درستی استفاده بشود که به نظر من در آن بُعد نظری‌اش در حوزه‌ی دکترین خلاصه می‌شود.

به گزارش «سدید»؛ حضرت آیت‌الله خامنه‌ای در طول سالهای اخیر در چندین نوبت به مسئولان کشور، توجه ویژه به مسأله «هوش مصنوعی» را یادآور شده‌اند. ایشان با اشاره به شتاب بی‌سابقه پیشرفت‌های فناوری در حوزه هوش مصنوعی، تأکید دارند که این فناوری در اداره آینده جهان نقشی تعیین‌کننده خواهد داشت. ایشان معتقدند که «هوش مصنوعی با شتابی حیرت‌انگیز در حال پیشرفت است، به‌گونه‌ای که انسان از سرعت این فناوری متحیر می‌شود. از این رو، یکی از مسائل اساسی که باید مورد تأمل، تکیه و تعمیق قرار گیرد، هوش مصنوعی است.» ۱۴۰۳/۰۶/۰۶

رهبر انقلاب اسلامی با هشدار درباره خطرات بهره‌بردار بودن صرف از این فناوری، بر ضرورت تسلط بر لایه‌های عمیق و متنوع هوش مصنوعی تأکید میکنند و می‌گویند: «بهره‌بردار بودن در مسئله هوش مصنوعی امتیاز محسوب نمی‌شود. این فناوری لایه‌های عمیق و متنوعی دارد که در اختیار دیگران است. اگر نتوانیم بر این لایه‌ها مسلط شویم، در آینده ممکن است ساختارهایی مشابه آژانس‌های بین‌المللی ایجاد شود که برای استفاده از بخش‌های مختلف هوش مصنوعی، اجازه یا محدودیت اعمال کنند. قدرت‌طلبان و فرصت‌طلبان دنیا به دنبال چنین اقداماتی هستند.» ۱۴۰۳/۰۶/۰۶

حضرت آیت‌الله خامنه‌ای تأکید میکنند که کشور باید حداقل در میان ده کشور برتر جهان در حوزه هوش مصنوعی قرار گیرد و به دولت چهاردهم توصیه کرده‌اند که «در زمان دولت سیزدهم، سازمانی به نام "سازمان ملی هوش مصنوعی" زیر نظر رئیس‌جمهور تشکیل شد. اگر این سازمان همچنان با نظارت مستقیم رئیس‌جمهور به فعالیت خود ادامه دهد، امیدواری زیادی برای دستیابی به اهداف متصور در این حوزه وجود خواهد داشت.»
 
رهبر انقلاب از مسئولان خواسته‌اند تا با برنامه‌ریزی دقیق، فناوری هوش مصنوعی را به‌عنوان یکی از ارکان اصلی پیشرفت کشور در اولویت قرار دهند و زمینه‌های رشد آن را در همه سطوح فراهم کنند.
 
از این رو، در ادامه مطالب پرونده‌ی «بررسی الزامات پیشرفت ایران در حوزه هوش مصنوعی»، گفت‌وگویی با دکتر کاظم فولادی قلعه، عضو هیئت علمی دانشگاه تهران و سرپرست آزمایشگاه فضای سایبر دانشگاه تهران، به بررسی موضوع حکمرانی بر بستر هوش مصنوعی پرداخته است.

 
به نظر می‌رسد که امروز، حدّاقل برای مردم ما، هوش مصنوعی در جنبه‌های سرگرمی و تفریحی آن خلاصه شده و مردم هنوز از واقعیّت هوش مصنوعی و کاربردهای جدّی‌ای که در زندگی‌شان می‌تواند داشته باشد، خیلی خبر ندارند. لطفاً یک مقدار به صورت جدّی‌تر از این موضوع بگویید و بفرمایید که هوش مصنوعی چه کاربردهای جدّی‌ای در زندگی مردم دارد.
 
بسم الله الرّحمن الرّحیم. ابتدا خدمت جنابعالی و همچنین مخاطبانی که این مصاحبه را می‌بینند سلام عرض می‌کنم و افتخار دارم که برای توضیح و تشریح این موضوع بسیار مهم در خدمتتان هستم. در واقع، آینده به گونه‌ای است که هر کسی در هر مجموعه‌ای و در هر شغلی مشغول کار است، از مقوله‌ی هوش مصنوعی متأثّر می‌شود و همان‌طور که فرمودید، یکی از اوّلین تأثیراتش در همین زمینه‌‌های معیشت و اقتصاد مردم و به طور کلّی در زندگی مردم است.

ببینید! خیلی از بخش‌های زندگی ما به نوعی وابستگی به تصمیمات هوشمند دارد و تا زمانی که ماشین‌ها نتوانند آن کیفیّت لازم را در این تصمیم‌گیری و چیزهای شبیه به این ارائه بدهند، خود انسان‌ها این کارها را انجام می‌دهند. مثلاً فرض کنید یک کسی می‌خواهد مجوّز یک فعّالیّتی را بگیرد، امّا با وجود همه‌ی سازو‌کارهای پیشرفته‌ای که امروز در حوزه‌ی آی‌تی برای صدور این مجوّز فعّالیّت پیش‌بینی شده ــ مثل همین درگاه خدمات واحده‌ای که دولت ایجاد کرده ــ در نهایت، یک شوراهایی باید بنشینند تصمیماتی بگیرند که آن‌ها هم قاعدتاً بر حسب یک معیارهایی این کار را انجام می‌دهند. اگر هوش مصنوعی مثلاً در یک چنین حوزه‌ای نهادینه بشود و جا بیفتد، عملاً‌ می‌شود این شوراها را کنار گذاشت و این کارهایی را که مردم مثلاً در راه‌اندازی کسب‌و‌کار به آن نیاز دارند، کامپیوتر با الگوریتم‌های پیشرفته‌ای که دارد، شاید حتّی بتواند دقیق‌تر از مجموعه‌های انسانی هم انجام بدهد و خود همین باعث می‌شود که حجم بالایی از کارها در زمان خیلی کوتاه‌تری رقم بخورد و حتّی این سیستم می‌تواند خیلی باحوصله‌تر از آدم‌ها باشد. اگر مثلاً یک کسی بخواهد در مورد همان کسب‌و‌کاری که دنبال مجوّزش است مشاوره بگیرد که مثلاً آیا من این کار را شروع بکنم یا نه، ممکن است امروز یک مشاور انسانی خوب گیرش بیاید و راهنمایی مناسبی به او بدهد، ممکن هم هست این اتّفاق نیفتد و او مجوّز هم بگیرد و کارش را شروع کند، امّا خدای ناکرده شکست بخورد. اگر در یک چنین کاربردی هوش مصنوعی جای خودش را به طور واقعی پیدا بکند، آن فرد که درخواست مجوّز داد، به آن مراحل تصمیم‌گیری که می‌رسد، دیگر معطّل انسان و تشکیلات انسانی نمی‌شود و همان سیستم می‌تواند معیارها را بررسی بکند و حتّی مشاوره‌هایی به فرد بدهد، بگوید مثلاً اگر این کار را شروع بکنی ممکن است که در یک چنین مواردی با چالش‌هایی روبه‌رو بشوی یا حتّی به‌عکس، ممکن است مثلاً پیشنهاد بکند که این حوزه خیلی مهم است، شما اگر ورود بکنی مثلاً می‌توانی سود کلانی در طول سال داشته باشی. به هر صورت، ضمن اینکه دارد فعّالیّت‌های آن انسان‌ها را انجام می‌دهد، یک ارتباط مناسبی هم با مخاطبش برقرار می‌کند. در نهایت، اوّلاً آن گلوگاه‌هایی که تصمیم‌گیری‌های هوشمند انسانی در آن‌ها ضروری بوده کنار گذاشته می‌شود و امور تسهیل می‌شود، سرعت کارها بالاتر می‌رود، حجم کارهایی که در واحد زمان قابل انجام است افزایش پیدا می‌کند و به نظر می‌رسد بعضی از این معضلات نظام اداری که برای مردم مشکل ایجاد می‌کند برطرف می‌شود.

البتّه مثال‌های دیگری هم می‌شود زد. مثلاً فرض کنید در مقوله‌ی آموزش، یک فردی می‌خواهد در مورد یک حرفه‌ای آموزش ببیند؛ هوش مصنوعی می‌تواند راهنمایی‌اش بکند که در این زمینه بهتر است که شما از چه مسیری جلو بروی. این راهنمایی هم می‌تواند کاملاً‌ اختصاصی باشد؛ یعنی برای هر فردی متناسب با استعدادی که دارد، متناسب با امکاناتی که دارد و در محلّی که زندگی می‌کند، یک راهنمایی اختصاصی صورت بگیرد و بهترین گزینه به او پیشنهاد بشود. پس در حوزه‌های آموزشی هم ما برای هر فردی، متناسب با نیازی که داریم، می‌توانیم محتوای آموزشی اختصاصی ارائه بکنیم.

برگردیم به حوزه‌ی کسب‌و‌کار. کسی یک چیزی را دارد تولید می‌کند، می‌خواهد آن را بفروشد؛ بهترین مشتری‌ها با بهترین قیمت‌ها توسّط هوش مصنوعی می‌تواند برای آن فرد معرّفی بشود، تبلیغات می‌تواند به صورت هدفمند ارائه بشود و بالاخره این مجموعه‌داده‌های عظیمی که پشت صحنه‌ی سیستم هوش مصنوعی هست، می‌تواند این راهنمایی را برای افراد ایجاد بکند که مثلاً مخاطبان اصلی شما چه کسانی هستند؛ اگر قرار است پیامی هم بدهید، آن سیستم پیام‌رسان برای عموم مردم کار نکند، بلکه فقط آن قشر مخاطب را به شکل درستی شناسایی کند.

بنابراین، تحوّل حتّی در رسانه هم اتّفاق می‌افتد و اینکه فقط یک رسانه وجود داشته باشد و همه یک محتوای ثابت ببینند، به کمک هوش مصنوعی می‌تواند متحوّل بشود. همین چیزی که داریم می‌گوییم، الان در خیلی از پلتفرم‌های شبکه‌های اجتماعی دارد استفاده می‌شود و آن محتوایی که به کاربر نشان داده می‌شود، اصطلاحاً شخصی‌سازی و سفارشی‌سازی شده و آن چیزهایی را به فرد نشان می‌دهد که او بعضاً‌ احساس رضایت بیشتری از آن‌ها می‌کند و خودش بیشتر دنبال آن موضوعات است؛ یعنی این رسانه، رسانه‌ی اختصاصی او شده.

البتّه ما می‌توانیم تا فردا صبح هم این مثال‌ها را مرور بکنیم و تمام نشود، امّا کلید همه‌ی این‌ها یک نکته است: هر جا انجام یک کاری نوعی از تصمیم‌گیری انسانی را نیاز داشته باشد، اینجا ما می‌توانیم با هوش مصنوعی آن انسان را کنار بگذاریم و به جایش ماشین قرار بدهیم؛ نتیجه‌اش هم این است که حالا آن کار می‌تواند با سرعت بیشتر و در حجم بیشتری در واحد زمان انجام بشود و حتّی یک جاهایی دقّتش هم می‌تواند بالاتر باشد. البتّه در مورد بسیاری از پارامترهای دیگر هم در اینجا می‌شود صحبت کرد.

 
شما می‌گویید که یک بخش زیادی از این شغل‌ها توسّط ماشین انجام می‌شود.آیا این روند باعث نمی‌شود که مردم شغل‌های خودشان را از دست بدهند و اعتراضات اجتماعی شکل بگیرد؟ در این صورت، چه اتّفاقی خواهد افتاد؟
 
بله، همین‌طور است؛ در واقع، این هم مثل همه‌ی پدیده‌های توسعه‌ی دیگر است. ما در حوزه‌ی توسعه، همه‌ی این قصّه‌ها را تجربه کردیم؛ در این موضوع هم این قصّه حتماً‌ اتّفاق می‌افتد. امروز آمار این است که هشتاد درصد شغل‌ها بین سال‌های ۲۰۳۰ تا ۲۰۴۰ به واسطه‌ی هوش مصنوعی از بین می‌روند و به جای آن‌ها شغل‌های جدیدی شکل می‌گیرد. همین نکته‌ای که شما می‌فرمایید، دقیقاً می‌تواند در موضوع از بین رفتن شغل‌ها رقم بخورد؛ یعنی معیشت افراد دچار مشکل می‌شود و به تبع آن، اعتراضات اجتماعی هم می‌تواند شکل بگیرد. ولی اگر همین افرادی که شغلشان دارد تغییر پیدا می‌کند یا از بین می‌رود، بتوانند خودشان را در این فاصله‌ی زمانی با شغل جدیدی که حالا به واسطه‌ی هوش مصنوعی به وجود می‌آید هماهنگ کنند، این خطر می‌تواند مرتفع بشود؛ یعنی یک شغل جدیدی با یک سازو‌کار تازه به وجود می‌آید.

حالا مثلاً ما دهه‌ی شصتی هستیم؛ احتمالاً یادتان هست که در دهه‌ی شصت، حروف‌چینی روزنامه‌ها و کتاب‌ها در چاپخانه‌ها عموماً سربی بود و به‌ندرت ابزار پیشرفته‌تری وجود داشت و فقط یک جاهای خاصّی ابزارهای کامپیوتری در اختیار داشتند. در دهه‌ی هفتاد، سیستم حروف‌چینی رفت به سمت کامپیوتری شدن؛ یعنی به انتهای دهه‌ی هفتاد که رسیدیم، حروف‌چینی سربی تقریباً دیگر استفاده نمی‌شد و امروز هم اصلاً مسئله‌ای عجیب است؛ اگر در مورد حروف‌چینی سربی کسی صحبت کند، گویی دارد در مورد یک چیز ماقبل تاریخ صحبت می‌کند. کامپیوتر آمد و در ایران هم یکی از اوّلین کاربردهای عمومی کامپیوتر، همین موضوع حروف‌چینی و نشر کامپیوتری بود و یک سری نرم‌افزارهایی به وجود آمد که اتّفاقاً بومی هم بودند، داخل خود کشور ساخته شده بودند و خیلی هم باکیفیّت کار می‌کردند؛ مثل نرم‌افزار زرنگار، مثل نقش، مثل نشر الف و نامه‌نگار. من تعمّداً اسم‌هایشان را می‌آورم، به خاطر اینکه ما فکر می‌کنیم همه چیز از خارج برای ما آمده، ولی واقعاً این محصولات توسّط آدم‌های داخل کشور تولید شده بود و به‌خوبی هم کار می‌کردند و هنوز قابلیّت‌هایی دارند که بعضی از نرم‌افزارهای خارجی نتوانستند آن‌ها را پیاده‌سازی کنند.

به هر صورت، امروز در مقوله‌ی حروف‌چینی، کسی که بلد بود با سیستم تایپ سربی کار بکند، آن دانشش دیگر قابل استفاده نیست ولی همان‌ها احتمالاً خودشان هم با مدل حروف‌چینی کامپیوتری پیش رفته‌اند. امروز هم شغل تایپیست دارد کنار گذاشته می‌شود؛ یعنی سیستم هوش مصنوعی امروز می‌تواند همین گفت‌وگوی ما را به صورت آنلاین تبدیل به متن بکند و حتّی بعد می‌تواند آن متن را ویراستاری بکند. ببینید! همه‌ی این‌ها امروز مشاغلی هستند که هوش مصنوعی می‌تواند این‌ها را جایگزین کند. بنابراین، فرد در شغلی شبیه به شغل خودش که با هوش مصنوعی به‌روز شده، می‌تواند مشغول به کار بشود.

البتّه به نظر می‌رسد دیگر آن حجم از نیروی انسانی مورد نیاز نیست؛ مثلاً آمار بعضی از کشورها در دو سال گذشته این بود که تقریباً هشتاد درصد نیروهای گرافیستشان را مرخّص کردند و گفتند اگر ما ده نفر گرافیست داریم، دیگر دو نفر هم باشند کفایت می‌کند؛ چون هوش مصنوعی نیاز گرافیگی‌شان را برطرف می‌کرده، دیگر به آن هشت نفر نیاز ندارند. بنابراین، بسته به نیاز، حجم فعّالیّت انسانی هم تغییر می‌کند که خب آن افراد طبیعتاً می‌توانند بروند سراغ شغل‌های جدیدی که با هوش مصنوعی دارد شکل می‌گیرد.

البتّه بعضی از شغل‌ها پیچیدگی دارد و این نگرانی کاملاً درست است؛ ما در دوره‌ی فعلی، شغل‌هایی با هوش مصنوعی داریم که سطح معلومات و سواد بالایی احتیاج دارد و فرد باید تحصیلات تکمیلی در دانشگاه را در آن رشته‌ها دنبال کرده باشد تا بتواند موفّق بشود و خیلی از شغل‌ها هم امروز هست که اصلاً سواد خاصّی نیاز ندارد و حتّی شاید کسی که فقط خواندن و نوشتن بداند، بتواند آن‌ها را انجام بدهد. نگرانی در مورد هوش مصنوعی این است که این شغل‌هایی که افراد در آینده به سراغش می‌روند، ممکن است پیچیدگی‌های بالاتری داشته باشد؛ یعنی سطح سواد بالاتری بخواهد، سطح معلومات بیشتر و تمرکز بیشتری بخواهد که به هر صورت، نظام آموزشی با شناخت دقیق ملاحظات این ماجرا باید نیروهای دهه‌های آینده را تربیت بکند؛ امّا اگر بخواهد همچنان با همان سبک گذشته پیش برود، این حتماً می‌تواند منجر به بحران‌های اجتماعی بشود.

 
شما در صحبت‌هایتان یک اشاره‌ای داشتید به تهدیدهایی که هوش مصنوعی می‌تواند برای ما داشته باشد. به نظر شما، این موضوع در چه زمینه‌هایی می‌تواند برای کشور تهدیدآور باشد؟
 
ما اگر در بحث هوش مصنوعی وارد سطوح بالاتر از تکنیکی و سطوحی که عمومی است بشویم، آنجا، هم پیچیدگی‌اش یک مقدار بیشتر است، هم ملاحظات متنوّعی دارد. پس من اوّل یک مقدّمه‌ای در مورد این قضیّه عرض می‌کنم.

در نسبت با حاکمیّت‌ها و نظام‌های اداره‌ی جهان در سطوح مختلف ــ چه سازمان‌های بین‌المللی و جهانی، چه دولت‌های محلّی در کشورهای مختلف و ذیل آن‌ها در استانداری‌ها، فرمانداری‌ها، شهرداری‌ها و حتّی اداره‌ی محلّه‌ها ــ آنجایی که ما می‌خواهیم به کاربرد حاکمیّتی هوش مصنوعی اشاره بکنیم، عملاً باید چهارچوب و پارادایم اختصاصی هوش مصنوعی را تعریف بکنیم. هوش مصنوعی اینجا دیگر صرفاً یک ابزار تلقّی نمی‌شود، بلکه می‌شود گفت اصلاً یک سازو‌کاری است برای اینکه نوع خاصّی از حاکمیّت تعمیق پیدا بکند و محقّق بشود.

این نوع خاصّ حاکمیّت چیست؟ حدّاقل در کشور خودمان، بیش از بیست سال است که داریم می‌بینیم نوعی از حاکمیّت به اسم «حاکمیّت سایبرنتیکی» دارد محقّق می‌شود و ابعادش هم روزبه‌روز گسترده‌تر می‌شود. «حاکمیّت سایبرنتیکی»، در واقع، متأثّر از دانش سایبرنتیک شکل می‌گیرد و دانش سایبرنتیک هم دانش حکومت از طریق روش کنترل است. برای کنترل، یک مدل مفهومی وجود دارد و آن‌هم اینکه هر وقت صحبت از کنترل می‌کنیم، لاجرم دو جزء سیستمی وجود خواهند داشت: کنترل‌کننده و کنترل‌شونده. این‌ها از هم تفکیک می‌شوند؛ یعنی سازو‌کار کنترل، تفکیک دو جزء فاعل کنترل و مفعول کنترل را لازم دارد. فاعل کنترل یک جزئی است که می‌تواند فکر کند، می‌تواند تصمیم‌گیری کند و در نهایت، نتیجه‌‌ی پردازش‌های فکری خودش را به صورت یک فرمان به کنترل‌شونده ارائه می‌کند. کنترل‌شونده حتّی اگر توان فکر کردن هم داشته باشد، اینجا نباید از آن استفاده کند، بلکه فقط باید فرمان را اجرا کند. پس تفکیک یک جزئی که فقط باید کار بکند از جزئی که فقط باید فکر بکند، در سازو‌کار سیستم سایبرنتیکی وجود دارد.

بخش کنترل‌شونده، متناسب با فرمانی که دریافت کرده، کار خودش را انجام می‌دهد؛ کار را که انجام داد، نتیجه‌ی انجام کارش روی محیط آن مجموعه آثاری می‌گذارد و این آثار دوباره توسّط کنترل‌کننده می‌تواند مورد تحلیل و بررسی قرار بگیرد که اصطلاحاً به این می‌گویند «فیدبک»؛ یعنی خروجی سیستم دوباره به خود سیستم برمی‌گردد و حالا کنترل‌کننده نگاه می‌کند ببیند اهدافی که مدّ نظر داشته محقّق شده یا نه؛ بنابراین، فرمانش را برای مرحله‌ی بعدی به گونه‌ای اصلاح می‌کند که آن اهداف، بهتر محقّق بشود. این چرخه‌ی بین کنترل‌کننده و کنترل‌شونده تا بی‌نهایت ادامه پیدا می‌کند و عملاً در این فرایند، کنترل‌کننده از کنترل‌شونده سلب اختیار می‌کند. اینکه گفتیم کنترل‌شونده نباید فکر کند، یعنی از آن سلب اختیار می‌شود و در نهایت، هدف کنترل‌کننده محقّق می‌شود. کنترل‌شونده هم چون در یک فرایند نرم دارد این دستورات را دریافت می‌کند و اجباری احساس نمی‌کند، مقاومتی هم نمی‌کند و آن مقوله‌ی سلب اختیار رقم می‌خورد.

البتّه یک مقدار این حرف سنگین است؛ یعنی وقتی ما این را بیان می‌کنیم که یک چنین مدل حاکمیّتی وجود دارد، کسی باور نمی‌کند. حالا ممکن است یک روزی در ایران هم یک چنین حاکمیّتی شکل بگیرد، ولی بحث ما یک بحث علمی است؛ اینکه آن اتّفاقی را که دارد می‌افتد، بر اساس متغیّرها و پارامترهای آن پدیده ملاحظه می‌کنیم و حتّی نمونه‌های جهانی برایش داریم. الان نوع حاکمیّتی که در چین شکل گرفته یک چنین حاکمیّتی است و کشورهایی مثل استرالیا و کانادا هم دارند این مدل حاکمیّتی را دنبال می‌کنند و به این سمت رفته‌اند. البتّه احتمالاً برای مخاطبان ما عجیب است که مثلاً یک کشوری که ایدئولوژی کمونیستی دارد، چطور با کشورهایی که ایدئولوژی لیبرالیستی دارند مشابه عمل می‌کند. این‌ها جزو همان تحوّلاتی است که ما در مقوله‌ی «نظم جدید جهان» باید روی آن تمرکز کنیم و ببینیم، ولی ریشه‌اش از نظر علمی برمی‌‌گردد به این مدل «حاکمیت سایبرنتیکی» که عرض کردم تابع دانش سایبرنتیک است.

اشکال این مدل حاکمیّت در سطح بالا این است که وقتی شما این مدل حاکمیّت را در مورد جامعه‌ی انسانی می‌خواهید به کار ببرید، با ماهیّت انسان که اساساً با اختیار و آزادی‌اش تعریف می‌شود تضاد پیدا می‌کند. خب ما در جمهوری اسلامی مدّعی یک نوع متفاوتی از حاکمیّت هستیم، به اسم «حاکمیّت ولایی»؛ اینجا به جای سایبرنتیک، ولایت کار می‌کند و روش، روش ولایی است. در روش ولایی، به جای کنترل، ما هدایت داریم، هدایت هم مبتنی بر اختیار رقم می‌خورد؛ یعنی گردش اطّلاعات در نظام ولایی منجر به رشد مردم می‌شود، منجر به رشد جامعه می‌شود و جامعه‌ای که رشید می‌شود، خودش کار درست را انجام می‌دهد و اینجا دیگر به اجبار و این مدلی که در بعضی از آن کشورها دارد رقم می‌خورد، نیازی وجود ندارد. خوب است حالا مخاطبان ما از این منظر یک بار آن کتاب ارزشمند رهبر انقلاب را ببینند؛ یعنی «طرح کلّی اندیشه‌ی اسلامی در قرآن» که یک اثر ماندگار است و بر اساس مجموعه‌ی سخنرانی‌‌های حضرت آقا در ماه مبارک رمضان سال ۵۳ هجری شمسی تهیّه شده. آنجا حضرت آقا مدل «حاکمیّت ولایی» را همراه با مقدّماتی که قبلش در حوزه‌ی توحید و نبوّت و مانند این‌ها وجود دارد، تشریح می‌کنند. فارغ از اینکه این اثر منتسب به رهبر معظّم انقلاب است، اصلاً به عنوان یک شاهکار علمی قابل ملاحظه و مطالعه است. این را از این جهت گفتیم که اگر می‌گوییم که ما یک مدل متفاوت از حاکمیّت را داریم، این چیزی نیست که حالا تازه بخواهیم برویم روی آن مطالعه انجام بدهیم؛ نه، روی آن کار شده، صحبت شده و بزرگان دیگری هم ذیل همین دیدگاه فعّالیّت کرده‌اند. لذا ما مدل حاکمیّتی اختصاصی خودمان را داریم و امروز نگران هستیم که مدل «حاکمیّت سایبرنتیکی» به خاطر تفوّق تکنولوژیکش چون اصالت را به ماشین‌ها می‌دهد، ماشین‌ها را قدرتمند می‌کند و مردم را ذیل ریل‌گذاری ماشینی تعریف می‌کند، باعث شود که حاکمیّت از نوع ولایی تضعیف بشود.

ما حالا باید وارد جزئیّات این مسئله بشویم که سایبرنتیک به عنوان یک علم پایه و مدل حکمرانی سایبرنتیکی در سطح بالاترش، دنیای آینده را چگونه رقم می‌زند. گفتیم که روش سایبرنتیک کنترل است. کنترل از نظر فنّی به دو بال احتیاج دارد: بال ارتباطات و بال محاسبات. به دلیل اینکه ما بین کنترل‌کننده و کنترل‌شونده تفکیک قائل شدیم و کنترل‌کننده می‌خواهد به کنترل‌شونده فرمان بدهد، این ارسال فرمان که در قالب ارسال اطّلاعات است نیازمند سازو‌کار ارتباطات است. طبیعی است که فاصله‌ی بین کنترل‌کننده و کنترل‌شونده هم می‌تواند خیلی دور باشد؛ مثلاً چند هزار کیلومتر بینشان فاصله باشد، ولی سازو‌کار ارتباطی قوی اگر وجود دارد، می‌تواند در کسری از ثانیه این فرمان را منتقل کند؛ یعنی همین اتّفاقی که امروز در شبکه‌ی اینترنت دارد می‌افتد و ما شاهدش هستیم. از آن طرف، هم کنترل‌کننده و هم کنترل‌شونده ساختار محاسباتی دارند که ورودی‌شان اطّلاعات است، خروجی اطّلاعات هم تحویل می‌دهند؛ لذا شما به محاسبات هم احتیاج دارید. به‌خصوص، واحد کنترل‌کننده که می‌خواهد فکر کند و فرمان بدهد و باید حجم زیادی از اطّلاعات را پردازش بکند، نیاز به حجم بالاتری از منابع محاسباتی خواهد داشت. پس ارتباطات و محاسبات، دو رکن فرعی حساب می‌شوند برای رکن اصلی کنترل در نظام سایبرنتیکی.

در حوزه‌ی ارتباطات، شما امروز با موضوع پهن‌باند یا باند گسترده مواجه هستید؛ یعنی آن پهنه‌ی باند خیلی زیاد و ظرفیّت مخابراتی و ارتباطی که حجم اطّلاعاتی را در واحد زمان می‌تواند ارسال بکند. تکنولوژی‌ای مثل فیبر نوری، تکنولوژی‌ای مثل ۵جی و ۶جی ــ که امروز برای توسعه‌ی این‌ها خیلی فعّالیّت می‌شود ــ و چیزهایی شبیه به این‌ها را که ما در دنیا داریم می‌بینیم، این بُعد نظام سایبرنتیکی را تقویت می‌کند. در مقابلش، ما پیشرفت در محاسبات را در حوزه‌ی سخت‌افزار و نرم‌افزار هم شاهدیم. امروز در کلّ جهان، در واحد زمان، چند هزار عملیّات محاسباتی در یک مجموعه‌ی کوچک دارد رقم می خورد. البتّه چند هزار خیلی کم است و باید بگوییم میلیاردها، بلکه هزاران میلیارد عمل محاسباتی دارد انجام می‌شود.

هوش مصنوعی هم در بُعد محاسبات تعریف می‌شود؛ یعنی اگر می‌گوییم امروز هوش مصنوعی دارد کاربردهای خودش را در حوزه‌های مختلف نشان می‌دهد، یعنی محاسبات پیشرفته، حتّی در حدّ مغز انسان و بلکه بالاتر از آن توسّط هوش مصنوعی امکان‌پذیر می‌شود و کارهایی را که قبلاً شما نمی‌توانستید انجام بدهید، حالا می‌توانید از آن توقّع داشته باشید. امروز مثلاً ما می‌بینیم که بینایی کامپیوتری خیلی پیشرفت کرده؛ مثلاً اگر قرار بود کنترل کیفیّت یک محصول در کارخانه با چشم آن مسئول فنّی‌ای که آنجا گذاشتیم رقم بخورد، امروز آن آدم را برمی‌داریم و به جایش یک کامپیوتر می‌گذاریم با بینایی کامپیوتری که آن کنترل کیفیّت را رقم می‌زند؛ مثلاً در یک کارخانه‌ی تولید کاشی، می‌خواهید ببینید کاشی‌ها شکستگی دارد یا چاپ طرح روی آن درست انجام شده یا نه که اگر مثلاً اشکالی دارد، آن را کنار بگذارد و فقط آن کاشی‌های سالم را برای بسته‌بندی ارسال کند و چیزهای شبیه به این که به سیستم بینایی و چشم نیاز داشته باشد. یا حتّی در خصوص شنوایی، گفتیم که می‌تواند گفت‌وگوی ما را به صورت آنلاین به متن تبدیل کند؛ خب این باید حرف ما را بشنود و تا حدّی هم باید آن را بفهمد تا بتواند ترجمه‌اش کند یا به متن تبدیلش کند. ببینید! همه‌ی این‌ها کارهای محاسباتی است؛ یعنی هر چقدر ما در هوش مصنوعی جلو می‌رویم، رکن محاسبات که ابزار کنترل است دارد قوی‌تر می‌شود. لذا ارتباطات قوی و‌ محاسبات قوی، نتیجه‌اش کنترل قوی است.

حالا سؤال این است که این کنترل دست چه کسی است؟ اگر این کنترل مثلاً دست یک حاکمیّت صالحی باشد که منافع مردم را در نظر می‌گیرد نه منافع یک قشر خاصّی که ممکن است به تعبیری مافیا تلقّی بشوند یا خدای ناکرده منافع استکبار جهانی به طور ویژه بخواهد آنجا محقّق بشود، نگران خیلی از موضوعات نخواهیم بود. هر‌چند ذات کنترل به خاطر آن سلب اختیاری که انجام می‌دهد نقص جدّی‌ای دارد، ولی حکومت صالح می‌تواند این را مدیریّت بکند؛ مثلاً جاهایی مثل همین کنترل کیفیّت در کارخانه‌ها که توسّط ماشین انجام می‌شود، اتّفاقاً این‌ها را تشویق کند که از هوش مصنوعی بیشتر استفاده بشود؛ ولی مثلاً حوزه‌ی قضاوت، جایی که می‌خواهد در مورد رفتار انسان قضاوتی صورت بگیرد یا حتّی بحث‌هایی مثل آموزش، این‌ها چیزهایی است که بهتر است کمتر به ماشین‌ها سپرده بشود. حکومت صالح، بر اساس مصالح و نیازهای مردم، می‌تواند درست از این سیستم استفاده کند؛ امّا اگر این دست یک حاکمیّت ناصالحی باشد و مدل استکباری را ما اینجا داشته باشیم، بدترین استفاده‌ها را از این سیستم‌ها خواهند کرد و با سلب اختیاری که از مردم انجام می‌دهند، اساساً امکان رشد مردم را از آن‌ها می‌گیرند و امکانات ویژه‌ای را که عموم مردم می‌توانند داشته باشند، در این قضیّه از دست می‌دهند.

پس ما می‌توانیم اینجا نگران این قضیّه باشیم که این پیشرفت هوش مصنوعی که منجر به پیشرفت حاکمیّت سایبرنتیکی مبتنی بر کنترل می‌شود، قدرت چه کسی را زیاد می‌کند. آیا ما به عنوان کشور جمهوری اسلامی ایران، قدرتمان را می‌توانیم افزایش بدهیم یا اینکه ممکن است غفلتی بکنیم یا به روش‌هایی کار را پیش ببریم که قدرت دشمنمان را بیشتر بکنیم؟ در حقیقت، این یکی از نقاط عطف کلیدی تصمیم‌گیری ما است که باید این فهم را از ماجرا داشته باشیم که بتوانیم درست تصمیم‌گیری کنیم. متأسّفانه، بحث در مورد سیستم‌های سایبرنتیکی و علم سایبرنتیک در مجامع علمی بسیار محدود است، هنوز دستگاه‌های حاکمیّتی اهمّیّت این ماجرا را متوجه نشده‌اند و خیلی‌ها حتّی به ارتباط بین هوش مصنوعی و سایبرنتیک دقّت نمی‌کنند.

حالا من یک نکته‌ی تاریخی خدمت شما عرض بکنم. هر سه حوزه‌ی علوم شناختی،‌ علم سایبرنتیک و هوش مصنوعی، تقریباً هم‌زمان با هم متولّد شدند؛ یعنی دهه‌ی ۱۹۴۰ و ۱۹۵۰ میلادی زمانی است که این سه رشته به عنوان رشته‌های علمی جدید به دنیا معرّفی شدند. این‌ها از نظر اهدافی که دارند و از نظر روش‌هایشان، خیلی به هم نزدیکند. حتّی در مورد هوش مصنوعی یک نقلی در منابع تاریخی این حوزه هست که یکی از دلایلی که آقای جان مک‌کارتی ــ پدر هوش مصنوعی ــ عنوان «Artificial intelligence» را در سال ۱۹۵۴ پیشنهاد کرد و بحث‌های خودش را ذیل عنوان «سایبرنتیک» مطرح نکرد، این بود که می‌خواست با آقای نوربرت وینر مواجه نشود. وینر پدر علم سایبرنتیک است و همان نقشی که نیوتن در فیزیک دارد که شما در فیزیک از هر راهی می‌روید باز به نیوتن برخورد می‌کنید، همان نقش را وینر در علم سایبرنتیک دارد. در واقع، وینر این علم را چهارچوببندی کرد و مشخّصاتش را مطرح کرد، ولی این مفاهیم مربوط به ماشین‌های یادگیرنده و یادگیری ماشین را که امروز نقل اصلی محافل هوش مصنوعی است، اوّلین بار مک‌کارتی مطرح کرد. لذا گفته می‌شود که چون جان مک‌کارتی می‌خواست با وینر مواجهه و مبارزه‌ی علمی نداشته باشد،‌ عنوان دیگری را انتخاب کرد و حمایت‌های جایگزینی را عملاً از مجموعه‌های علمی و اقتصادی آن دوران در ایالات متّحده جلب کرد. به‌هر‌حال، علم هوش مصنوعی جلو رفت و به علم سایبرنتیک ــ با وجود اهمّیّتی که داشت و دانشمندان بزرگی هم که داشت ــ به این شدّت مثل علم هوش مصنوعی توجّه نشد، غافل از اینکه ریشه‌های علم هوش مصنوعی در دانش سایبرنتیک است که هم قدیمی‌تر است و هم وقتی پایه‌های یک نظریّه‌ای در جای دیگر بیان شده، اصالت با آن است.

وقتی یک دانشی هست که مستقیم دارد مقوله‌ی کنترل را مطرح می‌کند، بحثش حاکمیّت است و اینکه اصلاً اختیار دست چه کسی باشد و کنترل را چه کسی رقم بزند، خب جنس این علم خیلی اقتدارزا است و تولید قدرت می‌کند، بر‌خلاف بعضی از علوم که اقتدارزدا هستند؛ یعنی شما هر چقدر به سمت آن‌ها می‌روید، به خاطر نوع نگرششان و ابزارهایی که نیاز دارند، شما را به یک جایی وابسته‌تر می‌کنند. مثلاً بعضی از علوم ما امروز این‌جوری هستند و به ابزارهای خاصّ تکنولوژیک نیاز دارند؛ علوم ارزشمندی هم هستند، خیلی هم مفیدند، ولی چون نیاز دارند که شما حتماً بروید به سمت مثلاً تهیّه‌ی آن دستگاه‌ها و اگر آن دستگاه‌ها نباشند نمی‌توانید کار را پیش ببرید، دشمن هم این نیاز ما را می‌داند، لذا ما را در آن حوزه‌ها تحریم می‌کند و مشکلات ما را چند برابر می‌کند. مثلاً در آن مجامع علمی‌شان، یک جاهایی اصلاً ما را راه نمی‌دهند که مطّلع بشویم دارند چه کار می‌کنند! خب خود همین بی‌اطّلاعی، عقب‌ماندگی برای کشور به وجود می‌آورد. ولی وقتی ما می‌رویم سراغ علومی که این اتّفاق برایش کمتر می‌تواند بیفتد، مستقل‌تر هستند و سعی می‌کنیم نظام علمی‌مان را از دل آن علوم توسعه بدهیم و بالا بیاوریم، ورق کاملاً برمی‌گردد.

در این مدّتی که آقا فرمودند «به لایه‌های عمیق هوش مصنوعی توجّه بکنید»، برای خیلی‌ها سؤال شده است که این «لایه‌های عمیق» دقیقاً چیست. به این سؤال می‌شود این‌جوری پاسخ داد که این لایه‌ها در دو بُعد نظری و عملی قابل دسته‌بندی هستند. ما اگر بُعد نظری قضیّه را ببینیم، یک بخش از دانش هوش مصنوعی ذیل علوم کامپیوتر و مهندسی کامپیوتر و علوم فنّی مربوط به حوزه‌ی تولید سیستم‌های محاسباتی است. عمیق‌تر از آن، دانش ریاضیّات و دانش فیزیک است که می‌شود گفت آنجا سازو‌کارهای علمی سیستم‌های هوشمند را به ما ارائه می‌کند. همه‌ی این‌ها مبتنی بر الگوریتم‌هایی هستند که بر پایه‌ی ریاضیّات بنا شده‌اند و موقع پیاده‌سازی هم تابع نظریّه‌های فیزیکی هستیم. مثلاً یکی از چیزهایی که امروز خیلی امیدآفرین است برای اینکه محاسبات پیشرفته بتواند در آینده رقم بخورد، محاسبات کوانتومی است؛ یعنی سیستم‌های کوانتومی که مبتنی بر فیزیک کوانتوم طرّاحی می‌شوند. پس ما اینجا تابع علم فیزیک هستیم و در کنارش تابع علم ریاضی. از آن عمیق‌تر، حوزه‌ای مثل حوزه‌ی سایبرنتیک است که عرض کردم هوش مصنوعی اساساً به عنوان جزئی از واحدهای محاسبات در نظام سایبرنتیکی تعریف می‌شود. پس ما باید در دانش سایبرنتیک مستقل بشویم و نظریّه‌های بومی خودمان را داشته باشیم، به جزئیّاتش باید اشراف داشته باشیم و بهترین استفاده‌ها را از آن ببریم، همان‌طور که در بقیّه‌ی علوم پایه مثل ریاضی و فیزیک باید این اتّفاق بیفتد.

از آن عمیق‌تر، علوم انسانی است؛ در علوم انسانی، ما شاخه‌ای عمیق‌تر از فلسفه نداریم. الگوهای امروز هوش مصنوعی تابع نگاه‌های خاصّ فلسفی هستند؛ مثلاً آن مدل استقرائی که دیوید هیوم در شکل‌گیری علم مدّ نظر داشت، امروز مستقیماً روی روش‌های ماشین‌لرنینگ ما اثر گذاشته؛ یعنی همان فکر آمده و به محصول تبدیل شده. یا فرض بفرمایید در دیدگاهی که دکارت در جدا کردن ذهن و مادّه داشت ــ یک دو‌گانه‌انگاری را دکارت مطرح می‌کند که ما در عالم، دو جوهر جدا داریم که قوانین خاصّ خودشان را دارند ــ این دو‌گانه‌انگاری دکارتی این تفکیک‌های دو‌گانه مثل «مادّه» و «معنا» را عمیق‌تر می‌کند و آثارش حالا در هوش مصنوعی خودش را نشان می‌دهد، مثل همین تفکیک سخت‌افزار از نرم‌افزار. ما عملاً بخش زیادی از نظریّه‌های هوش مصنوعی امروز را در ریشه‌های فلسفی آن می‌توانیم ببینیم و دنبال بکنیم و اتّفاقاً در غرب روی این‌ها خیلی دارند کار می‌کنند. الان شاید حوزه‌های فعّالیّت پژوهشی‌اش در ایران یک مقداری کم‌رنگ است، ولی ما منابع غربی را که نگاه می‌کنیم، می‌بینیم که دانشمندان فلسفه‌شان دقیقاً دوشادوش مهندس‌ها و ساینتیست‌ها در حوزه‌ی هوش مصنوعی دارند جلو می‌آیند و عمیقاً درباره‌ی مباحث فلسفی بحث می‌کنند.

در کنار فلسفه، ما حوزه‌ی اخلاق را داریم و اخلاق هم بعضی وقت‌ها زیرمجموعه‌ی فلسفه تلقّی می‌شود. دانش اخلاق درباره‌ی این صحبت می‌کند که چگونه علم به عمل تبدیل می‌شود و معیار تبدیل ذهنیّت‌ها و الگوهای فکری به رفتارها به چه شکلی است. غربی‌ها، در مدل تمدّن‌سازی‌شان، به مدل اخلاق سودانگارانه خیلی علاقه نشان دادند. بر اساس این مدل، هر آن چیزی که سود بیشتری دارد اخلاقی‌تر است. کسانی مثل جرمی بنتام و جان استوارت میل، نظریّه‌پردازان اخلاقی غرب تلقّی می‌شوند؛ حتّی کانت هم نگاه‌های اخلاقی دارد و نظریّه‌ی اخلاقی‌اش را تحت عنوان «وظیفه‌گرایی» مطرح می‌کند. از طرفی، ما نیز در مکاتب خودمان حرف‌های متفاوتی برای مباحث اخلاقی داریم و این‌ها می‌توانند تحوّلات بنیادین در هوش مصنوعی به وجود بیاورند. آن چیزی که امروز دارد به عنوان هوش مصنوعی برای ما روایت می‌شود، یکی از این مکاتب است که حالا خاصّ تمدّن غرب بوده و با دیدگاه‌های آن‌ها هماهنگی داشته.

بقیّه‌ی حوزه‌های علوم انسانی هم به همین نسبتی که در مورد فلسفه صحبت کردیم، اینجا اثرگذار هستند؛ یعنی روان‌شناسی، جامعه‌شناسی و انسان‌شناسی. من اگر یک ذرّه جلوتر بروم، می‌بینیم امروز اصلاً شاخه‌ای از علم نیست که برای هوش مصنوعی موضوعیّت نداشته باشد و هوش مصنوعی یا قرار است روی آن اثر مستقیم بگذارد و متحوّلش بکند، یا اینکه خود آن علم اصلاً جزو زیربناهای هوش مصنوعی به حساب بیاید. پس در لایه‌های نظری، می‌بینید که هوش مصنوعی خودش را حتّی به فلسفه هم می‌رساند. لذا اگر قرار است ما یک کشور مستقلّی باشیم و بتوانیم در این قضیّه حرف خودمان را به دنیا بزنیم، باید در این زمینه‌های علوم انسانی و علوم پایه هم خودمان را تقویت بکنیم. در نهایت، آن بحث‌های فنّی‌مهندسی‌اش هست که در لایه‌های آخر مطرح می‌شود.

این مطالبی که عرض کردم، فقط لایه‌های حوزه‌ی فکری و نظری است؛ اگر برویم در لایه‌های عملی، این قصّه شاید از یک جهاتی هم جذّاب‌تر بشود. لایه‌های عمیق هوش مصنوعی در حوزه‌ی عملی برمی‌گردد به تکنولوژی‌هایی که این حوزه را می‌سازند و تقویت می‌کنند. هوش مصنوعی نیاز دارد به محاسبات، نیاز دارد به ابزارها و تکنیک‌های محاسباتی، کامپیوترهای پیشرفته و پردازش موازی. چند هزار پردازنده هم‌زمان باید کار کنند تا شما مثلاً بتوانید یک کاری شبیه کاری که انسان انجام می‌دهد ــ مثل همین خواندن متن، دیدن یک صحنه و درک آن صحنه ــ رقم بزنید؛ این کار، محاسبات سنگینی می‌خواهد، پس شما کامپیوتر می‌خواهید. امروز می‌شود گفت که این کامپیوترها برای ما مشکل ایجاد کرده، حدّاقل از این جهت که اوّلاً خودمان سازنده نیستیم، از آن طرف هم تحریم‌هایی که در این قضیّه وجود دارد باعث می‌شود که ما به‌راحتی نتوانیم به این‌ها دسترسی داشته باشیم. جالب است که در یک حوزه‌ای مثل رمزارز ــ که الان هفت هشت سال است که خیلی‌ها را به خودش مشغول کرده و هنوز هم ما قانون مشخّصی برایش نداریم ــ همین منابع محاسباتی مشابه توسّط افرادی که دنبال منافع مادّی خودشان بودند فراهم شده و با مصرف برق بسیار زیادی دارند رمزارزها را تولید می‌کنند که از منافع اقتصادی‌اش بهره‌مند بشوند. همین سخت‌افزارها دقیقاً می‌تواند در هوش مصنوعی هم مورد استفاده قرار بگیرد، ولی کمتر آمدند این‌ها را در هوش مصنوعی استفاده کنند؛ یعنی شاید ۹۹ درصد همین سخت‌افزارها دارد در حوزه‌ی رمزارز استفاده می‌شود و فقط یک درصدش برای هوش مصنوعی. خب آن نظام تحریم‌کننده هم برای کاربرد هوش مصنوعی شما را اذیّت می‌کند و نمی‌گذارد خیلی راحت به آن برسید؛ ولی برای کاربرد رمزارز، ظاهراً این‌ها راحت به آن دسترسی داشتند و مشکلی برای آن ندارند. لذا ما در حوزه‌ی سخت‌افزار برای محاسبات، نیازهای جدّی داریم و یا باید در این زمینه خودمان مستقل بشویم، یا تا زمانی که مستقل بشویم باید سازو‌کار دسترسی به این منابع را به صورت پایدار برای خودمان فراهم بکنیم؛ این، یکی از بخش‌های مهم قضیّه است. حالا چیزی که من در دانشگاه‌ها خبر دارم، متأسّفانه بسیاری از پژوهش‌های هوش مصنوعی ما به خاطر این نیازهای سخت‌افزاری دارد روی سرورهای شرکت‌های خارجی انجام می‌شود؛ مثلاً‌ گوگل یک امکانی را فراهم می‌کند، دانشجوها از اینجا منابع محاسباتی گوگل را استفاده می‌کنند تا بتوانند کارهای پژوهشی‌شان را به نتیجه برسانند. خب در این خلال، تمام داده‌های ما، تمام کدها و اصلاً آن دستاوردهای علمی، مستقیم در اختیار دیگران قرار می‌گیرد! قبل از اینکه خودمان بتوانیم این‌ها را به محصول تبدیل کنیم و بهره‌برداری‌اش را داشته باشیم، آن‌ها دسترسی کامل به آن دارند و استفاده می‌کنند. پس ببینید چقدر ضروری است که ما بتوانیم در این حوزه مستقل بشویم و آن را به نتیجه برسانیم.

بحث بعدی بحث داده‌ها است: گردش داده‌ها و جمع‌آوری داده‌های مورد نیاز برای آموزش سیستم‌های هوش مصنوعی در حوزه‌های مختلف؛ این جزو آن لایه‌های عملی هوش مصنوعی است که باید به آن توجّه بشود. خب امروز گردش داده‌ها خیلی مطلوب نیست؛ یک جاهایی مشکل قانونی داریم و یک جاهایی اصلاً ابزارها و سازو‌کارهای گردآوری داده‌ها و ذخیره‌سازی آن‌ها به خاطر هزینه‌های بالایش یا بعضاً مشکلاتی که دارند محقّق نشده. تا زمانی هم که ریل داده‌ها تنظیم نشود و آن تحوّل دیجیتال رقم نخورد و ما حکمرانی داده در کشور نداشته باشیم، این بهره‌برداری از زیرساختِ داده نمی‌تواند اتّفاق بیفتد و اینجا باز هوش مصنوعی دچار مشکل می‌شود.

از این عمیق‌تر هم می‌شود بحث را پیش برد. من ترجیح می‌دهم خود اکوسیستم تولید و بهره‌برداری از سیستم هوش مصنوعی را هم در همین قسمت دسته‌بندی کنم؛ یعنی ما نیروی انسانی مورد نیازمان برای این کارها را هم باید دقیقاً جزئی از آن لایه‌ها ببینیم. ما اگر متخصّص کافی نداشته باشیم یا متخصّص‌هایمان به‌روز نباشند و این اطّلاعات را نداشته باشند که این سیستم‌های جدید را چطور باید راه‌اندازی بکنند، باز آن قصّه‌ی کاربر شدنمان تقویت می‌شود و نمی‌توانیم زیرساخت اقتصادی خودمان را ایجاد بکنیم.

حالا ممکن است مخاطبان بگویند که «چرا اصرار دارید حتماً این‌ها بومی و داخلی باشند؟ در یک فضای جهانی، ما با همه‌ی دنیا می‌توانیم همکاری کنیم و از توانمندی‌های همدیگر استفاده کنیم. حالا اگر کشور ما مثلاً در سخت‌افزار ضعیف است، اشکال ندارد؛ سخت‌افزار را از یک کشور دیگری تهیّه می‌کنیم، نرم‌افزار با خودمان.» ببینید! این فکر در یک دنیایی که واقعاً بر مبنای عدالت شکل گرفته باشد و دنیایی باشد که مردم در ظلم و ستم نباشند، خیلی ایدئال است، خیلی هم خوب است که همه‌ی بشریّت با هم همکاری کنند برای یک تحوّل و به هم سرویس بدهند و یک همزیستی واقعی رقم بخورد؛ ولی می‌دانیم که دنیای واقعی این‌جوری نیست. در دنیای واقعی، ما امروز در یک نظام ظالمانه داریم زندگی می‌کنیم و نظام ظالمانه دنیا را تقسیم کرده به کشورهای توسعه‌یافته و در حال توسعه و توسعه‌نیافته؛ یعنی واقعاً نگاه دنیا به کشورها این‌جوری است. از یک جنبه‌ی دیگر، فضای استکبار و قدرت‌های استکباری اساساً کشورهای دیگر را برنمی‌تابند و اصلاً نمی‌خواهند این‌ها پیشرفتی داشته باشند؛ لذا ریل‌گذاری می‌کنند که پیشرفت این کشورها صدمه بخورد و نتوانند جلو بروند. خیلی صریح، دنیای امروز دنیای جنگ است. ما حالا به هفتم اکتبر و سالگرد طوفان‌الاقصیٰ هم داریم نزدیک می‌شویم؛ ببینید در این یک سال چه جنایت بزرگی در غزّه توسّط اسرائیل و هم‌پیمانان او دارد رقم می‌خورد! رژیم صهیونیستی به هیچ قاعده‌ی انسانی‌ای بسنده نمی‌کند و به هیچ چیزی پایبند نیست. خب ما حالا در این شرایط به چه کسی می‌توانیم تکیه بکنیم؟ با کدام دولت و با کدام مجموعه می‌خواهیم جلو برویم؟ در شرایط فعلی، واقعاً این نظریّه که «حالا برویم با دنیا کار کنیم» نظریّه‌ی پایداری نیست. اتّفاقاً ممکن است یک جاهایی هم با ما همکاری کنند؛ یعنی اگر شما این پرچم را بالا بگیرید که ما می‌خواهیم با دنیا صلح کنیم و در این موضوع تکنولوژی با هم کار کنیم، این‌ها در یک مقطعی به شما سرویس می‌دهند، امّا بعد شما را کاملاً وابسته می‌کنند؛ وقتی شما همه‌ی امکانات داخلی‌تان را کنار گذاشتید و خودتان را فقط به امکانات بیرون از مرزها محدود کردید، اوّل خوب به شما سرویس می‌دهند، امکانات رایگان می‌دهند، امّا وقتی نقطه‌ی آسیب‌پذیری شما از حوزه‌ی وابستگی را دقیقاً شناسایی کردند، حالا سرویس‌ها یکی‌یکی قطع می‌شود.

امروز در مورد فیلترینگ خیلی صحبت می‌کنند و می‌گویند چرا سایت‌ها فیلتر است. بیایید از آن طرف سؤال کنیم: چرا بسیاری از سایت‌های مفید برای ما تحریم است؟ چرا بسیاری از منابع اطّلاعاتی در وب، وقتی شما از آی‌پی ایران وارد می‌شوید، صراحتاً به شما می‌گوید که شما دسترسی ندارید؟ مگر نمی‌گویند فضای آزاد اطّلاعات است؟ ما متّهم هستیم که بعضی از پلتفرم‌ها و سایت‌ها را به هر دلیلی فیلتر کرده‌ایم؛ خب آن طرف هم باید به این پاسخ بدهد که چرا در آن بخش‌ها ما را تحریم کرده. شما می‌بینید هر جایی که برای فساد اخلاقی جامعه می‌تواند کاری انجام بدهد، دشمن هم فشار می‌آورد که شما این‌ها را از فیلتر خارج بکنید؛ آنجایی که می‌خواهد از طریقش عملیّات تروریستی انجام بشود یا می‌خواهند خلاف منافع کشور کاری انجام بدهند، تشویق می‌کنند که آن‌ها از حالت فیلترینگ داخلی خارج بشود امّا از آن طرف، منابع علمی‌ای را که در سال‌های گذشته ما به آن‌ها وابستگی پیدا کردیم، از دسترس ما خارج می‌کنند! امروز مقالات علمی‌ای که اساتید ما می‌نویسند و در سایت‌های بین‌المللی منتشر می‌شود و نمایه‌های بین‌المللی دارد، خود آن سامانه‌های نمایه از دسترس ما خارج است. الان اگر شما با پژوهشگران و اساتید صحبت کنید، قطعاً برایتان خواهند گفت که چقدر با دشواری مواجهند تا بتوانند به مقاله‌ی خودشان که در مجلّه‌ی معتبری در آن طرف دنیا منتشر شده، در یکی از این نمایه‌سازها دسترسی پیدا کنند و آمارش را بگیرند؛ یعنی نه‌تنها ممکن است به فیلترشکن نیاز داشته باشند، بلکه به اکانتی نیاز دارند که هزینه‌اش مثلاً چند هزار دلار است. دولت هم البتّه همیشه سعی کرده این منابع را در اختیار دانشگاه‌ها قرار بدهد؛ یعنی وزارت علوم مثلاً هزینه‌ی اشتراک این‌ها را می‌پردازد، ولی یک وقت‌هایی واقعاً منابع کشور این‌قدر دچار بحران و تنگنا می‌شود که اصلاً پولی ندارند برای اینکه آن اشتراک‌ها را بدهند. عددش هم واقعاً وحشتناک است؛ حالا من چون دقیقاً در خاطرم نیست، عدد را ذکر نمی‌کنم؛ ولی اگر آمار رسانه‌ها را ببینید، این رقم درشتی است که کشور باید در سال بپردازد تا آن‌ها فقط دسترسی‌ها را برای ما ایجاد کنند که ما مقاله‌ی خودمان را بتوانیم در آن طرف ببینیم.

ببینید! این‌ها واقعیّت دنیا است. در این واقعیّت، تکیه و ایجاد وابستگی به چیزی که صفر تا صدش دست خودمان نیست، می‌تواند خطرناک باشد؛ مانند اتّفاقی که چندی پیش در لبنان افتاد که دستگاه‌های الکترونیکی دچار انفجار کنترل‌شده شدند. وقتی می‌گوییم سایبرنتیک، یعنی همین؛ هیچ کس آنجا حضور نداشته، بلکه از راه دور مشخّص است که کدام دستگاه‌ها باید منفجر بشوند، فرمان آن داده شده و این هم فرمان انفجار را صادر کرد. حالا اینکه چه‌جوری آن انفجار اتّفاق می‌افتد، از نظر فنّی روش‌های مختلفی می‌شود برایش تحلیل کرد؛ ما الان اطّلاعات میدانی نداریم که ببینیم با کدام روش این کار را انجام می‌دهند، ولی نظام سطح بالایش کاملاً روشن است: یک نظام فرماندهی کنترل هست، یک کنترل‌کننده‌ای هست، یک کنترل‌شونده هست و کنترل‌کننده فرمان را داده و این‌ها منفجر شدند. بنابراین، این ابزاری که امروز همه‌ی ما داریم استفاده می‌کنیم، گوشی تلفن همراه، لپ‌تاپ و تمام دستگاه‌هایی که در فضای ارتباطات دارند مورد استفاده قرار می‌گیرند، واقعاً یک چنین تهدیدی هم دارند. حالا این تهدید، تهدید سخت آن است؛ تهدید نرم آن چیست؟ جمع‌آوری اطّلاعات از ما؛ مرتّب دارند از ما اطّلاعات می‌گیرند، مرتّب دارند جزئیّات زندگی ما و فعّالیّت‌های ما را ثبت و تحلیل می‌کنند. حالا هوش مصنوعی اینجا وارد می‌شود. این داده‌ها دیگر داده‌های خام نیستند؛ هوش مصنوعی این‌ها را تجزیه و تحلیل می‌کند و آمار می‌گیرد، خلاصه‌بندی می‌کند، جمع‌بندی می‌کند و آن که می‌خواهد یک عملیّات خرابکارانه در دنیا انجام بدهد، حالا به همه‌ی این‌ها دسترسی دارد. حالا اینکه الان انجام می‌دهد یا نه، تصمیمش بر اساس منافعش است که آیا امروز مثلاً این اقدام در ایران ممکن است یا نه؛ اگر چنین کاری را الان انجام بدهند، ممکن است مردم ایران بگویند حالا که این‌جوری شد، ما اصلاً دیگر از هیچ وسیله‌ی الکترونیکی استفاده نمی‌کنیم و خودمان تحریم می‌کنیم این‌ها را. لذا غرب شاید در مورد ایران هنوز به این نقطه نرسیده و می‌گوید هنوز باید گردآوری اطّلاعات بکنیم، هنوز باید مردم را وابسته‌تر بکنیم و صبر کنیم تا هر وقتی وابستگی کامل شد، در خصوص آن جریاناتی که می‌خواهیم رقم بزنیم اقدام کنیم.

 
آن موضوع ایجاد ایستگاهی مانند آژانس انرژی اتمی برای هوش مصنوعی هم که رهبر انقلاب فرمودند، در همین راستا است؟ یعنی یک جایی که کنترل کند چه کسی این فنّاوری را داشته باشد، چه کسی نداشته باشد یا چقدر داشته باشد.
 
دقیقاً همین‌طور است. ببینید! الان با این صحبت‌هایی که کردیم، داریم متوجّه می‌شویم که این فنّاوری چه قدرت عظیمی است؛ یعنی کشوری که در هوش مصنوعی مستقل باشد و بتواند نیازهای خودش را آن‌جوری که خودش صلاح می‌داند در این حوزه به کار ببرد، قدرتمند می‌شود. بهترین مثالی که ما در این زمینه داریم، صنایع دفاعی‌مان است. صنایع دفاعی ما هیچ وقت ملزم به رعایت پروتکل‌های بین‌المللی نبودند و خودشان موظّف بودند که دکترین اختصاصی داشته باشند و بر اساس دکترین خودشان عمل بکنند. ما امروز یکی از قدرت‌های برتر موشکی در جهانیم و هیچ کس شکّی در این ندارد. شهید طهرانی‌مقدّم به عنوان پدر موشکی ایران و بقیّه‌ی بزرگوارانی که در قید حیات هستند یا به فیض شهادت نائل شدند، کشور را به یک چنین نقطه‌ای رساندند. ما در دکترین دفاعی‌مان باید موشک نقطه‌زن داشته باشیم، چون موشکی که بخواهد برود تخریب گسترده‌ای انجام بدهد و باگناه و بی‌گناه را یکجا از بین ببرد، در دکترین دفاعی ما نقشی ندارد؛ این را خود حضرت آقا هم در بیاناتشان تأکید کرده‌اند. ما بر همین اساس، رفتیم روی نوع خاصّی از موشک تمرکز کردیم و آن را توسعه دادیم و الان به قدرت ملّی ما تبدیل شده که هم بازدارندگی برای ما ایجاد می‌کند، هم اقتدار و همه‌ی آن مؤلّفه‌هایی که می‌خواهیم داشته باشیم. بنابراین، در هوش مصنوعی هم اگر دکترین ملّی هوش مصنوعی با همین نگاه برای ما تدوین بشود، آن موقع مشخّص می‌شود کجا از هوش مصنوعی باید استفاده کرد، کجا نباید استفاده کرد، چه نوعی از هوش مصنوعی مجاز است و کدام نوع مجاز نیست. مثلاً ما می‌گوییم آن هوش مصنوعی‌ای که منجر به سلب اختیار از مردم بشود و اختیار را از انسان‌ها بگیرد، جلوی این را می‌گیریم؛ برعکس، آن هوش مصنوعی‌‌ای که سلاح‌های ما را تقویت کند تا بتوانیم بهتر با دشمن بجنگیم ــ منظورم از «سلاح»، آن نوعی از هوش مصنوعی است که حکمرانی ما را تقویت می‌کند و حکمرانی بهتری را رقم می‌زند ــ روی آن تمرکز می‌کنیم، به آن اولویّت می‌دهیم و به این ترتیب، ما می‌توانیم خودمان را بیاوریم در جمع همان ده کشور برتر در هوش مصنوعی که حضرت آقا می‌فرمایند.

لذا همه‌ی شاخص‌های بین‌المللی برای هوش مصنوعی هم از این زاویه باید مورد بحث و بررسی ما باشد. ممکن است شاخصی امروز در دنیا خیلی مهم باشد و مثلاً در آن شاخص وقتی دارند ما را ارزیابی می‌کنند، اصلاً ما در دنیا کشور آخر باشیم و رتبه‌مان خیلی بد باشد، ولی ما در اهدافمان نگاه می‌کنیم می‌بینیم جمهوری اسلامی و مردم ایران این هدف را اصلاً نمی‌خواهند. مثلاً یکی از اهداف هوش مصنوعی برای بحث «برابری جنسیّتی» است. «برابری جنسیّتی» یعنی دیگر چیزی به اسم «مرد» و «زن»، جداگانه موضوعیّت جدّی‌ای نداشته باشد و شما وقتی این را تقویت می‌کنید ــ که یکی از اهداف سند توسعه‌ی پایدار ۲۰۳۰ است ــ اساساً بنیان خانواده زده می‌شود. این مقوله‌ی حجاب و فتنه‌هایی که ما در دو سال گذشته داشتیم، همه ذیل آن هدف «برابری جنسیّتی» است. خب اصلاً یکی از آرمان‌های هوش مصنوعی این است که آن را تقویت کند و ما وقتی برنامه‌های بین‌المللی برای این قضیّه را اجرا کنیم، به اسم هوش مصنوعی آمده‌ایم یک چیزی ضدّ قوانین خودمان و ضدّ اهداف و سیاست‌های کلّی خودمان اجرا کرده‌ایم. پس چاره‌ای نداریم جز اینکه یک پارادایم اختصاصی، یک دکترین اختصاصی و ملّی برای هوش مصنوعی داشته باشیم و ذیل آن عمل بکنیم. حالا غرب چون این را می‌داند و در حوزه‌های دیگر تجربه دارد، برای اینکه کشورها نتوانند به این جمع‌بندی برسند و چنین کاری بکنند، می‌خواهد یک نهادی را ایجاد کند که آن نهاد شبیه آژانس بین‌المللی انرژی هسته‌ای این کشورها را تحت کنترل خودش دربیاورد و نهایتاً بگوید شما مثلاً این هوش مصنوعی را داشته باش، این‌ها را نداشته باش یا اصلاً این مدل از هوش مصنوعی را باید بروی با فلان کشور قرارداد ببندی و کار بکنی؛ یعنی همان محدودیّت‌هایی که ما متأسّفانه در بیست و چند سال گذشته، در انرژی هسته‌ای تجربه کردیم و قصّه‌ی غم‌انگیزش را همه دیدیم.

سال ۱۳۹۹ وزارت خارجه یک نامه‌ای را از سازمان ملل دریافت کرده بود بابت کدهای اخلاقی هوش مصنوعی. سازمان ملل می‌خواست این کدها را تدوین بکند، لذا برای کشورهای مختلف از جمله جمهوری اسلامی هم این متن را فرستاده بودند که نظرات کشورها را بگیرند؛ بالاخره این سازو‌کاری است که سازمان ملل در ظاهر اجرا می‌کند. یک نسخه از این سند برای ارائه‌ی نظر به دست ما رسید و ما در آزمایشگاه پژوهشی فضای سایبری دانشگاه تهران این سند را با جزئیّات بررسی کردیم. خب مثل خیلی از اسناد دیگری که آن‌ها می‌نویسند، ظاهرش ظاهر خوبی  است؛ یعنی حس می‌شود که نگاه انسان‌دوستانه دارند و می‌خواهند به بشریّت خدمت کنند، حرف از اخلاق هم بود که توسعه‌ی هوش مصنوعی اخلاقی باشد و کدهای اخلاقی را رعایت بکنیم. آن نامه حالا در اینترنت موجود است و دوستان می‌توانند مراجعه کنند ببینند. ما آنجا پیش‌بینی کردیم که قرار است یک چنین اتّفاقی بیفتد؛ گفتیم از ظاهر این سند این‌جور برمی‌آید که قرار است یک مجموعه‌ای شبیه آژانس بین‌المللی انرژی اتمی در دنیا شکل بگیرد و فعّالیّت‌های کشورهایی که در دنیا هستند، ذیل این آژانس رصد بشود و نوع خاصّی از هوش مصنوعی پیش برود و از آن طرف هم اجازه ندهند که کشورها در این موضوع بتوانند رشد و استقلال خودشان را به دست بیاورند. این پیش‌بینی طبق آن تجربه‌ای بود که در مسئله‌ی انرژی اتمی داشتیم؛ لذا برآورد ما این بود که چنین اتّفاقی دارد می‌افتد، تا اینکه پارسال دبیرکلّ سازمان ملل صراحتاً تأکید کرد که ما باید یک چنین آژانسی ایجاد بکنیم و معلوم شد که آن پیش‌بینی ما صحّت داشته. البتّه ما این نامه را در آن دو سال اّول منتشر نکرده بودیم، امّا سال ۱۴۰۲ بعد از این ماجرا نامه را منتشر کردیم و گفتیم که ما این پیش‌بینی را داشتیم که قرار است یک چنین اتّفاقی بیفتد، حضرت آقا هم در بحث‌هایشان در یک ماه گذشته بر این قضیّه تأکید کردند.

البتّه هیچ کدام از این‌ها پیشگویی نیست، بلکه کاملاً داریم واقعیّت‌های جهانی را می‌بینیم و نگاه می‌کنیم. این آژانس اگر واقعاً‌ شکل بگیرد ولی هنوز تکلیف ما مشخّص نباشد و آن استقلال را در این قضیّه ایجاد نکرده باشیم، خیلی خطرناک‌تر از آژانس انرژی اتمی است. حواسمان باشد که ما هنوز به انرژی اتمی وابسته نشده‌ایم و آن زمانی هم که این‌ها شروع کردند برای کشور محدودیّت درست کنند، کشور وابسته به انرژی اتمی نبود؛ منتها یک تحلیل دقیق علمی وجود داشت که مثلاً تا افق سی یا چهل سال آینده اگر کشور ما برق هسته‌ای نداشته باشد، با چه بحران‌هایی مواجه می‌شود. همین آینده‌نگری بود که اصرار داشت ما حتماً فنّاوری هسته‌ای را در کشور توسعه بدهیم و هنوز هم آن آینده‌نگری کاملاً درست است. ولی در مورد هوش مصنوعی قصّه یک ذرّه خطرناک‌تر است، زیرا ما کم‌وبیش وابسته شده‌ایم؛ ما در یک بخش‌هایی به هوش مصنوعی وابسته شده‌ایم و خیلی سریع داریم جلو می‌رویم. بیشتر از نهادهای حاکمیّتی هم امروز نهادهای اقتصادی به هوش مصنوعی وابسته شده‌اند و نهادهای اقتصادی می‌توانند فشار اجتماعی را چند برابر کنند. نهادهای حاکمیّتی چون مقوله‌ی امنیّت را درک می‌کنند و با آن دست‌وپنجه نرم می‌کنند، مستقیم می‌توانند یک جوری قضیّه را حل کنند؛ ولی در خصوص نهاد اقتصادی که کارش کلّاً با بازار و تعامل مستقیم با مردم است، ما نمی‌توانیم یک چنین فرمولی را اجرا کنیم. بنابراین، در نوع وابستگی‌ها باید مراقبت کنیم که وابستگی نتواند بحران ایجاد بکند.

به‌هر‌حال، آن مجموعه در سازمان ملل دیر یا زود رسماً تشکیل می‌شود و امروز دیده می‌شود که نوع قصّه‌اش به چه شکلی است؛ لذا ما سریعاً باید دکترین ملّی هوش مصنوعی را تدوین بکنیم. این دکترین حتی فراتر از سیاست‌های کلّی است؛ یعنی اگر مجمع تشخیص مصلحت هم دارد روی سیاست‌های کلّی‌اش کار می‌کند، قبلش باید دکترین آن را تدوین بکند. تجربه‌ی خوب ما در امور نظامی و سلا‌ح‌های پیشرفته‌ای که داریم باید در هوش مصنوعی به شکل درستی استفاده بشود که به نظر من در آن بُعد نظری‌اش در حوزه‌ی دکترین خلاصه می‌شود. ان‌شاءالله اگر ما این اقدام را انجام بدهیم، حتّی اگر آن آژانس هم تشکیل بشود، می‌توانیم فعّالانه در آنجا تأثیرگذار باشیم و اگر واقعاً دیدیم به ضرر کشور ما است، ما مجبور نیستیم به این پیمان‌ها بپیوندیم و از این‌ها اطاعت بکنیم.

 
خیلی مباحث خوب و عالی‌ای بود و شما تقریباً به تمام سؤالات پاسخ دادید. در پایان، اگر نکته‌ی خاصّی در این زمینه باقی مانده، ما در خدمتتان هستم.
 
من فقط یک نکته‌ای را درباره‌ی روایت امروز از هوش مصنوعی عرض بکنم. روایتی که امروز به اسم هوش مصنوعی رایج است و در دنیا دارد تبلیغ می‌شود و نقطه‌ی کانونی‌اش را هم خود سازمان ملل باید در نظر بگیریم، در تلاش است که اهداف سند توسعه‌ی پایدار را ــ که اینجا به «سند ۲۰۳۰» معروف است ــ محقّق بکند. هفده هدف در حوزه‌های فرهنگی، اجتماعی، سیاسی و اقتصادی در این سند وجود دارد که این‌ها اگر به طور کامل محقّق بشوند، حاکمیّت‌های محلّی به صورت کامل از دُور خارج خواهند شد و یک نوع حکومت جهانی شکل می‌گیرد که حالا نمی‌خواهیم بگوییم سردمدارش آمریکا یا کشور دیگری است؛ این مسئله خیلی اهمّیّتی ندارد، بلکه مهم این است که دست حاکمیّت‌های محلّی از ابزارهای کنترلی و سازو‌کارهای مدیریّت کشورشان تهی می‌شود و این باعث می‌شود که عملاً در ذیل نظام سلطه عمل کنند و آن استقلالی که همه‌ی کشورها می‌خواهند داشته باشند و ما به خاطر مسائل خاصّ کشورمان روی آن تأکید بیشتری داریم از دست می‌رود. این روایت، روایت خطرناکی است؛ لذا ما روایت خاصّ خودمان از هوش مصنوعی را حتماً باید جدّی بگیریم، نسبت به روایت دشمن در حوزه‌ی هوش مصنوعی باید مشکوک باشیم، خیلی با حساسیّت برخورد بکنیم و تا مطمئن نشدیم این چیزهایی که می‌گویند به نفع مجموعه‌ی کشور ما است، آن‌ها را اجرا نکنیم.

به‌هر‌حال، اینجا بحث دشمن‌شناسی مطرح است و به نگاه کلانی نیاز دارد که حتّی بالاتر از سطح استراتژیک است و یک بحث فوق استراتژیک  تلقّی می‌شود. ان‌شاءالله با این نگاه، ما امکان این را داریم که در چند سال آینده واقعاً‌ جزو ده کشور برتر در هوش مصنوعی باشیم و برای رفع نیازهای خودمان از آن استفاده بکنیم و کشور را به شکل بهتری ارتقاء بدهیم؛ مطمئنّاً، با همّت جوانان و حمایت‌هایی که از سمت حاکمیّت رقم می‌خورد، این آینده دور نخواهد بود.
 
/انتهای پیام/
 
منبع: رسانه KHAMENEI.IR