وبلاگ / حاکمیت هوش مصنوعی: چه کسی قوانین بازی را می‌نویسد؟

حاکمیت هوش مصنوعی: چه کسی قوانین بازی را می‌نویسد؟

حاکمیت هوش مصنوعی: چه کسی قوانین بازی را می‌نویسد؟

مقدمه

یک بازی را تصور کنید که قوانینش را یکی از بازیکنان نوشته — نه یک داور بی‌طرف. در این بازی، آن بازیکن نه‌تنها از قوانین آگاه است، بلکه آن‌ها را طوری طراحی کرده که برایش مزیت ایجاد کنند. بقیه بازیکنان؟ آن‌ها مجبورند با همین قوانین بازی کنند، حتی اگر هرگز در نوشتنشان نقشی نداشته باشند.
این دقیقاً همان چیزی است که امروز در دنیای حاکمیت هوش مصنوعی در حال رخ دادن است.
وقتی صحبت از هوش مصنوعی می‌شود، اکثر بحث‌ها روی مدل‌ها، داده، و سخت‌افزار متمرکز است. اما یک لایه عمیق‌تر وجود دارد که کمتر دیده می‌شود: چه کسی تعریف می‌کند که هوش مصنوعی «ایمن» است؟ چه کسی مشخص می‌کند کدام کاربردها مجاز است و کدام‌ها نه؟ چه کسی استانداردهایی را می‌نویسد که همه باید از آن‌ها تبعیت کنند؟
این سؤالات ساده به نظر می‌رسند، اما پاسخ‌هایشان سرنوشت ملت‌ها را تعیین می‌کند. کشوری که قوانین بازی را بنویسد، بزرگ‌ترین مزیت استراتژیک را بدون شلیک حتی یک گلوله به دست می‌آورد.
در مقاله اقتصاد هوش مصنوعی دیدیم که مدل‌ها دارایی استراتژیک ملی هستند. در جنگ داده فهمیدیم که داده نفت جدید این عصر است. حالا نوبت به سومین لایه قدرت می‌رسد: کنترل هنجارها.

چرا قوانین از مدل‌ها مهم‌ترند؟

در نگاه اول شاید عجیب به نظر برسد. آیا داشتن GPT-5 مهم‌تر نیست از نوشتن یک قانون؟ اما تاریخ نشان می‌دهد که اینگونه نیست.
اینترنت را در نظر بگیرید. پروتکل‌های پایه‌ای اینترنت — TCP/IP، HTTP، DNS — توسط مهندسان آمریکایی طراحی شدند. این پروتکل‌ها «خنثی» به نظر می‌رسیدند، اما معماری‌شان به شکلی بود که شرکت‌های آمریکایی در آن مزیت داشتند. امروز، ۷ شرکت از ۱۰ شرکت بزرگ اینترنتی دنیا آمریکایی هستند — نه به خاطر شانس، بلکه چون بازی را آن‌ها طراحی کردند.
استانداردهای مالی هم همین داستان را دارند. SWIFT، دلار به عنوان ارز ذخیره جهانی، و قوانین FATF همه توسط غرب نوشته شدند. وقتی آمریکا می‌خواهد یک کشور را تنبیه کند، از همین استانداردها به عنوان سلاح استفاده می‌کند — بدون نیاز به ارتش.
حالا همین الگو دارد در هوش مصنوعی تکرار می‌شود. کشوری که استانداردهای ایمنی، اخلاق، و شفافیت هوش مصنوعی را بنویسد، نه‌تنها بازار را شکل می‌دهد — بلکه می‌تواند رقبایش را از آن بیرون کند.

سه قدرت، سه رویکرد متفاوت

سه بازیگر اصلی — آمریکا، چین، و اروپا — رویکردهای کاملاً متفاوتی در قبال حاکمیت هوش مصنوعی دارند و هرکدام تلاش می‌کنند مدل خودشان را به استاندارد جهانی تبدیل کنند:
معیار 🇺🇸 آمریکا 🇨🇳 چین 🇪🇺 اروپا
رویکرد کلی نوآوری اول، مقررات بعد کنترل دولتی محور حقوق محور، پیشگیرانه
اولویت اصلی برتری تکنولوژیک امنیت ملی و ثبات حقوق شهروندان
سند کلیدی دستورالعمل‌های NIST قوانین محتوای مولد AI EU AI Act
نگرانی اصلی عقب افتادن از چین بی‌ثباتی سیاسی از دست دادن حریم خصوصی
تأثیر بر رقابت مشوق رقابت آزاد حمایت از بومی، محدود کردن خارجی بار انطباق سنگین
صادرات مدل تحریم تراشه برای رقبا صادرات به کشورهای همسو صادرات استاندارد (اثر بروکسل)

اثر بروکسل: وقتی مقررات به سلاح تبدیل می‌شود

اروپا یک استراتژی منحصربه‌فرد دارد که «اثر بروکسل» نام گرفته. منطق آن ساده اما قدرتمند است: اگر می‌خواهید به بازار ۴۵۰ میلیون مصرف‌کننده ثروتمند اروپایی دسترسی داشته باشید، باید از قوانین ما تبعیت کنید.
این استراتژی قبلاً با GDPR (مقررات حفاظت از داده) آزمایش شد و نتیجه داد. شرکت‌های آمریکایی مثل Meta، Google، و Amazon مجبور شدند سیستم‌های حریم خصوصی خود را برای انطباق با GDPR تغییر دهند — نه فقط در اروپا، بلکه در کل دنیا، چون مدیریت دو سیستم جداگانه گران‌تر از انطباق با سختگیرانه‌ترین استاندارد بود.
حالا EU AI Act — که اولین قانون جامع هوش مصنوعی در دنیاست — همین مسیر را می‌رود. این قانون سیستم‌های هوش مصنوعی را بر اساس سطح ریسک دسته‌بندی می‌کند:
  • ریسک غیرقابل قبول: کاملاً ممنوع — مثل سیستم‌های امتیازدهی اجتماعی یا دستکاری ذهنی افراد
  • ریسک بالا: نیاز به ارزیابی دقیق — مثل هوش مصنوعی در استخدام، اعتبارسنجی بانکی، یا تصمیمات پزشکی
  • ریسک محدود: الزامات شفافیت — مثل چت‌بات‌ها که باید بگویند AI هستند
  • ریسک پایین: آزاد — مثل فیلترهای اسپم یا بازی‌های ویدیویی
هر شرکتی در دنیا که بخواهد در اروپا کار کند — چه آمریکایی باشد، چه چینی، چه هندی — باید از این قوانین تبعیت کند. اروپا بدون داشتن قوی‌ترین مدل‌ها، از طریق قدرت بازار و مقررات یک نقش کلیدی در شکل‌دادن به هوش مصنوعی جهانی دارد.

رویکرد آمریکا: نوآوری در برابر کنترل

آمریکا تاریخاً رویکرد متفاوتی داشته: ابتدا بگذار نوآوری اتفاق بیفتد، بعد اگر لازم شد مقررات بگذار. این همان رویکردی بود که اجازه داد Google، Facebook، و Amazon بدون محدودیت رشد کنند.
اما در قبال هوش مصنوعی، این رویکرد دارد به چالش کشیده می‌شود. دو نیروی متضاد در واشینگتن در حال کشمکش هستند:
طرف اول — صنعت: شرکت‌های بزرگ فناوری می‌خواهند حداقل مقررات. آن‌ها استدلال می‌کنند که مقررات سنگین نوآوری را کُند می‌کند و آمریکا را در رقابت با چین عقب می‌اندازد.
طرف دوم — ملاحظات امنیتی: نهادهای دفاعی و اطلاعاتی نگران هستند که هوش مصنوعی بدون نظارت می‌تواند به دست بازیگران بد بیفتد یا بحران‌های غیرقابل کنترل ایجاد کند. آن‌ها خواهان نظارت بیشتر هستند.
در عمل، آمریکا تا اینجا ترکیبی از هر دو را انتخاب کرده: نظارت داوطلبانه برای شرکت‌های داخلی، و کنترل صادرات سخت‌افزار برای جلوگیری از دسترسی چین به تراشه‌های پیشرفته.
این تراشه‌های اختصاصی هوش مصنوعی — به‌خصوص GPU‌های پیشرفته NVIDIA — تبدیل به ابزار سیاست خارجی شده‌اند. آمریکا با کنترل صادرات تراشه، در واقع دارد کنترل می‌کند که کدام کشورها می‌توانند مدل‌های پیشرفته بسازند.

رویکرد چین: کنترل با دو هدف همزمان

چین از یک منظر عجیب وارد بازی حاکمیت هوش مصنوعی شده: می‌خواهد هم هوش مصنوعی را کنترل کند و هم در آن پیشرو باشد.
قوانین چینی درباره هوش مصنوعی مولد — که زودتر از EU AI Act اجرایی شدند — یک الزام منحصربه‌فرد دارند: تمام محتوای تولیدشده توسط هوش مصنوعی باید با «ارزش‌های اصلی سوسیالیستی» همخوانی داشته باشد. این به معنای واقعی است که یک مدل هوش مصنوعی چینی نمی‌تواند پاسخ‌هایی بدهد که با روایت رسمی دولت در تضاد باشد.
از منظر فنی، این یک تنظیم دقیق (Fine-tuning) ایدئولوژیک است — مدل‌ها آموزش می‌بینند که از برخی موضوعات اجتناب کنند یا آن‌ها را به شکل خاصی توصیف کنند. این رویکرد نشان می‌دهد که حاکمیت هوش مصنوعی می‌تواند ابزار کنترل داخلی هم باشد، نه فقط رقابت خارجی.

نبرد استانداردها: ISO، IEEE، و جنگ پنهان

فراتر از قوانین دولتی، یک رقابت کمتر دیده‌شده در سازمان‌های استانداردسازی بین‌المللی جریان دارد.
سازمان‌هایی مثل ISO (سازمان بین‌المللی استاندارد)، IEEE، و ITU در حال نوشتن استانداردهای فنی هوش مصنوعی هستند — استانداردهایی که تعریف می‌کنند چطور باید یک مدل آموزش ببیند، چطور باید ارزیابی شود، و چه معیارهایی برای «قابل اعتماد بودن» لازم است.
چین در سال‌های اخیر حضور خود را در این سازمان‌ها به شدت افزایش داده. در کمیته‌های ISO مربوط به هوش مصنوعی، نمایندگان چینی یکی از فعال‌ترین گروه‌ها هستند. هدف؟ اطمینان از اینکه استانداردهای جهانی به گونه‌ای نوشته شوند که مدل‌های چینی به‌راحتی از آن‌ها عبور کنند.
این دقیقاً همان بازی «قوانین را بنویس، بازی را ببر» است.

چه کسی واقعاً در جهان تأثیر می‌گذارد؟

یک واقعیت مهم وجود دارد که اغلب نادیده گرفته می‌شود: بخش قابل توجهی از حاکمیت هوش مصنوعی نه توسط دولت‌ها، بلکه توسط شرکت‌های خصوصی اعمال می‌شود.
وقتی OpenAI تصمیم می‌گیرد که ChatGPT درباره موضوع X صحبت نکند، یا Meta تعیین می‌کند الگوریتم نیوزفید چه محتوایی را تقویت کند، یا Google انتخاب می‌کند کدام نتایج اول نمایش داده شوند — این‌ها تصمیمات حاکمیتی هستند که زندگی میلیاردها نفر را تحت تأثیر قرار می‌دهند، بدون اینکه هیچ مجلس یا پارلمانی آن‌ها را تصویب کرده باشد.
اخلاق در هوش مصنوعی دقیقاً این سؤال را می‌پرسد: آیا درست است که تصمیماتی با این حجم از تأثیر اجتماعی، توسط هیئت مدیره شرکت‌های خصوصی گرفته شود؟
Anthropic با ساخت Claude رویکردی متفاوت انتخاب کرده — انتشار «Acceptable Use Policy» عمومی و تلاش برای شفافیت در تصمیمات محتوایی. Google DeepMind یک تیم ایمنی داخلی دارد. Meta سیاست‌هایش را بارها زیر فشار افکار عمومی تغییر داده.
اما این‌ها هنوز تصمیمات داوطلبانه شرکت‌های خصوصی هستند — نه قوانین الزام‌آور. و این خلأ حاکمیتی یکی از بزرگ‌ترین چالش‌های عصر ماست.

معضل هماهنگی جهانی: چرا یک «UN هوش مصنوعی» ایجاد نمی‌شود؟

شاید ساده‌ترین راه‌حل این باشد که یک سازمان بین‌المللی مثل سازمان ملل — مشابه آژانس بین‌المللی انرژی اتمی (IAEA) برای سلاح‌های هسته‌ای — قوانین جهانی هوش مصنوعی را بنویسد. اما چند مانع اساسی وجود دارد:
مانع اول — سرعت: قوانین بین‌المللی دهه‌ها طول می‌کشد تا به توافق برسند. هوش مصنوعی در عرض چند ماه تغییر می‌کند. تا وقتی توافق حاصل شود، فناوری چند نسل جلوتر رفته.
مانع دوم — تضاد منافع: آمریکا و چین — که پیشرفته‌ترین مدل‌ها را دارند — هیچ انگیزه‌ای ندارند که قوانینی بپذیرند که قدرت آن‌ها را محدود کند. این مشابه انتظار داشتن از قدرت‌های هسته‌ای است که داوطلبانه زرادخانه‌هایشان را تحویل دهند.
مانع سوم — تعریف مسئله: حتی در تعریف اینکه «هوش مصنوعی خطرناک» یعنی چه، توافق جهانی وجود ندارد. آیا هوش مصنوعی عمومی (AGI) خطرناک است؟ آیا کاربردهای نظامی باید ممنوع شوند؟ هر کشوری پاسخ متفاوتی دارد.
با این حال، برخی تلاش‌های چندجانبه در حال شکل‌گیری هستند. «اجلاس ایمنی هوش مصنوعی بلچلی» (۲۰۲۳) اولین گردهمایی بین‌المللی جدی برای این موضوع بود که هم آمریکا، هم اروپا، و — جالب توجه — هم چین در آن شرکت کردند. این نشانه‌ای است که حتی رقبا هم می‌دانند برخی ریسک‌های هوش مصنوعی از مرزهای ملی عبور می‌کنند.

کشورهای کوچک: قربانی یا بازیگر؟

در این معادله، اکثر کشورهای جهان چه نقشی دارند؟ متأسفانه، در حال حاضر، عمدتاً نقش قربانی را بازی می‌کنند.
وقتی اتحادیه اروپا EU AI Act را تصویب می‌کند، شرکت‌های ایرانی، ترکی، یا برزیلی که می‌خواهند به بازار اروپا دسترسی داشته باشند، مجبور به تبعیت هستند — بدون اینکه حتی یک نماینده در فرآیند تصمیم‌گیری داشته باشند. وقتی آمریکا صادرات تراشه را محدود می‌کند، کشورهایی که هیچ صنعت نیمه‌رسانای بومی ندارند، در معرض فشار قرار می‌گیرند.
اما یک استراتژی برای کشورهای کوچک‌تر وجود دارد: همکاری منطقه‌ای برای ایجاد صدای مشترک.
همانطور که در مقاله اقتصاد هوش مصنوعی اشاره شد، امارات و عربستان دارند در مدل‌های عربی‌زبان سرمایه‌گذاری می‌کنند. یک گام بعدی می‌تواند ایجاد یک «بلوک حاکمیت AI» منطقه‌ای باشد که کشورهای عربی یا کشورهای اسلامی را در مذاکرات بین‌المللی دارای صدای مشترک کند.
این دقیقاً کاری است که اتحادیه اروپا کرد — ۲۷ کشور با سیاست‌های متفاوت، یک صدای واحد در برابر غول‌های فناوری.

هوش مصنوعی قابل توضیح: حاکمیت از درون

یک بُعد دیگر از حاکمیت هوش مصنوعی که اهمیت رو به رشدی دارد، شفافیت خود مدل‌هاست. وقتی یک مدل هوش مصنوعی تصمیم می‌گیرد وام رد شود، یا یک متهم را خطرناک تشخیص دهد، یا یک رزومه را رد کند — آیا باید توضیح دهد چرا؟
هوش مصنوعی قابل توضیح این پرسش را در قلب حاکمیت می‌گذارد: بدون شفافیت، نظارت ممکن نیست. و بدون نظارت، مسئولیت‌پذیری وجود ندارد.
EU AI Act یکی از الزاماتش برای سیستم‌های ریسک بالا، همین «قابلیت توضیح» است. این یک نمونه از حاکمیتی است که نه از بیرون بلکه از درون معماری سیستم‌ها اعمال می‌شود.

آینده حاکمیت: به کجا می‌رویم؟

چند سناریوی محتمل برای آینده حاکمیت هوش مصنوعی وجود دارد:
سناریوی تکه‌تکه شدن (Fragmentation): دنیا به چند «حوزه» تقسیم می‌شود — حوزه آمریکایی با قوانین خودش، حوزه چینی، حوزه اروپایی. شرکت‌ها باید نسخه‌های متفاوتی از مدل‌هایشان برای هر حوزه بسازند. این احتمالاً محتمل‌ترین سناریوی کوتاه‌مدت است.
سناریوی هژمونی: یک قدرت — احتمالاً آمریکا یا اروپا — موفق می‌شود استانداردهایش را به استاندارد جهانی تبدیل کند، دقیقاً مثل اینکه دلار به ارز ذخیره جهانی تبدیل شد.
سناریوی همکاری: یک بحران بزرگ — مثلاً یک مدل هوش مصنوعی خودبهبوددهنده که از کنترل خارج می‌شود — قدرت‌های بزرگ را وادار به همکاری می‌کند، مشابه اینکه تهدید هسته‌ای در نهایت به معاهدات عدم اشاعه منجر شد.
واقعیت احتمالاً ترکیبی از این سه خواهد بود — تکه‌تکه شدن در کوتاه‌مدت، با فشارهای تدریجی به سمت برخی استانداردهای مشترک.

جمع‌بندی: قدرت پنهان‌تر از مدل‌ها

اگر بخواهیم یک درس از این بررسی بگیریم، این است: در رقابت هوش مصنوعی، کشوری که قوانین را می‌نویسد از کشوری که مدل‌ها را می‌سازد قدرتمندتر است.
اروپا بهترین مدل‌های هوش مصنوعی را ندارد — اما دارد شکل می‌دهد که هوش مصنوعی در کل دنیا چطور توسعه پیدا کند. این نفوذ نامرئی اما عمیق، همان چیزی است که اقتصاددانان «قدرت نرم» می‌نامند.
برای کشورهایی که نه قوی‌ترین مدل‌ها و نه بزرگ‌ترین بازارها را دارند، تنها مسیر واقعی این است: همکاری منطقه‌ای برای ایجاد صدای مشترک، سرمایه‌گذاری در استانداردهای بومی، و حضور فعال در سازمان‌های بین‌المللی.
بازی هنوز تمام نشده. قوانینش هنوز کاملاً نوشته نشده. و این — از بدبیاری — در واقع یک فرصت است.