یک روز پس از انتشار گزارش نیویورک تایمز مبنی‌بر اینکه دولت ترامپ درحال بررسی تشدید نظارت بر صنعت هوش مصنوعی است، شرکت‌های گوگل، مایکروسافت و xAI توافق‌نامه‌هایی را امضا کردند تا دسترسی زودهنگام به سیستم‌های هوش مصنوعی خود را در اختیار دولت فدرال قرار دهند. طبق این قرارداد، مدل‌های هوش مصنوعی پیش از آنکه برای عموم منتشر شوند، در اختیار «مرکز استانداردهای هوش مصنوعی و نوآوری» (CAISI) قرار می‌گیرند تا از جنبه‌های مختلف امنیتی و فنی ارزیابی شوند.

«کریس فال» (Chris Fall)، مدیر CAISI، می‌گوید:

«علم اندازه‌گیری مستقل و دقیق برای درک هوش مصنوعی پیشرو و پیامدهای آن بر امنیت ملی ضروری است. این همکاری‌های گسترده با صنعت به ما کمک می‌کند تا فعالیت‌های خود را در جهت منافع عمومی در این لحظه حساس گسترش دهیم.»

براساس گزارش‌ها، این قرارداد از گوگل، مایکروسافت و xAI می‌خواهد که مدل‌های خود را با «حفاظ‌های امنیتی کاهش‌یافته یا حتی غیرفعال» در اختیار CAISI قرار دهند تا این سازمان بتواند آنها را از نظر قابلیت‌ها و ریسک‌های مرتبط با امنیت ملی بررسی کند.

توافق گوگل، مایکروسافت و xAI با دولت آمریکا

اگرچه در ظاهر به نظر می‌رسد ترامپ از سیاست‌های آزادی اقتصادی خود در حوزه تکنولوژی عقب‌نشینی کرده، اما بررسی دقیق‌تر نشان می‌دهد که او از همان ابتدا قصد داشته است استانداردهای حکومتی خود را بر این صنعت تحمیل کند.

ریشه این فشارها را می‌توان در تقابل پنتاگون با شرکت آنتروپیک مشاهده کرد. آنتروپیک به دلیل پافشاری بر محدودیت‌های امنیتی که مانع استفاده از هوش مصنوعی در سلاح‌های خودمختار و جاسوسی‌های گسترده می‌شد، با غضب دولت مواجه گردید و حتی به عنوان یک خطر برای زنجیره تأمین معرفی شد.

پیش‌تر ترامپ با امضای فرمان اجرایی علیه آنچه Woke AI می‌نامد، رسماً استفاده از سیستم‌هایی با گرایش‌های ایدئولوژیک خاص را در بدنه دولت ممنوع کرد. درواقع، دولت با ایجاد یک آزمون ایدئولوژیک، شرکت‌ها را بر سر دوراهی تقابل یا همکاری قرار داده است. در این فضا، غول‌های فناوری ترجیح داده‌اند با واگذاری دسترسی زودهنگام به مدل‌هایشان، از فشارهای بیشتر و برچسب‌های امنیتی دولت در امان بمانند و به نوعی با سیاست‌های جاری همراه شوند.