یک روز پس از انتشار گزارش نیویورک تایمز مبنیبر اینکه دولت ترامپ درحال بررسی تشدید نظارت بر صنعت هوش مصنوعی است، شرکتهای گوگل، مایکروسافت و xAI توافقنامههایی را امضا کردند تا دسترسی زودهنگام به سیستمهای هوش مصنوعی خود را در اختیار دولت فدرال قرار دهند. طبق این قرارداد، مدلهای هوش مصنوعی پیش از آنکه برای عموم منتشر شوند، در اختیار «مرکز استانداردهای هوش مصنوعی و نوآوری» (CAISI) قرار میگیرند تا از جنبههای مختلف امنیتی و فنی ارزیابی شوند.
«کریس فال» (Chris Fall)، مدیر CAISI، میگوید:
«علم اندازهگیری مستقل و دقیق برای درک هوش مصنوعی پیشرو و پیامدهای آن بر امنیت ملی ضروری است. این همکاریهای گسترده با صنعت به ما کمک میکند تا فعالیتهای خود را در جهت منافع عمومی در این لحظه حساس گسترش دهیم.»
براساس گزارشها، این قرارداد از گوگل، مایکروسافت و xAI میخواهد که مدلهای خود را با «حفاظهای امنیتی کاهشیافته یا حتی غیرفعال» در اختیار CAISI قرار دهند تا این سازمان بتواند آنها را از نظر قابلیتها و ریسکهای مرتبط با امنیت ملی بررسی کند.
توافق گوگل، مایکروسافت و xAI با دولت آمریکا
اگرچه در ظاهر به نظر میرسد ترامپ از سیاستهای آزادی اقتصادی خود در حوزه تکنولوژی عقبنشینی کرده، اما بررسی دقیقتر نشان میدهد که او از همان ابتدا قصد داشته است استانداردهای حکومتی خود را بر این صنعت تحمیل کند.

ریشه این فشارها را میتوان در تقابل پنتاگون با شرکت آنتروپیک مشاهده کرد. آنتروپیک به دلیل پافشاری بر محدودیتهای امنیتی که مانع استفاده از هوش مصنوعی در سلاحهای خودمختار و جاسوسیهای گسترده میشد، با غضب دولت مواجه گردید و حتی به عنوان یک خطر برای زنجیره تأمین معرفی شد.
پیشتر ترامپ با امضای فرمان اجرایی علیه آنچه Woke AI مینامد، رسماً استفاده از سیستمهایی با گرایشهای ایدئولوژیک خاص را در بدنه دولت ممنوع کرد. درواقع، دولت با ایجاد یک آزمون ایدئولوژیک، شرکتها را بر سر دوراهی تقابل یا همکاری قرار داده است. در این فضا، غولهای فناوری ترجیح دادهاند با واگذاری دسترسی زودهنگام به مدلهایشان، از فشارهای بیشتر و برچسبهای امنیتی دولت در امان بمانند و به نوعی با سیاستهای جاری همراه شوند.