«سم آلتمن»، مدیرعامل OpenAI، اواخر روز جمعه اعلام کرد که این شرکت قراردادی را با پنتاگون (وزارت دفاع آمریکا) برای استفاده از ابزارهای هوش مصنوعی خود در سیستمهای طبقهبندی شده نظامی امضا کرده است. جالب اینکه به نظر میرسد این قرارداد ظاهراً شامل همان محدودیتهای ایمنی است که رقیب آنها، شرکت آنتروپیک، پیشتر خواستار آن شده بود.
این توافق درحالی صورت گرفته که ترامپ اخیراً اعلام کرده بود تمامی آژانسهای دولتی باید استفاده از ابزارهای هوش مصنوعی Anthropic را متوقف کنند. همچنین «پیت هگست»، وزیر جنگ آمریکا، این شرکت را به عنوان «خطری در زنجیره تأمین» معرفی کرد؛ چرا که آنتروپیک در مذاکرات خود با پنتاگون حاضر نشده بود از مواضع خود در مورد محدود کردن استفاده از هوش مصنوعی در تسلیحات خودمختار و نظارت انبوه بر شهروندان آمریکایی کوتاه بیاید.
توضیحات مدیرعامل OpenAI درباره این همکاری
با وجود برخوردهای سختگیرانه با شرکت رقیب، اظهارات آلتمن نشان میدهد که پنتاگون با محدودیتهای مشابهی برای مدلهای OpenAI موافقت کرده است. آلتمن در شبکه اجتماعی ایکس نوشت:
«دو مورد از مهمترین اصول ایمنی ما، ممنوعیت نظارت انبوه داخلی و حفظ مسئولیت انسانی در استفاده از زور (از جمله در سیستمهای تسلیحاتی خودمختار) است. وزارت جنگ با این اصول موافق است، آنها را در قوانین و سیاستهای خود منعکس کرده و ما نیز آنها را در قرارداد خود گنجاندهایم.»

آلتمن همچنین گفت که آنها مهندسان مستقر خود را به پنتاگون میفرستند تا از ایمنی مدلها اطمینان حاصل کنند. وی تأکید کرد:
«ما از وزارت دفاع میخواهیم همین شرایط را به تمام شرکتهای هوش مصنوعی پیشنهاد دهد.»
درحالحاضر آنتروپیک اعلام کرده که قصد دارد علیه برچسب «خطر در زنجیره تأمین» که به این شرکت اطلاق شده، اقدام قانونی کند. این عنوان معمولاً برای شرکتهایی رزرو میشود که ارتباط مستقیمی با دشمنان خارجی دارند. این حکم تمامی پیمانکاران نظامی را ملزم میکند ثابت کنند فعالیتهای آنها هیچ تماسی با محصولات آنتروپیک ندارد.
هنوز مشخص نیست که تفاوت دقیق توافق OpenAI با آنچه آنتروپیک به دنبالش بوده در چیست. بااینحال، هگست پست آلتمن را بازنشر کرده و «امیل مایکل»، معاون فناوری پنتاگون، در پستی نوشته است:
«وقتی موضوع مرگ و زندگی رزمندگان ما مطرح است، داشتن یک شریک قابل اعتماد و ثابتقدم که با حسن نیت وارد تعامل شود، در عصر هوش مصنوعی تفاوت اصلی را ایجاد میکند.»