Google وMicrosoft وxAI ستسمح للولايات المتحدة بمراجعة نماذج AI قبل الإطلاق
وافقت ثلاث من أكبر شركات AI — Google وMicrosoft وxAI — على السماح للولايات المتحدة بمراجعة نماذجها الجديدة قبل طرحها للعامة. ويجري مركز CAISI التابع لوزارة التج

وافقت شركات Google DeepMind و Microsoft و xAI على السماح للحكومة الأمريكية بالتحقق من نماذج الذكاء الاصطناعي الجديدة قبل إطلاقها العام. وهذا يعني أن التحقق الحكومي الأولي ينتقل من برنامج تجريبي إلى مرحلة إلزامية في التطوير للشركات الكبرى.
كيفية عمل التحقق
يقوم مركز معايير وابتكار الذكاء الاصطناعي (CAISI) التابع لوزارة التجارة الأمريكية بإجراء تقييمات أولية لنماذج الذكاء الاصطناعي الجديدة قبل وقت طويل من إطلاقها العام. تحلل المنظمة قدرات النظام في الترميز والرياضيات والمهام العلمية، وتحدد المخاطر المحتملة، وتعمل مع الشركات على تحسين الأمان قبل إطلاق النموذج. بدأ البرنامج في العمل في عام 2024 بمشاركة OpenAI و Anthropic. على مدى أول ثمانية عشر شهراً، تم إكمال 40 عملية تحقق بالفعل. أعادت كلا الشركتين التفاوض بشأن شراكاتهما مؤخراً وفقاً للأولويات الجديدة لإدارة ترامب. تنضم Google DeepMind و Microsoft و xAI بموجب شروط جديدة — عملياً جميع المطورين الرئيسيين لنماذج الذكاء الاصطناعي المتقدمة ينسقون الآن إطلاقاتهم مع الدولة.
لماذا تتحكم الحكومة بالذكاء الاصطناعي
تضع الإدارة الأمريكية عدة مهام أمام مركز CAISI: فهم ما هي الأنظمة المتقدمة للذكاء الاصطناعي قادرة فعلاً على فعله؛ تحديد المخاطر المحتملة قبل الإطلاق على السوق؛ التحكم في تصدير تقنيات الذكاء الاصطناعي في مصالح الأمن القومي. يجري مركز CCISI أبحاثاً موجهة جنباً إلى جنب مع الشركات، يتحقق من النماذج الجاهزة للإطلاق. يتضمن ذلك تحليل قدرة النظام على التعامل مع السيناريوهات المحتملة الخطرة والتحقق من القدرات الجديدة التي ظهرت مقارنة بالجيل السابق. أولويات الإدارة فيما يتعلق بتطور الذكاء الاصطناعي:
- ضمان بقاء الأنظمة قابلة للتحكم
- الفهم الكامل لقدرات النماذج المتقدمة
- الشفافية أمام الجهات التنظيمية
- حماية الأمن القومي
- التحكم في تصدير التقنيات
ما يعنيه ذلك للصناعة
إن موافقة أكبر الشركات على التحقق الحكومي الأولي تعني أن إطلاق نماذج ذكاء اصطناعي متقدمة جديدة في الولايات المتحدة دون تنسيق مع مركز CAISI لم يعد ممكناً. بالنسبة للشركات، هذا تباطؤ في دورة التطوير لعدة أسابيع قبل الإطلاق. بالنسبة للحكومة — نقاط نفوذ على اتجاه التطوير. بالنسبة للمستخدمين — معايير أمان أعلى بشكل محتمل للنماذج التي يستخدمونها يومياً.
ما يعنيه ذلك
تنتهي حقبة الحرية الكاملة لشركات الذكاء الاصطناعي الكبرى في قرارات إطلاق النماذج. تتولى الدولة دوراً أكثر نشاطاً في إدارة أكبر التقنيات التي تؤثر على ملايين الأشخاص. قد يؤدي هذا إلى تسريع تطوير معايير الأمان، لكنه سيبطئ من وتيرة الابتكار.