Google, Microsoft y xAI permitirán que EE. UU. revise modelos de AI antes de su lanzamiento
Tres de las mayores empresas de AI —Google, Microsoft y xAI— acordaron permitir que EE. UU. revise sus nuevos modelos antes de su lanzamiento público. El centro

Google DeepMind, Microsoft y xAI han acordado permitir que el gobierno de EE.UU. verifique nuevos modelos de IA antes de su lanzamiento público. Esto significa que la verificación preliminar del gobierno está haciendo la transición de un programa experimental a un paso obligatorio en el desarrollo de las empresas más grandes.
Cómo funciona la verificación
El Centro de Estándares e Innovación en IA (CAISI) del Departamento de Comercio de EE.UU. realiza evaluaciones preliminares de nuevos modelos de IA mucho antes de su lanzamiento público.
La organización analiza las capacidades del sistema en codificación, matemáticas, tareas científicas, identifica riesgos potenciales y trabaja con las empresas en mejorar la seguridad antes de que el modelo se lance. El programa comenzó a funcionar en 2024 con la participación de OpenAI y Anthropic. En los primeros año y medio, ya se han completado 40 verificaciones.
Ambas empresas han renegociado recientemente sus asociaciones de acuerdo con las nuevas prioridades de la administración Trump. Google DeepMind, Microsoft y xAI se unen bajo nuevas condiciones — prácticamente todos los principales desarrolladores de modelos avanzados de IA ahora coordinan sus lanzamientos con el estado.
Por qué el gobierno controla la IA
La administración de EE.UU. establece varias tareas para CAISI: entender qué son realmente capaces de hacer los sistemas avanzados de IA; identificar riesgos potenciales antes del lanzamiento al mercado; controlar la exportación de tecnologías de IA en interés de la seguridad nacional. CCISI realiza investigación dirigida junto a las empresas, verificando modelos para preparación de lanzamiento. Esto incluye analizar la capacidad del sistema para manejar escenarios potencialmente peligrosos y verificar qué nuevas capacidades han aparecido en comparación con la generación anterior. Las prioridades de la administración respecto al desarrollo de IA:
- Garantizar que los sistemas permanezcan controlables
- Comprensión completa de las capacidades de los modelos avanzados
- Transparencia ante reguladores
- Protección de la seguridad nacional
- Control sobre la exportación de tecnologías
Lo que esto significa para la industria
El acuerdo de las empresas más grandes para verificación preliminar del gobierno significa que lanzar nuevos modelos avanzados en EE.UU. sin coordinación con CAISI ya no es posible. Para las empresas, esto es una desaceleración del ciclo de desarrollo de varias semanas antes del lanzamiento. Para el gobierno — palancas de influencia sobre la dirección del desarrollo. Para los usuarios — potencialmente mayores estándares de seguridad para los modelos que usan cada día.
Lo que esto significa
La era de libertad completa para las grandes empresas de IA en decisiones sobre lanzamientos de modelos está llegando a su fin. El estado está asumiendo un papel más activo en la gobernanza de las tecnologías más grandes que afectan a millones de personas. Esto puede acelerar el desarrollo de estándares de seguridad, pero desacelerar el ritmo de la innovación.