Google, Microsoft et xAI permettront aux États-Unis d'examiner des modèles d'AI avant leur sortie
Trois des plus grandes entreprises d'AI — Google, Microsoft et xAI — ont accepté de permettre aux États-Unis d'examiner leurs nouveaux modèles avant leur sortie

Google DeepMind, Microsoft et xAI ont accepté de permettre au gouvernement américain de vérifier les nouveaux modèles d'IA avant leur lancement public. Cela signifie que la vérification préalable du gouvernement passe d'un programme expérimental à une étape obligatoire du développement pour les plus grandes entreprises.
Comment fonctionne la vérification
Le Centre pour les normes et l'innovation en IA (CAISI) du département américain du Commerce effectue des évaluations préalables des nouveaux modèles d'IA bien avant leur lancement public. L'organisation analyse les capacités du système en codage, mathématiques, tâches scientifiques, identifie les risques potentiels et travaille avec les entreprises à l'amélioration de la sécurité avant le lancement du modèle. Le programme a commencé à fonctionner en 2024 avec la participation d'OpenAI et d'Anthropic.
Au cours des premiers dix-huit mois, 40 vérifications ont déjà été effectuées. Les deux entreprises ont récemment renégocié leurs partenariats conformément aux nouvelles priorités de l'administration Trump. Google DeepMind, Microsoft et xAI adhèrent aux nouvelles conditions — pratiquement tous les principaux développeurs de modèles d'IA avancés coordonnent désormais leurs lancements avec l'État.
Pourquoi le gouvernement contrôle l'IA
L'administration américaine fixe plusieurs tâches au CAISI : comprendre ce que les systèmes d'IA avancés sont vraiment capables de faire ; identifier les risques potentiels avant le lancement sur le marché ; contrôler l'exportation des technologies d'IA dans l'intérêt de la sécurité nationale. CCISI mène des recherches ciblées aux côtés des entreprises, vérifiant les modèles pour leur préparation au lancement. Ceci comprend l'analyse de la capacité du système à gérer les scénarios potentiellement dangereux et la vérification des nouvelles capacités apparues par rapport à la génération précédente. Les priorités de l'administration concernant le développement de l'IA :
- Garantir que les systèmes restent contrôlables
- Compréhension complète des capacités des modèles avancés
- Transparence face aux régulateurs
- Protection de la sécurité nationale
- Contrôle de l'exportation des technologies
Ce que cela signifie pour l'industrie
L'accord des plus grandes entreprises pour une vérification préalable du gouvernement signifie que le lancement de nouveaux modèles avancés aux États-Unis sans coordination avec CAISI n'est plus possible. Pour les entreprises, c'est un ralentissement du cycle de développement de plusieurs semaines avant le lancement. Pour le gouvernement — des leviers d'influence sur la direction du développement. Pour les utilisateurs — des normes de sécurité potentiellement plus élevées pour les modèles qu'ils utilisent chaque jour.
Ce que cela signifie
L'ère de liberté complète pour les grandes entreprises d'IA dans les décisions concernant le lancement des modèles touche à sa fin. L'État prend un rôle plus actif dans la gouvernance des plus grandes technologies qui affectent des millions de personnes. Cela peut accélérer le développement des normes de sécurité, mais ralentir le rythme de l'innovation.