Google, Microsoft e xAI permitirão que os EUA revisem modelos de AI antes do lançamento
Três das maiores empresas de AI — Google, Microsoft e xAI — concordaram em permitir que os EUA revisem seus novos modelos antes do lançamento público. O centro

Google DeepMind, Microsoft e xAI concordaram em permitir que o governo dos EUA verifique novos modelos de IA antes do seu lançamento público. Isso significa que a verificação preliminar do governo está fazendo a transição de um programa experimental para uma etapa obrigatória no desenvolvimento das maiores empresas.
Como funciona a verificação
O Centro de Padrões e Inovação em IA (CAISI) do Departamento de Comércio dos EUA realiza avaliações preliminares de novos modelos de IA muito antes do seu lançamento público. A organização analisa as capacidades do sistema em codificação, matemática, tarefas científicas, identifica riscos potenciais e trabalha com as empresas para melhorar a segurança antes do modelo ser lançado. O programa começou a funcionar em 2024 com a participação da OpenAI e Anthropic.
Nos primeiros um ano e meio, 40 verificações já foram concluídas. Ambas as empresas renegociaram recentemente suas parcerias de acordo com as novas prioridades da administração Trump. Google DeepMind, Microsoft e xAI estão se juntando sob novos termos — praticamente todos os principais desenvolvedores de modelos avançados de IA agora coordenam seus lançamentos com o estado.
Por que o governo controla a IA
A administração dos EUA estabelece várias tarefas para a CAISI: entender o que os sistemas avançados de IA são realmente capazes de fazer; identificar riscos potenciais antes do lançamento no mercado; controlar a exportação de tecnologias de IA nos interesses da segurança nacional. A CCISI realiza pesquisas direcionadas ao lado de empresas, verificando modelos para prontidão de lançamento. Isso inclui analisar a capacidade do sistema de lidar com cenários potencialmente perigosos e verificar quais novas capacidades surgiram em comparação com a geração anterior. As prioridades da administração em relação ao desenvolvimento de IA:
- Garantir que os sistemas permaneçam controláveis
- Compreensão completa das capacidades dos modelos avançados
- Transparência perante reguladores
- Proteção da segurança nacional
- Controle sobre exportação de tecnologias
O que isso significa para a indústria
O acordo das maiores empresas para verificação preliminar do governo significa que lançar novos modelos avançados nos EUA sem coordenação com a CAISI não é mais possível. Para as empresas, isso é uma desaceleração do ciclo de desenvolvimento em várias semanas antes do lançamento. Para o governo — alavancas de influência sobre a direção do desenvolvimento. Para os usuários — padrões de segurança potencialmente mais elevados para os modelos que usam todos os dias.
O que isso significa
A era de liberdade completa para as grandes empresas de IA nas decisões sobre lançamentos de modelos está chegando ao fim. O estado está assumindo um papel mais ativo na governança das maiores tecnologias que afetam milhões de pessoas. Isso pode acelerar o desenvolvimento de padrões de segurança, mas desacelerar o ritmo da inovação.