The Verge→ original

Google, Microsoft e xAI permitirão que os EUA revisem modelos de AI antes do lançamento

Três das maiores empresas de AI — Google, Microsoft e xAI — concordaram em permitir que os EUA revisem seus novos modelos antes do lançamento público. O centro

Google, Microsoft e xAI permitirão que os EUA revisem modelos de AI antes do lançamento
Fonte: The Verge. Colagem: Hamidun News.
◐ Ouvir artigo

Google DeepMind, Microsoft e xAI concordaram em permitir que o governo dos EUA verifique novos modelos de IA antes do seu lançamento público. Isso significa que a verificação preliminar do governo está fazendo a transição de um programa experimental para uma etapa obrigatória no desenvolvimento das maiores empresas.

Como funciona a verificação

O Centro de Padrões e Inovação em IA (CAISI) do Departamento de Comércio dos EUA realiza avaliações preliminares de novos modelos de IA muito antes do seu lançamento público. A organização analisa as capacidades do sistema em codificação, matemática, tarefas científicas, identifica riscos potenciais e trabalha com as empresas para melhorar a segurança antes do modelo ser lançado. O programa começou a funcionar em 2024 com a participação da OpenAI e Anthropic.

Nos primeiros um ano e meio, 40 verificações já foram concluídas. Ambas as empresas renegociaram recentemente suas parcerias de acordo com as novas prioridades da administração Trump. Google DeepMind, Microsoft e xAI estão se juntando sob novos termos — praticamente todos os principais desenvolvedores de modelos avançados de IA agora coordenam seus lançamentos com o estado.

Por que o governo controla a IA

A administração dos EUA estabelece várias tarefas para a CAISI: entender o que os sistemas avançados de IA são realmente capazes de fazer; identificar riscos potenciais antes do lançamento no mercado; controlar a exportação de tecnologias de IA nos interesses da segurança nacional. A CCISI realiza pesquisas direcionadas ao lado de empresas, verificando modelos para prontidão de lançamento. Isso inclui analisar a capacidade do sistema de lidar com cenários potencialmente perigosos e verificar quais novas capacidades surgiram em comparação com a geração anterior. As prioridades da administração em relação ao desenvolvimento de IA:

  • Garantir que os sistemas permaneçam controláveis
  • Compreensão completa das capacidades dos modelos avançados
  • Transparência perante reguladores
  • Proteção da segurança nacional
  • Controle sobre exportação de tecnologias

O que isso significa para a indústria

O acordo das maiores empresas para verificação preliminar do governo significa que lançar novos modelos avançados nos EUA sem coordenação com a CAISI não é mais possível. Para as empresas, isso é uma desaceleração do ciclo de desenvolvimento em várias semanas antes do lançamento. Para o governo — alavancas de influência sobre a direção do desenvolvimento. Para os usuários — padrões de segurança potencialmente mais elevados para os modelos que usam todos os dias.

O que isso significa

A era de liberdade completa para as grandes empresas de IA nas decisões sobre lançamentos de modelos está chegando ao fim. O estado está assumindo um papel mais ativo na governança das maiores tecnologias que afetam milhões de pessoas. Isso pode acelerar o desenvolvimento de padrões de segurança, mas desacelerar o ritmo da inovação.

ZK
Hamidun News
Notícias de AI sem ruído. Seleção editorial diária de mais de 400 fontes. Produto de Zhemal Khamidun, Head of AI na Alpina Digital.
O que você acha?
Carregando comentários…