The Verge→ оригинал

OpenAI e periódicos científicos: artigos de AI ficaram melhores e sobrecarregam a revisão por pares

Os artigos de AI ficaram mais perigosos para a ciência não porque sejam perfeitos, mas porque parecem convincentes o bastante para exigir uma longa verificação

OpenAI e periódicos científicos: artigos de AI ficaram melhores e sobrecarregam a revisão por pares
Fonte: The Verge. Коллаж: Hamidun News.
◐ Слушать статью

Os periódicos científicos enfrentaram um novo problema: a IA começou a produzir em massa não artigos manifestamente absurdos, mas bastante plausíveis. Por isso, editores e revisores gastam cada vez mais tempo filtrando trabalhos que parecem convincentes, mas quase não adicionam novo conhecimento.

Como detectaram o aumento

O problema começou a ser amplamente discutido após uma história estranha envolvendo o trabalho do pesquisador Peter Degen. Seu artigo de 2017 sobre análise estatística de dados epidemiológicos acumulava um número normal de citações para a academia ao longo dos anos, e depois começou a recebê-las literalmente a cada poucos dias. A verificação mostrou que estava sendo massivamente citado por novos trabalhos baseados no conjunto de dados aberto Global Burden of Disease.

Formalmente, eram estudos sobre risco de derrame, câncer, quedas em idosos e dezenas de outros tópicos, mas essencialmente — variações infinitas do mesmo modelo. Degen encontrou rastros dessa fábrica no GitHub e na plataforma chinesa Bilibili, onde uma empresa de Guangzhou anunciava aulas sobre como criar artigos científicos publicáveis em menos de duas horas usando seu próprio software e assistentes de IA. Esses textos frequentemente continham erros e esticadas, mas não pareciam mais tão artificialmente absurdos quanto o lixo inicial gerado por IA.

Filtrá-los tornou-se muito mais difícil, e a carga nos periódicos — maior.

Essa é uma carga enorme no peer review, que já está funcionando no limite.

Por que os filtros estão falhando

Antes, artigos falsos ou montados automaticamente tinham marcadores notáveis: referências fabricadas, ilustrações estranhas, frases que pareciam respostas de chatbot deixadas acidentalmente no texto final. As editoras já estavam em guerra contra paper mills — fábricas semilegais que vendem publicações para autores para linhas de currículo. A IA generativa inicialmente ajudou esses esquemas a contornar detecção de plágio, mas ao mesmo tempo se expôs através de alucinações.

Agora essa proteção quase desapareceu: os manuscritos se tornaram coerentes, bem estruturados e estilisticamente uniformes. Os editores de periódicos sentem isso especialmente. A editora executiva do Security Dialogue, Marit Moe-Price, informou que o número de manuscritos recebidos aumentou aproximadamente 100% ano após ano, e o principal problema é que quase todos parecem normais à primeira vista.

Em um caso, um artigo passou por pelo menos dez editores e dois rounds de revisão antes que uma referência plausível mas fabricada fosse detectada. Agora não é suficiente simplesmente verificar se uma obra citada existe; é preciso também entender se um especialista de verdade a escolheria.

Onde o sistema quebra

O risco é amplificado não apenas por geradores de modelos, mas por agentes científicos mais autônomos. Pesquisadores de Carnegie Mellon mostraram que essas ferramentas podem fabricar dados ou usar métodos questionáveis, enquanto o artigo final ainda parece polido. Matt Spick da University of Surrey testou a ferramenta Prism em dados já publicados sobre amadurecimento de berinjela e pimenta. O sistema propôs uma nova abordagem estatística e em 25 minutos 50 segundos montou um artigo completo com gráficos e referências corretas — bom o suficiente para que cientistas experientes ficassem seriamente impressionados.

  • Os periódicos registram aumentos de 40–100% no fluxo de submissões.
  • Para encontrar dois revisores, editores cada vez mais precisam contactar 12–20 pessoas.
  • Agências de fomento já estão recebendo uma enxurrada de aplicações cuidadosamente ajustadas.
  • Conferências, conselhos editoriais e revisores gastam cada vez mais horas em verificação manual de trabalhos duvidosamente valiosos.

O problema não surge apenas da qualidade dos modelos, mas da própria estrutura da ciência. Periódicos de acesso aberto ganham dinheiro processando manuscritos, universidades e fundações ainda olham para contagens de publicações, e pesquisadores vivem pela lógica de publicar ou perecer. Nesse contexto, a IA se torna uma máquina para inflar métricas. De acordo com um estudo publicado este ano na Nature, cientistas que usam IA produzem três vezes mais artigos e recebem quase cinco vezes mais citações. Mas com o aumento da produtividade vem um estreitamento do foco: o sistema empurra autores para tópicos já bem mapeados, onde é mais fácil sintetizar mais um resultado publicável.

O que isso significa

A principal ameaça agora não é que a IA vai substituir completamente os cientistas, mas que já está minando os filtros humanos em que a academia se apoia. Se o valor científico continuar a ser medido principalmente pela contagem de artigos e citações, os modelos apenas acelerarão a produção de trabalho que consome o tempo de outros, mas não faz avançar o conhecimento. Isso significa que a ciência terá que mudar tanto seus métodos de verificação quanto as próprias regras do sucesso acadêmico.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
O que você acha?
Carregando comentários…