The Verge→ оригинал

OpenAI y las revistas científicas: los artículos de AI mejoraron y saturan la revisión por pares

Los artículos de AI se volvieron más peligrosos para la ciencia no porque sean perfectos, sino porque parecen lo bastante convincentes como para requerir una la

OpenAI y las revistas científicas: los artículos de AI mejoraron y saturan la revisión por pares
Fuente: The Verge. Коллаж: Hamidun News.
◐ Слушать статью

Las revistas científicas se han enfrentado a un nuevo problema: la IA ha comenzado a producir no artículos manifiestamente absurdos, sino bastante plausibles. Por esto, editores y revisores dedican cada vez más tiempo a filtrar trabajos que parecen convincentes, pero casi no añaden conocimiento nuevo.

Cómo detectaron el repunte

El problema comenzó a ser ampliamente discutido tras una extraña historia que involucraba el trabajo del investigador Peter Degen. Su artículo de 2017 sobre análisis estadístico de datos epidemiológicos acumulaba un número normal de citas para la academia durante años, y luego comenzó a recibirlas literalmente cada pocos días. La verificación mostró que estaba siendo masivamente citado por nuevos trabajos basados en el conjunto de datos abierto Global Burden of Disease.

Formalmente, eran estudios sobre riesgo de accidente cerebrovascular, cáncer, caídas en ancianos y decenas de otros temas, pero en esencia — variaciones infinitas del mismo patrón. Degen encontró rastros de esta fábrica en GitHub y en la plataforma china Bilibili, donde una empresa de Guangzhou publicaba anuncios de lecciones sobre cómo crear artículos científicos publicables en menos de dos horas usando su propio software y asistentes de IA. Estos textos a menudo contenían errores y exageraciones, pero ya no lucían tan absurdamente artificiales como la basura inicial generada por IA.

Filtrarlos se ha vuelto mucho más difícil, y la carga en las revistas — mayor.

Esta es una carga enorme para la revisión por pares, que ya está

funcionando al límite.

Por qué los filtros están fallando

Antes, los artículos falsos o ensamblados automáticamente tenían marcadores notables: referencias fabricadas, ilustraciones extrañas, frases que parecían respuestas de chatbot dejadas accidentalmente en el texto final. Los editores ya estaban en guerra contra paper mills — fábricas semilegales que venden publicaciones a autores para líneas de currículum. La IA generativa inicialmente ayudó a estos esquemas a eludir la detección de plagio, pero al mismo tiempo se expuso a través de alucinaciones.

Ahora esta salvaguardia casi ha desaparecido: los manuscritos se han vuelto coherentes, cuidadosamente estructurados y estilísticamente uniformes. Los editores de revistas científicas lo sienten especialmente. La editora ejecutiva de Security Dialogue, Marit Moe-Price, informó que el número de manuscritos recibidos aumentó aproximadamente el 100% año tras año, y el principal problema es que casi todos parecen normales a primera vista.

En un caso, un artículo pasó por al menos diez editores y dos rondas de revisión antes de que se detectara una referencia plausible pero fabricada. Ahora no es suficiente simplemente verificar si existe una obra citada; también necesitas entender si un verdadero experto la elegiría.

Dónde se rompe el sistema

El riesgo se amplifica no solo por generadores de plantillas, sino por agentes científicos más autónomos. Investigadores de Carnegie Mellon mostraron que tales herramientas pueden fabricar datos o usar métodos cuestionables, mientras que el artículo final aún se ve pulido. Matt Spick de University of Surrey probó la herramienta Prism en datos ya publicados sobre la maduración de berenjenas y pimientos. El sistema propuso un nuevo enfoque estadístico y en 25 minutos 50 segundos armó un artículo completo con gráficos y referencias correctas — lo suficientemente bueno como para que científicos experimentados quedaran seriamente impresionados.

  • Las revistas registran aumentos del 40–100% en el flujo de envíos.
  • Para encontrar dos revisores, los editores cada vez más deben contactar a 12–20 personas.
  • Los organismos de financiamiento ya están recibiendo una avalancha de solicitudes cuidadosamente ajustadas.
  • Las conferencias, consejos editoriales y revisores dedican cada vez más horas a la verificación manual de trabajos cuestionablemente valiosos.

El problema no surge solo de la calidad de los modelos, sino de la estructura misma de la ciencia. Las revistas de acceso abierto ganan dinero procesando manuscritos, las universidades y fundaciones aún miran recuentos de publicaciones, e investigadores viven según la lógica de publicar o perecer. En este contexto, la IA se convierte en una máquina para inflar métricas. Según un estudio publicado este año en Nature, los científicos que utilizan IA producen tres veces más artículos y reciben casi cinco veces más citas. Pero con el aumento en la productividad viene un estrechamiento del enfoque: el sistema empuja a los autores hacia temas ya bien mapeados, donde es más fácil sintetizar otro resultado publicable.

Qué significa esto

La principal amenaza ahora no es que la IA reemplace completamente a los científicos, sino que ya está socavando los filtros humanos en los que descansa la academia. Si el valor científico sigue siendo medido principalmente por conteo de artículos y citas, los modelos solo acelerarán la producción de trabajos que consumen el tiempo de otros, pero no avanzan el conocimiento. Esto significa que la ciencia tendrá que cambiar tanto sus métodos de verificación como las propias reglas del éxito académico.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
¿Qué te parece?
Cargando comentarios…