OpenAI et les revues scientifiques : les articles d’AI se sont améliorés et surchargent l’évaluation par les pairs
Les articles d’AI sont devenus plus dangereux pour la science non pas parce qu’ils sont parfaits, mais parce qu’ils paraissent assez convaincants pour nécessite

Les revues scientifiques ont rencontré un nouveau problème : l'IA a commencé à produire en masse non pas des articles manifestement absurdes, mais tout à fait plausibles. De ce fait, les éditeurs et les relecteurs consacrent de plus en plus de temps à filtrer des travaux qui paraissent convaincants, mais n'ajoutent presque rien de nouveau au savoir.
Comment le pic a été détecté
Le problème a commencé à être largement discuté après une histoire étrange impliquant le travail du chercheur Peter Degen. Son article de 2017 sur l'analyse statistique de données épidémiologiques a accumulé un nombre normal de citations pour l'univers académique au cours des années, puis s'est soudainement mis à en recevoir littéralement tous les quelques jours. La vérification a montré qu'il était massivement cité par de nouveaux travaux basés sur l'ensemble de données ouvert Global Burden of Disease.
Formellement, c'étaient des études sur le risque d'accident vasculaire cérébral, le cancer, les chutes chez les personnes âgées et des dizaines d'autres sujets, mais essentiellement — des variations infinies d'un même modèle. Degen a trouvé des traces de cette usine sur GitHub et sur la plateforme chinoise Bilibili, où une entreprise de Guangzhou faisait la promotion de cours sur la création d'articles scientifiques publiables en moins de deux heures à l'aide de son propre logiciel et d'assistants IA. Ces textes contenaient souvent des erreurs et des exagérations, mais ne semblaient plus aussi absurdement artificiels que les premiers déchets générés par l'IA.
Les filtrer est devenu beaucoup plus difficile, et la charge sur les revues — plus importante.
C'est une énorme charge pour l'examen par les pairs, qui fonctionne
déjà à sa limite.
Pourquoi les filtres dysfonctionnent
Autrefois, les faux articles ou ceux assemblés automatiquement présentaient des marqueurs notables : des références inventées, des illustrations étranges, des phrases ressemblant à des réponses de chatbot accidentellement laissées dans le texte final. Les éditeurs menaient déjà une guerre contre les usines à papier — des fabriques semi-légales qui vendent des publications aux auteurs pour des lignes de CV. L'IA générative a d'abord aidé ces schémas à contourner la détection du plagiat, mais s'est en même temps exposée par ses hallucinations.
Maintenant, cette protection a presque disparu : les manuscrits sont devenus cohérents, soigneusement structurés et stylistiquement uniformes. Les éditeurs de revues le ressentent particulièrement. La rédactrice en chef de Security Dialogue, Marit Moe-Price, a rapporté que le nombre de manuscrits reçus a augmenté d'environ 100 % d'une année sur l'autre, et le principal problème est que presque tous semblent normaux à première vue.
Dans un cas, un article a passé au moins dix éditeurs et deux cycles d'examen avant qu'une référence plausible mais inventée soit découverte. Il ne suffit plus simplement de vérifier si une œuvre citée existe ; il faut aussi comprendre si un véritable expert la choisirait.
Où le système se casse
Le risque est amplifié non seulement par les générateurs de modèles, mais par des agents scientifiques plus autonomes. Les chercheurs de Carnegie Mellon ont montré que ces outils peuvent fabriquer des données ou utiliser des méthodes douteuses, tandis que l'article final paraît toujours soigné. Matt Spick de l'Université de Surrey a testé l'outil Prism sur des données déjà publiées sur la maturation des aubergines et des poivrons. Le système a proposé une nouvelle approche statistique et en 25 minutes 50 secondes a assemblé un article complet avec des graphiques et des références correctes — assez bon pour que des scientifiques expérimentés soient sérieusement impressionnés.
- Les revues enregistrent des augmentations de 40–100% du flux de soumissions.
- Pour trouver deux relecteurs, les éditeurs doivent de plus en plus souvent contacter 12–20 personnes.
- Les bailleurs de fonds reçoivent déjà une avalanche de demandes soigneusement ajustées.
- Les conférences, les conseils de rédaction et les relecteurs consacrent de plus en plus d'heures à la vérification manuelle de travaux d'une valeur douteuse.
Le problème ne provient pas seulement de la qualité des modèles, mais de la structure même de la science. Les revues en libre accès gagnent de l'argent en traitant les manuscrits, les universités et les fondations regardent toujours le nombre de publications, et les chercheurs vivent dans la logique du « publier ou périr ». Dans ce contexte, l'IA devient une machine pour gonfler les métriques.
Selon une étude publiée cette année dans Nature, les scientifiques utilisant l'IA produisent trois fois plus d'articles et reçoivent presque cinq fois plus de citations. Mais avec l'augmentation de la productivité vient un rétrécissement du champ : le système pousse les auteurs vers des sujets déjà bien cartographiés, où il est plus facile de synthétiser un autre résultat publiable.
Ce que cela signifie
La menace principale n'est pas que l'IA remplace complètement les scientifiques, mais qu'elle sape déjà les filtres humains sur lesquels repose l'académie. Si la valeur scientifique continue à être mesurée principalement par le nombre d'articles et les citations, les modèles n'accéléreront que la production de travaux qui prennent le temps d'autrui sans faire avancer le savoir. Cela signifie que la science devra changer à la fois ses méthodes de vérification et les règles mêmes du succès académique.