ActualitésAnalyseBonnes pratiques de publicationÉconomieExpertExpertiseInnovationIntelligence artificielleOpinionPublications scientifiquesTraduction

Édition scientifique : L’IA en passe de remplacer la relecture par les pairs

L’intelligence artificielle transforme aussi la publication scientifique. Le secteur est en ébullition et à l’instar de la traduction, les experts seront bientôt relégués au statut de relecteurs… du travail de l’IA

L’intelligence artificielle s’impose comme un catalyseur majeur dans la publication scientifique, en restructurant profondément le processus de relecture par les pairs (« peer review » dans le jargon) vers un modèle hybride. À l’image de la traduction professionnelle, qui a été profondément remaniée et souvent dévastée par les outils automatisés au cours de la dernière décennie, la relecture délègue désormais le traitement massif des soumissions à l’intelligence artificielle, tandis que l’expertise humaine se concentre sur la validation du travail de l’IA. Cette analogie avec la traduction dans la chaîne de l’édition n’est pas fortuite : elle illustre comment un métier autrefois artisanal (dans le bon sens du terme) et profondément humain, fondé sur la maîtrise et l’expertise en la matière ici linguistique et culturelle, a été bouleversé par l’automatisation et le deep learning, pavant la voie à une hybridation où l’humain corrige et affine les sorties de la machine, souvent au prix d’une précarisation généralisée du métier.

La crise structurelle du système traditionnel de relecture

Le cadre de relecture par les pairs, instauré au XVIIe siècle pour garantir la robustesse des découvertes scientifiques, traverse une période de tension extrême. En 2025, le volume annuel de publications dépasse les cinq millions d’articles, contre seulement 1,8 million en 2010, selon les analyses du Peer Review Congress. Cette croissance exponentielle, alimentée par l’essor de l’accès ouvert et les pressions institutionnelles du « publish or perish » (publier ou périr) allonge les délais de traitement jusqu’à douze mois et crée un déséquilibre flagrant parmi les relecteurs bénévoles :20 % d’entre eux assument 80 % des évaluations. Parallèlement, les « paper mills« , usines à faux articles, souvent générés par intelligence artificielle, contaminent jusqu’à 20 % des soumissions dans des domaines comme la biomédecine ou l’intelligence artificielle. Face à cette avalanche, l’IA apporte une réponse concrète avec des plateformes telles que STM Integrity Hub, qui analysent plus de 70 indicateurs pour détecter le plagiat, les altérations d’images et les anomalies statistiques. Chez des éditeurs comme PLOS ou Springer Nature, ces systèmes automatisés génèrent déjà 40 % des rejets au stade initial, réduisant de moitié les temps de réponse. D’ici 2028, les projections estiment que 70 à 80 % des contrôles préliminaires seront algorithmiques, libérant ainsi les experts pour des analyses plus subtiles.
Le parallèle avec la traduction professionnelle est particulièrement éclairant : depuis l’arrivée de DeepL et Google Translate, les traducteurs se consacrent essentiellement à la correction finale, avec une augmentation de 300 % de ces tâches depuis 2020. La relecture scientifique empruntera la même voie, en formant des spécialistes à affiner les modèles d’intelligence artificielle sur des ensembles de données dédiés, afin d’éviter les erreurs graves en médecine ou en physique. Mais à quel coût social pour les experts bénévoles actuels ?

Les pionniers du NEJM : une hybridation prudente entre automatisation et discernement humain

La prestigieuse revue New England Journal of Medicine (NEJM) illustre parfaitement cette évolution mesurée et contrôlée. Grâce à sa branche NEJM AI et au programme « AI Fast Track« , des modèles comme ChatGPT-5 et Gemini Pro examinent les essais cliniques pour identifier les biais statistiques, les échantillons défaillants ou les faiblesses méthodologiques. Ces outils surpassent souvent les relecteurs humains sur les aspects techniques purs, en débusquant des incohérences jusque-là passées inaperçues. Cependant, la politique éditoriale reste inflexible : chaque manuscrit exige l’intervention d’au moins deux experts externes et d’un statisticien, avec une interdiction formelle de l’intelligence artificielle pour les décisions finales. Cette approche hybride préserve le jugement contextuel et éthique, essentiel pour évaluer l’innovation ou les implications sociétales. Chez PLOS, les rejets initiaux ont explosé à 40 % grâce à ces audits numériques. Ces initiatives démontrent que l’intelligence artificielle excelle dans la gestion du volume, mais qu’elle bute sur les subtilités culturelles ou les avancées disruptives. Dans les deux à trois prochaines années, un déploiement élargi de ces voies rapides démocratisera l’accès à la publication pour les chercheurs des pays en développement, souvent pénalisés par les barrières linguistiques. Des traductions automatisées, corrigées par des spécialistes, renforceront cette inclusivité, à l’instar des traducteurs formés sur des corpus massifs pour perfectionner les algorithmes, une inclusivité qui masque souvent une exploitation accrue des travailleurs précaires.

Frontiers et son assistant AIRA : une intégration fluide au service de l’efficacité

Frontiers, leader de l’accès ouvert (open science dans le jargon), a déployé dès 2020 l’Artificial Intelligence Review Assistant (AIRA), qui effectue plus de quarante vérifications en un instant : détection de plagiat, conflits d’intérêts, images falsifiées. Couplé à Papermill Alarm, il identifie quinze signes de fraude, divisant par deux les délais de traitement. Cet assistant prépare le terrain pour un réseau de cent mille relecteurs humains qui rendent les verdicts définitifs. D’ici 2027, il orchestrera un appariement prédictif en temps réel entre manuscrits et relecteurs, favorisant une plus grande diversité grâce à des traductions corrigées. Ce modèle rappelle les agences éditoriales comme TransPerfect (voire paragraphe dédié ci-dessous), chez laquelle 90 % des flux professionnels passent désormais par l’humain essentiellement pour de la correction, générant des emplois spécialisés pour valider l’intelligence artificielle, mais des emplois souvent sous-payés et instables.

Elsevier et Aries Systems : une infrastructure évolutive pour préserver l’intégrité

L’éditeur Elsevier, qui gère plus de cinq mille revues, intègre l’intelligence artificielle dans Aries Systems et Editorial Manager pour un filtrage avancé : analyse de similarités textuelles, détection de biais et collaboration avec STM Hub contre les usines à faux articles. Traitant onze mille soumissions par jour, ces outils allègent 70 % de la charge initiale. ScienceDirect produit des synthèses de littérature, mais la relecture demeure strictement humaine, excluant toute autonomie algorithmique. Cette forteresse hybride repose sur un affinement renforcé pour des disciplines objectives comme la chimie, via des ensembles de données certifiés. Le marché de l’édition scientifique, évalué à 19 milliards de dollars, voit l’intelligence artificielle capter 15 % de la croissance annuelle, avec des concurrents comme Scholastica ou Morressier. Cette croissance qui profite avant tout aux géants au détriment des petits acteurs et des experts indépendants.

Côté prestataires d’IA : l’exemple de l’indien Cactus Communications

Fondée en 2002 à Mumbai, Cactus Communications rassemble plus de 3 000 experts en édition, traduction et intelligence artificielle à travers Paperpal et Editage. L’entreprise s’est développée à l’international, avec des bureaux en Asie, en Europe et en Amérique, au service des chercheurs, éditeurs et sociétés savantes. Son réseau excède mille spécialistes par discipline, proposant des services hybrides comme Paperpal Preflight for Editorial Desk, intégré chez Taylor & Francis, Frontiers ou Aries Systems, pour un filtrage algorithmique suivi de validation humaine. Cactus brille par son plaidoyer actif, en co-organisant des conférences et en façonnant les normes. En 2025, Editage coparraine la Peer Review Weeks, dont l’édition 2025 a eu lieu en septembre dernier, avec l’Association européenne des éditeurs scientifiques, sous le thème « Repenser la relecture à l’ère de l’intelligence artificielle ». Roohi Ghosh, co-présidente du comité, plaide pour un partenariat humain-algorithme responsable d’ici 2030.
Cactus anime des débats comme l’Ideathon sur les solutions intelligentes, explorant l’appariement de relecteurs et les incitations. À la Society for Scholarly Publishing 2025 à Baltimore, son équipe dirige des sessions sur les flux éditoriaux intelligents et a remporté un prix. Des partenariats avec SPIE pour des formations en optique ou avec STM pour l’intégrité amplifient son impact.
Dans quelques jours en novembre 2025, Cactus réunira à Washington DC des leaders pour « Réinventer l’édition avec la collaboration humain-intelligence artificielle » dans le but de dissiper les appréhensions. Membre de STM depuis 2024, Cactus diffuse via blogs et webinaires l’hybridation. Sur LinkedIn, elle recrute des relecteurs et autres annotateurs indépendantspour corriger les données issus de l’IA. Ce plaidoyer accélère l’adoption de l’intelligence artificielle soi-disant sans sacrifice humain, mais c’est une apparence car il masque souvent une dévalorisation du travail d’expert.

Écosystème des prestataires d’intelligence artificielle : concurrence et alliances collectives

Au-delà de Cactus, un marché dynamique propulse l’intelligence artificielle dans l’édition. STM Integrity Hub, coalition de 35 éditeurs, déploie Papermill Alarm avec 70 signaux partagés entre revues. Clear Skies attribue des notations de risque. Ces alliances échangent des ensembles de données anti-fraude. Aries intègre Preflight pour accélérer les rejets initiaux ; Frontiers associe son assistant à Clear Skies et Cactus. Elsevier domine via Editorial Manager mais coopère avec STM. Le secteur, valorisé à 19 milliards, bénéficie de 15 % de croissance liée à l’intelligence artificielle, avec Morressier ou Scholastica. Les offres d’emploi abondent : annotateurs chez Elsevier, affinement chez STM pour les sciences exactes ,des postes qui promettent l’innovation au pris de la précarisation des experts.

TransPerfect : le prédateur qui a décimé la traduction, comme un avertissement pour la relecture scientifique

Pour bien comprendre le destin probable de la relecture scientifique par les pairs, il faut se pencher sur l’histoirede TransPerfect, cette entreprise new-yorkaise fondée en 1992 par Phil Shawe et Liz Elting. Elle s’est imposée comme un prédateur impitoyable dans le monde de la traduction, avec un chiffre d’affaires dépassant le milliard de dollars. TransPerfect a été l’un des pionniers à exploiter massivement la traduction automatique neuronale dès les années 2010, intégrant des outils comme Google Translate et des moteurs propriétaires pour inonder le marché de traductions low-cost. Ce virage agressif a littéralement saccagé le métier : les tarifs par mot ont chuté de cinquante pour cent en une décennie, plongeant des milliers de traducteurs indépendants dans la précarité, les forçant à accepter des contrats ubérisés ou à quitter la profession. Des associations comme l’American Translators Association ont fustigé cette dévalorisation brutale, où la qualité humaine n’était plus qu’un luxe réservé aux clients fortunés, tandis que les erreurs culturelles et contextuelles proliféraient dans les traductions automatisées bon marché. TransPerfect, avec son modèle vorace, a externalisé massivement vers des pays à bas coûts, exploitant une main-d’œuvre sous-payée pour « post-éditer » les sorties de ses machines d’IA ; un euphémisme pour un travail ingrat de correction à la chaîne. Aujourd’hui, 90 % de ses projets passent par l’édition post-machine, créant soi-disant 50 000 emplois spécialisés, mais en réalité des postes précaires, sans sécurité sociale ni reconnaissance syndicale, où les linguistes sont réduits à des correcteurs anonymes au service des algorithmes. L’entreprise fles forme via des plateformes internes, en les rémunérant au lance-pierre pour affiner les modèles sur des corpus propriétaires, enrichissant ainsi les actionnaires au détriment des créateurs. Ce modèle a conquis des géants comme Netflix en réduisant les délais, mais au prix d’une érosion éthique : pertes d’emplois massives, burnout généralisé et une qualité globale en berne pour les contenus non critiques. Appliqué à la relecture scientifique, TransPerfect sonne comme un avertissement : l’automatisation promet l’efficacité, mais risque de transformer les experts bénévoles en gig workers exploités, validant les analyses IA sur l’éthique et l’innovation pour un salaire de misère, tout en amplifiant les inégalités et les biais. TransPerfect n’a pas reconstruit le métier ; il l’a pillé pour mieux le monétiser, un scénario que la science doit éviter, mais cela paraît bien ardu.

Défis persistants : fraudes évolutives, biais algorithmiques et garde-fous éthiques impératifs

Les défis de l’intelligence artificielle dans la relecture par les pairs sont profonds et touchent au cœur de l’intégrité scientifique. Les usines à faux articles (papermills) ont évolué, utilisant des modèles génératifs pour créer non seulement des textes falsifiés, mais aussi de faux rapports de relecture, infectant jusqu’à près de 20 % des soumissions dans les conférences sur l’intelligence artificielle. Ces tromperies sophistiquées échappent souvent aux détecteurs, en mimant le style académique avec une précision troublante, sapant la confiance dans les publications. De plus, les biais algorithmiques représentent un danger systémique : des ensembles de données d’entraînement peu diversifiés pourraient accentuer les inégalités, privilégiant les travaux en anglais ou issus d’institutions occidentales, au détriment des perspectives émergentes du Sud global. Des études récentes indiquent que 20 % des rejets automatisés pourraient être fautifs pour cette raison, compromettant l’objectivité. Éthiquement, l’opacité des algorithmes pose la question de la responsabilité : qui répond d’une erreur mortelle sur une notice d’utilisation d’un médicament ou d’un dispositif médical, ou la validation d’un essai clinique biaisé voire à base de données fabriquées, la machine ou l’éditeur ? Les National Institutes of Health et le Committee on Publication Ethics bannissent l’intelligence artificielle pure pour les relectures, imposant des déclarations complètes et des audits indépendants. La contre-attaque s’articule autour de l’affinement par des experts humains, qui corrigent les modèles sur des corpus validés, et de régulations naissantes. Des propositions pour une loi sur la relecture intelligente aux États-Unis exigeraient des certifications éthiques et des tests de robustesse. Cactus et STM forment via guides et séminaires, en insistant sur la transparence. Ces mesures de sauvegarde peuvent transformer les risques en atouts : une intelligence artificielle auditée détecterait mieux les fraudes subtiles. Sans eux, la crédibilité s’effondrerait. L’hybridation pourrait ainsi renforcer la résilience… à condition de ne pas répéter les erreurs du secteur de la traduction.

Perspectives : une généralisation hybride sans disparition de l’humain

Un horizon de deux à trois ans pour une massification de l’intelligence artificielle dans la relecture s’avère pertinent, comme le prouvent les avancées en cours et les projections du secteur. Ce mois-ci des outils comme l’assistant de Frontiers seront enrichis avec Papermill Alarm et Preflight, détectant les fraudes en routine, tandis que PLOS voit ses rejets initiaux algorithmiques atteindre 40 %. STM Integrity Hub, réunissant trente-cinq éditeurs, intègre des détecteurs de texte artificiel dès cette année, avec des groupes de travail visant une couverture inter-revues d’ici 2027-2028. Le New England Journal of Medicine rend des décisions en une semaine via son voie rapide, et Springer Nature a partagé son outil Geppetto au Hub en avril 2025. La Semaine de la relecture 2025 promeut un hybride responsable, Roohi Ghosh anticipant un filtrage dominant par intelligence artificielle dès la fin de la décennie. Le marché projette 70 % du triage algorithmique d’ici 2027-2028, extrapolation de pilotes en expansion et d’études du Peer Review Congress.
La disparition complète des relecteurs humains reste improbable avant une décennie, l’intelligence artificielle brillant dans le volume mais faillant à l’éthique ou à l’innovation. Comme pour la traduction, , la relecture scientifique par les pairs deviendra un métier hybride : experts affinant et auditant les modèles. Il faut tabler sur des régulations à définir qui ancreront l’humain au centre, pour une science fiable et des experts humains non dévalorisés ou précarisés. Un vœu pieu ?

Illustration d’en-tête : Andrea pour Science infused

Science infuse est un service de presse en ligne agréé (n° 0329 X 94873) piloté par Citizen4Science, association à but non lucratif d’information et de médiation scientifique.
Non subventionné, notre média dépend entièrement de ses contributeurs pour continuer à informer, analyser, avec un angle souvent différent car farouchement indépendant. Pour nous soutenir, et soutenir la presse indépendante et sa pluralité, faites un don pour que notre section site d’actualité et d’analyse reste d’accès gratuit !

avec J’aime l’Info, partenaire de la presse en ligne indépendante

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Résoudre : *
58 ⁄ 29 =