L’usage de l’intelligence artificielle dans l’évaluation scientifique n’est plus une hypothèse prospective ni un simple sujet de laboratoire. Il s’impose déjà comme une pratique diffuse, souvent silencieuse, portée par les chercheurs eux-mêmes bien avant que les cadres institutionnels ne soient stabilisés. En croisant l’étude mondiale publiée par Frontiers en 2025 et deux enquêtes récentes de Nature, une réalité se dessine clairement : l’IA progresse plus vite que la gouvernance censée l’encadrer.
L’évaluation par les pairs constitue l’un des piliers historiques de la production scientifique. Elle repose sur une combinaison fragile entre expertise humaine, confiance collective et responsabilité individuelle. Or, cette architecture implicite se trouve aujourd’hui confrontée à un changement d’échelle technologique. Les outils d’IA générative et analytique sont déjà intégrés aux pratiques quotidiennes des chercheurs, non par décision institutionnelle, mais par pragmatisme opérationnel. Ce décalage structurel alimente une tension croissante entre efficacité, intégrité et légitimité.
Un rapport de l’éditeur scientifique international Frontiers,fondé sur une enquête menée auprès de 1 645 chercheurs dans 111 pays, établit un constat sans ambiguïté : 53 % des évaluateurs déclarent utiliser des outils d’IA dans leurs activités de relecture scientifique. Cette adoption n’est pas marginale ni expérimentale. Elle progresse rapidement, avec 24 % des répondants indiquant une augmentation de leur usage au cours des douze derniers mois. L’IA est désormais présente des deux côtés de la chaîne scientifique, à la fois dans la rédaction des articles et dans leur évaluation.
Des usages majoritairement superficiels
Les enquêtes de Nature confirment cette dynamique. Dans un article publié fin 2025, la revue rapporte que plus de la moitié des chercheurs interrogés reconnaissent avoir utilisé une IA lors d’une relecture, souvent sans consignes explicites de la part des éditeurs ou des revues concernées . Cette diffusion informelle montre que l’IA n’attend pas la normalisation pour s’installer. Elle s’impose comme un outil de travail, adopté localement, individuellement, parfois en contradiction avec les recommandations officielles.
L’un des apports majeurs du rapport Frontiers réside dans la distinction entre usages de surface et usages analytiques. Aujourd’hui, l’IA est principalement mobilisée pour rédiger des rapports d’évaluation, résumer des manuscrits ou améliorer la clarté linguistique. En revanche, seuls 19 % des évaluateurs déclarent l’utiliser pour examiner la solidité statistique, la méthodologie ou la cohérence scientifique des travaux évalués.
Cette dissymétrie est stratégique. Elle révèle que l’IA est d’abord perçue comme un outil de productivité, non comme un instrument d’élévation de la rigueur scientifique. Nature illustre ce glissement par des cas concrets observés lors de conférences en apprentissage automatique, où une part significative des évaluations aurait été rédigée quasi intégralement par des IA, sans contrôle explicite ni divulgation claire . Le risque n’est pas tant l’automatisation que la banalisation de l’assistance non qualifiée.
La confiance devient le point de friction central
Frontiers met en évidence une contradiction de fond. Si 63 % des chercheurs reconnaissent que l’IA améliore la qualité formelle des manuscrits, 52 % estiment simultanément qu’elle affaiblit la perception d’intégrité des travaux évalués. La qualité perçue progresse, mais la crédibilité recule. Cette tension est amplifiée par un déficit massif de transparence : 76 % des répondants déclarent ne pas savoir si les éditeurs utilisent eux-mêmes des outils d’IA dans leurs processus.
Les articles de Nature renforcent ce diagnostic. Ils montrent que l’opacité des usages nourrit la défiance bien plus que la technologie elle-même. Lorsque l’IA intervient sans traçabilité, elle est perçue comme un facteur de dilution de la responsabilité. La question n’est donc plus de savoir si l’IA doit être utilisée, mais à quelles conditions elle peut l’être sans fragiliser le contrat de confiance qui fonde la science.
Formation et gouvernance, les angles morts du système actuel
L’étude Frontiers révèle un autre déséquilibre majeur. Plus d’un tiers des chercheurs est entièrement autodidacte dans ses usages de l’IA, et 18 % n’adoptent aucune démarche structurée pour en garantir un usage responsable. Ce déficit de formation contraste avec la puissance croissante des outils disponibles. L’IA progresse comme une compétence implicite, sans reconnaissance institutionnelle claire, ni cadre pédagogique stabilisé.
Du côté des règles, 20 % des chercheurs interrogés citent explicitement l’absence de gouvernance ou la confusion réglementaire comme principal frein à un usage responsable. Nature rapporte même des cas où des consignes mal formulées ont conduit certains évaluateurs à s’interdire toute utilisation de l’IA, par crainte éthique, tandis que d’autres y recouraient massivement sans déclaration. Cette hétérogénéité ne traduit pas un désaccord scientifique, mais un vide organisationnel.
L’édition scientifique face à un choix industriel et politique
Frontiers assume un positionnement singulier dans ce paysage. L’éditeur revendique l’usage de systèmes d’IA internes pour assister l’évaluation à grande échelle, tout en plaidant pour une gouvernance fondée sur la transparence, la responsabilité humaine et la traçabilité. Cette posture n’est pas neutre, mais elle a le mérite de rendre visibles des arbitrages que nombre d’acteurs opèrent aujourd’hui de manière tacite.
Pour les éditeurs, les institutions de recherche et les financeurs, l’enjeu dépasse largement la seule sphère académique. Il renvoie à des problématiques familières au monde B2B : gouvernabilité des systèmes algorithmiques, auditabilité des processus, responsabilité juridique et réputationnelle. L’évaluation scientifique devient ainsi un laboratoire grandeur nature des tensions que l’IA introduit dans toutes les chaînes de décision complexes.
De fait, la conclusion s’impose sans effet de manche : l’IA ne menace pas l’évaluation scientifique par son existence, mais par son intégration non maîtrisée. Les travaux de Frontiers et les enquêtes de Nature convergent vers un même constat : sans transparence, sans formation structurée et sans règles explicites, l’IA fragilise la confiance qu’elle prétend renforcer. À l’inverse, encadrée, déclarée et comprise, elle peut devenir un levier de rigueur et de soutenabilité pour un système éditorial déjà sous tension.
Dans ce sens, la question n’est plus technique. Elle est organisationnelle, culturelle et politique. Et elle concerne, bien au-delà du monde académique, tous les secteurs où l’IA s’invite dans des processus fondés historiquement sur le jugement humain.





















