Préserver l’intégrité de la science à l’heure de l’IA
Protéger l’intégrité scientifique face à l’intelligence artificielle. Tel était le thème de la seconde table ronde des rencontres « François Gèze » sur l’édition scientifique et l’intelligence artificielle, organisées par le Syndicat national de l’édition et la Fédération nationale de la presse d’information spécialisée, le 28 mars 2025 au Sénat. Les débats ont porté sur les risques de fraudes occasionnés par la pression à la publication et démultipliés par l’IA.

La problématique de l’intégrité scientifique des publications est sous-tendue par une réalité connue de longue date : les chercheurs sont évalués au travers de leur volume de recherches. D’où l’incitation à publier toujours plus, toujours plus vite. C’est ce que relève Valérie Beaudouin, directrice d’études à l’EHESS et codirectrice de la revue Réseaux.

Cette production exponentielle va de pair avec de nombreux raccourcis. « Ce peut être “saucissonner” les résultats de recherche, republier la même chose avec des noms différents, générer des données qui correspondent à ce qu’on veut démontrer, utiliser l’IA pour rédiger… », énumère Valérie Beaudoin.
Cet « embellissement » concerne, a minima, 50 % des chercheurs, selon Hervé Maisonneuve, docteur en médecine de l’Université de Lyon.
Une intégrité scientifique de plus en plus souvent mise à mal
Cette pression soutient aussi la multiplication des revues académiques. Résultat : les chercheurs sont de plus en plus sollicités pour évaluer les articles, à tel point que trouver des évaluateurs devient compliqué. Ce qui pousse à l’utilisation de l’IA pour l’évaluation des articles, en lieu et place de celle par les pairs. « Si on continue ainsi, on pourrait arriver dans un monde où la production scientifique, générée et évaluée par des machines, n’aurait plus aucune valeur (effondrement) », avance Valérie Beaudoin.

Cette dystopie n’est pas encore d’actualité. Mais d’ores et déjà, on assiste à la multiplication des sociétés de communication qui — désormais aidées de l’IA — écrivent, en un temps record, des articles scientifiques sur la base de données plus ou moins fantaisistes, et qui les proposent à des chercheurs moyennant rémunération.
« Ces paper mills (en français moulins à papiers) ne respectent aucun peer review et leurs publications n’ont pas valeur scientifique », dénonce Daniel Rodriguez, CEO France d’Elsevier Masson.
Quelques garde-fous, mais à l’efficacité limitée
Les premiers garde-fous sont les comités de rédaction dans les revues. « Ceux-ci permettent de choisir des évaluateurs de qualité, de s’assurer de l’efficience des évaluations et jouent le rôle de gardiens de l’intégrité scientifique », précise Valérie Beaudoin. Elle se dit également persuadée que « les dialogues entre évaluateurs et auteurs constituent des moments essentiels pour repérer les risques de dérapages. » Daniel Rodriguez note, lui : « Il existe aujourd’hui beaucoup de logiciels pour détecter les articles faits par l’IA. »

Mais ces protections demeurent limitées. « Je suis réservé sur la capacité des comités de rédaction à détecter la fraude », déclare Hervé Maisonneuve. En rappelant que 10 000 à 15 000 rétractations sont enregistrées par an, la plupart pour méconduite ou malversation.
Autres écueils, soulevés par Daniel Rodriguez : « Aujourd’hui, les fraudes sont tellement élaborées que lutter de manière efficace demande des ressources que seuls les grands éditeurs peuvent mettre en place. Par ailleurs, nous n’intervenons qu’en fin de cycle de recherche et n’avons aucune action possible sur ce qui se passe en amont. »
Des bonnes pratiques pour préserver l’intégrité scientifique
Pour traiter efficacement le problème et éviter d’arriver à des systèmes d’évaluation à deux vitesses, c’est tout l’écosystème de la recherche qui doit s’en saisir : universités, Conseil national des universités (CNU), sociétés savantes, auteurs, reviewers, éditeurs…
Elsevier a édicté cinq principes pour un usage responsable de l’IA.
- « Prendre en compte l’impact réel de nos solutions sur les personnes dans les processus de décision ;
- adapter les mesures pour empêcher la création de biais et de préjugés injustes ;
- garder le contrôle de la technologie ;
- obliger à rendre des comptes de l’usage de nos solutions par une supervision humaine ;
- respecter la vie privée et défendre une solide gouvernance dans la gestion de nos données », détaille Daniel Rodriguez.
Face à la complexité croissante des cas de fraude, l’éditeur a, par ailleurs, décidé de créer une task force dédiée à l’intégrité scientifique.

À l’Inserm, c’est un guide de bonnes pratiques de l’IA qui a été mis en place. « Il faut faire preuve de transparence et sortir de la naïveté, expose Hervé Chneiweiss, chercheur en médecine, président du comité d’éthique de l’Inserm. À partir du moment où vous utilisez des systèmes d’IA ouverts, vos données entrent dans l’éponge à données qu’est le système. Attention, donc, à la perte de confidentialité, notamment dans le secteur sensible de la santé, ainsi qu’aux hallucinations de la machine. Enfin, le chercheur est le seul garant en matière de vérification des données utilisées. »
Il rappelle aussi les préconisations du rapport Corvol de 2016 sur l’importance de former les personnes. « Sur ce point, l’IA peut être un très bon outil », pointe-t-il.
Perspectives incertaines
Et demain ? Pour Valérie Baudoin, « il faut revenir aux fondamentaux de l’évaluation. » Elle avoue toutefois n’être « pas très optimiste », cette concurrence effrénée étant amenée à se poursuivre.
Hervé Maisonneuve prédit : « Tout ce qui est fait en matière de recherche responsable est excellent, mais il va falloir 20 à 40 ans pour changer les mentalités. »