IA générative : comment bien utiliser ce « super assistant » du chercheur ?
Depuis le lancement de ChatGPT, fin novembre 2022, les usages de l’intelligence artificielle générative connaissent une accélération sans précédent. Si l’intérêt de la communauté scientifique est bien plus ancien, cet essor appelle aujourd’hui la définition d’un cadre d’utilisation responsable et éthique. Un enjeu majeur, au cœur des échanges des experts mobilisés par News Tank et Elsevier lors de ce webinaire de Think Education et Recherche 2024.
Cycle : Campus Matin
« Malgré l’explosion des usages de l’IA générative, on ne fait qu’entrevoir son potentiel pour la recherche. » Avec ces quelques mots d’introduction au webinaire, Anne-Catherine Rota, responsable des affaires institutionnelles d’Elsevier, a posé l’essentiel de la problématique.
« Il est indispensable de savoir de quoi on parle, de connaître et de comprendre les usages pertinents », complète Frédéric Pascal, professeur à CentraleSupélec et directeur de l’Institut Dataia.
Pour Yamine Ait Ameur, responsable département numérique et mathématiques de l’Agence nationale de la recherche (ANR), « l’enjeu consiste à conserver de bonnes pratiques de recherche, en maintenant les principes d’intégrité ».
Une logique d’assistant du chercheur, sur des tâches déléguées
Aux yeux de ces experts, l’IA générative peut donc représenter un atout précieux, par exemple pour apporter de l’information ou encore soutenir la rédaction de projets, avec à la clé des gains de temps. À condition de délimiter précisément son champ d’action…
Prenant l’exemple des LLM (large language models, comme ChatGPT), Anne-Catherine Rota estime que « leur valeur ajoutée tient moins à leur capacité à trouver l’information qu’au fait de reformuler l’information de manière à la contextualiser et à en comprendre le sens » ; soit l’occasion de connecter des champs disciplinaires à première vue éloignés, de suggérer de nouvelles pistes de travail, etc.
Dans une logique d’assistant du chercheur, l’IA générative permet aussi de challenger ses hypothèses ou de reproduire les expériences plus facilement.
Pour Frédéric Pascal, « la ligne de crête est celle de l’intégrité de la recherche. Des tâches administratives peuvent être déléguées, ainsi que l’écriture ou la reformulation de parties d’article scientifique — permettant ainsi de gommer des différences entre chercheurs, par exemple en termes de maîtrise de l’anglais. Mais le cœur de l’article, son contenu, ne pourra pas être généré par l’IA. »
Vers une complémentarité entre l’appui de l’IA et le contrôle du chercheur
Si les usages se développent et se diversifient, quels points de vigilance doivent être pris en compte ?
Yamine Ait Ameur insiste sur l’importance d’une forme de contrôle et de validation par l’individu. « L’un des principaux risques consiste à propager des données non vérifiées, ce qui va contribuer à augmenter les biais et erreurs — sachant que ces données seront réutilisées par la suite ».
Il est donc crucial de mettre l’individu au cœur de la décision. Pour le représentant de l’ANR, d’autres risques existent en matière d’égalité, d’inclusivité et de discrimination, mais aussi de transparence : quelles parties de l’article ont été générées par l’IA ? Quel cheminement a été mis en œuvre dans la rédaction ? Comment respecter les principes de propriété intellectuelle ?
« Nous devons développer des mécanismes de résilience, aussi bien technologiques que culturels et juridiques. »
Les cas d’usage de l’IA générative
Aide à la rédaction, mais aussi revue de la littérature, fusion de résultats à partir d’informations de nature différente, automatisation d’expériences, génération d’hypothèses… Les cas d’usage se multiplient, portés par les travaux des chercheurs spécialisés en IA, et appelant un cadre d’utilisation responsable.
Prenant l’exemple de la réalisation de bibliographie, Frédéric Pascal recommande une démarche complémentaire : « D’un côté, le renforcement autonome de connaissances, par la lecture d’articles scientifiques ; de l’autre, l’appui sur un outil qui aide à gagner du temps, par exemple pour établir une revue de la littérature sur un domaine scientifique secondaire pour le chercheur. »
C’est dans cette direction que la solution Scopus AI propose systématiquement l’accès immédiat aux sources utilisées pour élaborer le résultat proposé, soit les références des publications scientifiques, que ce soit pour découvrir un nouveau domaine ou faciliter l’interdisciplinarité.
Les cinq principes d’Elsevier pour une IA responsable
Loin de remettre en question l’intérêt de l’IA générative, les experts rassemblés pour ce webinaire militent pour un cadre d’utilisation prompt à en tirer tout le potentiel. Elsevier respecte a ainsi les cinq principes du groupe RELX pour une IA responsable :
- prendre en considération l’impact des solutions sur l’homme ;
- prévenir la création ou le renforcement de biais et d’iniquités ;
- développer l’explicabilité des fonctionnalités des solutions ;
- être redevable des résultats via la surveillance humaine ;
- et protéger la confidentialité des données, par une gestion solide et robuste
Une liste à laquelle Yamine Ait Ameur ajoute un sixième élément : la notion de frugalité et d’objectifs de développement durable.
Réguler les usages, pas la technologie
In fine, l’enjeu de maîtrise de l’IA peut-il devenir un enjeu de compétitivité pour la communauté scientifique ? Oui, estime Anne-Catherine Rota, à condition de « trouver un équilibre entre favoriser l’innovation et limiter les mauvais usages », en tâchant de contextualiser les utilisations, de responsabiliser les acteurs et de faire preuve d’esprit critique pour utiliser l’IA de manière pertinente.
Pour Yamine Ait Ameur, la régulation doit avant tout rester celle des usages (et non de la technologie en elle-même), en appliquant des principes de responsabilité, d’éthique et d’intégrité, via la sensibilisation et la formation.
La formation des chercheurs est également mise en avant par Frédéric Pascal, qui identifie un autre cercle vertueux à favoriser : l’apport de cas d’usage par des professionnels d’entreprise, qui viennent se former après d’académiques experts de l’IA.
« Ces derniers bénéficient ainsi d’une montée en compétences, dont ils peuvent se nourrir pour orienter les développements d’algorithmes ».
Ils peuvent ainsi identifier de nouveaux usages, à la fois éthiques et responsables.