[Entretien] « Être conscients des biais et des erreurs de l’IA, tout en l’utilisant »
Par Nicolas Chalon | Le | Pédagogie
Interdire les IA génératives semble voué à l’échec ; les utiliser suppose de savoir s’y prendre… Membre du centre Inria de Saclay au sein de l’équipe Soda — à l’intersection de l’apprentissage automatique, des bases de données et des sciences sociales quantitatives — Jill-Jênn Vie revient sur l’impact de ces outils sur un milieu : le monde enseignant, encore sonné par leurs stupéfiantes possibilités.
Chercheur à l’Institut national de recherche en sciences et technologies du numérique (Inria), Jill-Jênn Vie enseigne le deep learning à l’ENS-PSL et à l’ENS de Paris-Saclay, ainsi que la programmation compétitive à l’École polytechnique.
Celui qui a récemment rejoint le conseil scientifique du ministère de l’éducation nationale figure également parmi les experts à la Commission européenne en IA et données pour l’éducation et la formation.
Un an après la sortie de ChatGPT, quel bilan pour le monde éducatif ?
Jill-Jênn Vie : La réaction immédiate a été la crainte d’un danger très précis : la triche. Comment détecter les fraudes éventuelles, s’assurer que le travail des élèves n’était pas généré par une IA générative ? Tous les établissements se posent la même question, devant un outil aussi efficace et adopté en aussi peu de temps. On a cherché — et on cherchera encore — à trouver des parades, des détecteurs de contenus générés par de l’IA. Pour moi, ce n’est pas possible, tout cela est un leurre.
Une autre IA pourra se servir elle-même de ce détecteur pour améliorer ses prochaines générations, sans compter les effets délétères sur les personnes dont le travail serait identifié à tort comme généré par une IA… Passée cette crainte, une réflexion bien plus intéressante s’est engagée, au sujet des potentialités de ces outils pour l’enseignement.
Comment les professeurs peuvent-ils s’en emparer ?
Le premier bénéfice est le gain de temps que peut offrir un outil comme ChatGPT. Il est capable de générer des séries d’exercices, textes à trous, de corriger des écrits…
Pour les enseignants-chercheurs, cela peut supprimer une série de tâches fastidieuses, comme repérer des coquilles, organiser leur bibliographie dans un style ou dans un autre, s’assurer que des tournures de phrases sont naturelles, etc.
En tant que professeur d’informatique, j’ai donné à ChatGPT un code en lui demandant : « Pourrais-tu me donner un énoncé dont ce code est la solution ? » L’IA a reconnu le type de code dont il s’agissait, m’a produit un énoncé. Je lui en ai demandé un autre, qui soit plus sympa pour les étudiants, et ainsi de suite… Par itération, je peux obtenir une bonne idée de sujet, quitte à finaliser les détails moi-même par la suite.
Quels écueils faut-il éviter ?
Il faut s’habituer à l’usage d’un tel outil, ne pas hésiter à interagir beaucoup avec lui, pour comprendre ce qu’il peut nous apporter. Sans quoi certains enseignants peuvent être déçus et le laisser tomber en se disant qu’ils n’y trouvent pas d’intérêt.
D’autres peuvent être déconcertés, car, en tant qu’experts de leur discipline, ils voient que parfois, oui, l’IA dit des bêtises, et le fait en plus de manière très neutre.
Pourtant, la neutralité n’est pas son fort. Lors d’un workshop au Japon, un exemple m’avait intéressé. On demandait à une IA de dire si l’une des îles Kouriles, entre le Japon et la Russie, appartenait à l’un ou l’autre pays. Si on posait la question en japonais, l’île était japonaise ; si on s’exprimait en russe, elle était russe.
Seul l’anglais nous fournissait une réponse prudente du type « Beaucoup de Japonais revendiquent la possession de cette île, mais elle est actuellement sous contrôle russe, etc. ».
l’IA peut se révéler le meilleur allié de notre esprit critique
Selon la langue et la culture, l’IA ne s’est pas appuyée sur les mêmes textes et les mêmes ressources. Partant de ce fait, on peut considérer que c’est un problème ; mais on peut aussi en faire un cas pédagogique, en exposant aux étudiants l’ensemble des points de vue coexistant sur un sujet donné, qui plus est traduit instantanément dans leur langue.
Bien utilisée, l’IA peut se révéler le meilleur allié de notre esprit critique et de la compréhension de l’autre.
Quel est l’atout majeur pour les étudiants (à part tricher) ?
La grande promesse est de personnaliser les enseignements. Certains jeunes ont besoin qu’on leur explique une notion une fois, d’autres plusieurs, tous ne sont pas réceptifs aux mêmes mots… L’IA peut expliquer quelque chose sous d’autres formes, ou de la manière que vous préférez. C’est un réel atout.
La grande promesse est de personnaliser les enseignements
Quand vous apprenez une langue par exemple, vous progressez en pratiquant le plus possible. J’ai fait le test en italien, avec une IA. Elle m’aidait à progresser, en signalant mes fautes et même en m’encourageant, autant d’heures qu’il le fallait. C’est sûr, c’est mieux de parler à un humain, mais cela peut se révéler une bonne aide pour préparer un examen, par exemple.
De la même manière, j’aime bien dire qu’aujourd’hui, la page blanche n’existe plus. Vous faites une introduction, générez une première version, qui sera mauvaise, puis vous creusez tel ou tel point. Cela vous apporte au moins une trame, des idées à ne pas omettre, un point de vue. L’essentiel est de garder votre esprit critique en éveil, et de faire de cette version très neutre un travail qui a de la valeur. Comme le disait la romancière Jodi Picoult, « il est toujours plus facile d’éditer un mauvais brouillon qu’une page blanche. »
Quid du risque d’accoutumance ? Les étudiants de demain pourront-ils se passer des grands modèles de langage comme ChatGPT ?
Être conscients des biais et des erreurs de l’IA
C’est un vrai sujet. Les jeunes doivent être conscients des biais et des erreurs de l’IA, tout en l’utilisant beaucoup pour apprendre à s’en servir. C’est paradoxal, j’en conviens ! Selon les outils utilisés, les élèves auront aussi une problématique de protection de leurs données.
Heureusement, il existe désormais de grands modèles de langage téléchargeables développés en France, comme Mistral-7B. Un autre risque de l’IA est que les jeunes lui disent facilement plus de choses, se sentant moins jugés par elle que par un humain, en se laissant tenter par une forme d’anthropomorphisme…
Il faut parvenir à faire la distinction entre les informations utiles à notre tâche, et celles qui ne le sont pas et peuvent poser un problème de confidentialité. Car l’IA, elle, nous invitera toujours à donner plus de détails ; non par dessein, mais pour pouvoir apporter la meilleure réponse possible à notre requête.