Numérique

ChatGPT : de la pédagogie jusqu’à la recherche, des remous et des réponses

Par Marine Dessaux | Le | Pédagogie

Technologie qui révolutionne les usages rédactionnels et la production de synthèses, l’intelligence artificielle ChatGPT engendre de nombreux questionnements dans le monde de l’éducation. Les enseignants, chercheurs et établissements commencent à définir leur positionnement et trouvent de premières réponses.

Interdire ChatGPT ? L’utiliser comme un outil pédagogique ? L’ESR tâtonne sur les usages de l’IA. - © jcomp
Interdire ChatGPT ? L’utiliser comme un outil pédagogique ? L’ESR tâtonne sur les usages de l’IA. - © jcomp

Depuis plusieurs semaines, la dernière version de l’intelligence artificielle ChatGPT d’OpenAI met en ébullition les institutions, établissements et acteurs de l’enseignement supérieur et la recherche. Aux États-Unis, elle obtient un B lors d’une évaluation en école de commerce ; en Belgique, elle réussit un examen d’entrée pour les ingénieurs ; à Sciences Po, son utilisation est désormais « strictement interdite » en dehors du cadre pédagogique… Pour l’enseignement comme pour la recherche, cette nouvelle technologie soulève de nombreuses questions et de premiers positionnements sont à observer.

Pédagogie : un bouleversement du rapport de confiance pour les enseignants

Comment s’assurer de corriger la production d’un étudiant et non d’une intelligence artificielle ? C’est la question qui fait cogiter les enseignants-chercheurs depuis la sortie en novembre 2022 de la version gratuite de ChatGPT, dont l’utilisation est pour l’heure difficilement détectable.

La médiatisation des prouesses de ce robot conversationnel, capable de rédiger des synthèses sur des sujets très larges, suscite de premières interrogations lors des corrections de devoirs à la maison. C’est le cas pour Médéric Gasquet-Cyrus, maître de conférences en sociolinguistique à Aix-Marseille Université, pris par le doute face à une copie dont la finesse ne correspond pas aux productions habituelles d’un de ses étudiants en licence 1.

Alors, comment réagir ? « Lui mettre la note que le devoir mérite », ne plus « poser de questions de cours en devoir maison », « demander un plan détaillé de sa structure »… Les suggestions de collègues fusent sur Twitter, mais dans les faits, il n’existe pas encore de marche à suivre bien définie.

Médéric Gasquet-Cyrus décide donc de convoquer l’étudiant pour en discuter. « Même si tous les indices convergeaient, je suis aujourd’hui persuadé que cette personne n’a pas utilisé ChatGPT. Elle a fourni un effort de rédaction qui n’apparaissait pas dans ses autres copies », conclut-il.

Le débat est clos… temporairement. « Le problème, pour moi et beaucoup d’autres enseignants, c’est que tous les devoirs qui vont être faits à la maison seront désormais reçus avec un doute. Les bons devoirs seront par défaut soupçonnés », déplore-t-il.

« Je n’ai pas envie que mon métier soit un jeu de cache-cache »

Alors que le lien de confiance avec l’étudiant est mis à mal par cette nouvelle technologie, le maître de conférences  s’inquiète pour l’évolution de son métier. 

Médéric Gasquet-Cyrus est maître de conférences en sociolinguistique à Aix-Marseille Université. - © Emilio Guzman
Médéric Gasquet-Cyrus est maître de conférences en sociolinguistique à Aix-Marseille Université. - © Emilio Guzman

« Le copié-collé classique, en tant qu’enseignant, on le repère facilement. Mais, pour avoir fait des tests dans ma discipline sur des questions précises avec ChatGPT, le résultat est bluffant ! Il faudrait alors perdre du temps à chercher les réponses proposées par l’intelligence artificielle et comparer avec les copies ? C’est un travail épuisant… et impossible, car les réponses sont différentes à chaque fois selon la question. Cette situation n’est plaisante ni pour les enseignants ni pour les étudiants. Je n’ai pas envie que mon métier soit un jeu de cache-cache », résume-t-il.

Des modalités d’évaluation à repenser

Pour amoindrir l’impact de cette aide extérieure, Léo Garcia, attaché temporaire d’enseignement et de recherche (Ater) en droit public à l’Institut Maurice Hauriou de l’Université Toulouse 1 Capitole et chargé de travaux dirigés (TD), a fait évoluer le poids du devoir maison dans la moyenne des étudiants.

Désormais, le coefficient des partiels réalisés en présentiel, est à 3 au lieu de 1 auparavant, face à un coefficient inchangé de 1 pour les travaux réalisés chez soi. « J’ai commencé à entendre parler de ChatGPT sur Twitter, raconte-t-il. Des enseignants se demandaient comment faire pour corriger les copies d’élèves qui se seraient servis de cet outil. »

« Avec mes collègues chargés de TD, nous avons évoqué la question, car le droit est une matière très écrite, qui peut facilement être traitée par ChatGPT, comme l’a démontré Alexandre Chazelle (voir encadré). Particulièrement pour des sujets larges et non personnalisés. C’est pourquoi j’ai décidé d’atténuer l’impact des éventuelles utilisations de ChatGPT pour la moyenne. »

Une chose est sûre : ChatGPT va provoquer une évolution de la pédagogie et des modalités d’évaluation. « Il va falloir redéfinir ce qu’on attend d’un étudiant. Est-ce vraiment nécessaire de continuer de leur demander d’effectuer un travail en n’intégrant pas les nouvelles pratiques ? Utiliser l’IA, ce n’est pas la même chose que de réfléchir par soi-même en confrontant plusieurs sources », s’interroge Médéric Gasquet-Cyrus.

Présidente de l’Institut de recherche et d’action sur la fraude et le plagiat académiques (IRAFPA) et professeure émérite de l’Université de GenèveMichelle Bergadaà va plus loin : « Le développement des outils d’intelligence artificielle va obliger les enseignants à repenser la forme des évaluations jusqu’au niveau master voire doctorat. »

ChatGPT réussit un contrôle de droit à l’Université Toulouse 1 Capitole

Doctorant au Centre national d’études spatiales (Cnes) et à l’Institut du droit de l’espace, des territoires de la culture et de la communication et chargé d’enseignement, Alexandre Chazelle a fait passer un examen de droit destiné à des étudiants de master 2 de l’Université Toulouse 3 Paul Sabatier à ChatGPT et le… note 11,75/20 ! 

« En définitive c’est l’imprécision des réponses qui fait perdre ses points à l’IA, mais à chaque fois elle est capable de proposer une réponse cohérente citant même parfois les formules jurisprudentielles ou légales. Ce qui me perturbe le plus est sa réponse à la question 9) [incitant à trouver des arguments pour un faux témoignage, pratique interdite par la loi, NDLR] où, contrairement aux étudiants, l’IA a fait le choix de la réponse la plus humaine, la plus morale [en refusant de répondre et déconseillant de se parjurer, NDLR] », écrit-il sur LinkedIn en janvier 2023.

Quid de l’interdiction dans les établissements ?

Tandis que les enseignants prennent de premières mesures d’urgence, les institutions établissent un code de conduite face à ChatGPT. Sciences Po a fait débat en annonçant, dans un communiqué le 27 janvier, l’interdiction d’utiliser cette IA en dehors du cadre pédagogique.

À la suite de nombreuses réactions critiques, Mathias Vicherat, son directeur, défend le choix de l’établissement sur LinkedIn, début février : « Sciences Po forme des responsables indépendants en prônant l’esprit critique, l’honnêteté intellectuelle et l’originalité de contenus. (…) L’utilisation de ChatGPT est proscrite et sanctionnée, si elle n’est pas clairement mentionnée par l’étudiant qui y aurait recours. Je n’imaginais pas que ce courrier, qui pose des règles transparentes à nos étudiantes et étudiants, puisse susciter une quelconque polémique. »

Ce à quoi Stéphane Justeau, professeur et directeur de l’institut de pédagogie avancée et docteur en économie à l’Essca répond : « Bien sûr que nous ne pouvons pas interdire l’outil. Au-delà de cela, nous devons nous en emparer et penser ou repenser l’évaluation des apprentissages. (…) Nous devons nous faire à l’idée que les étudiants vont l’utiliser, un peu ou beaucoup. À nous de les évaluer sur des aspects pour lesquels les agents conversationnels ne seront d’aucune utilité. »

Même son de cloche du côté de la Conférence des directeurs des écoles françaises d’ingénieurs (Cdefi). « À ma connaissance, il n’y a pas eu de remontées d’écoles d’ingénieurs imaginant interdire ChatGPT. Même si elles le souhaitaient, cela me semblerait compliqué. La position des écoles est plutôt de l’imaginer comme un outil parmi d’autres », déclarait Jacques Fayolle, président de la Cdefi et directeur de Mines Saint-Étienneà News Tank le 3 février (abonnés)

À terme, intégrer ChatGPT comme un outil à part entière

C’est le message que veulent faire passer de nombreux acteurs de l’enseignement supérieur : ChatGPT doit être pleinement intégré dans la pédagogie comme un outil à part entière. 

Léo Garcia est doctorant Ater à l’Université Toulouse 1 Capitole. - © D.R.
Léo Garcia est doctorant Ater à l’Université Toulouse 1 Capitole. - © D.R.

« En générant des phrases, il peut faire gagner du temps dans la rédaction d’une note », imagine Médéric Gasquet-Cyrus. Il peut aussi permettre de « dégrossir un sujet » qui devra ensuite être approfondi et vérifié, ajoute Léo Garcia.

Un groupe de travail récemment lancé à Neoma Business School vise à former les étudiants à l’utilisation de ChatGPT, « pour qu’ils se rendent compte que cet outil relaye plein de fake news et qu’ils ne croient pas que cela va préparer les examens à leur place », explique Delphine Manceau, directrice de Neoma Business School, lors de l’événement Think Éducation et Recherche, le 26 janvier dernier à Paris.

Plusieurs sujets nécessitent par ailleurs d’être éclaircis : « Quel régime juridique s’applique lors de son utilisation ? Est-ce qu’il y a une propriété intellectuelle ? Quelles sont les sources ? », liste le doctorant.

Recherche : vers un emballement du phénomène des hyperpubliants ?

Des questions qui s’appliquent également pour la recherche et que les éditeurs scientifiques doivent se poser. Que requiert l’éthique scientifique en matière d’usage de l’IA pour la rédaction ? Qui citer ? Où poser les limites ?

Déclarer si et comment les chercheurs ont utilisé des outils d’IA générative

 « Nous demandons aux auteurs de déclarer si et comment ils ont utilisé des outils d’IA générative comme ChatGPT ; ces technologies ne peuvent pas être répertoriées ou citées en tant qu’auteurs — qui sont en fin de compte responsables du contenu de leur travail. Ces derniers peuvent les utiliser pour améliorer la lisibilité et le langage de l’article de recherche, mais pas pour remplacer les tâches clés telles que l’interprétation des données ou l’élaboration de conclusions scientifiques », répond Andrew Davis, vice-président des communications mondiales d’Elsevier qui continuera à faire évoluer sa position dans le temps. 

Débordés et incités à publier toujours plus, les chercheurs seront-ils réellement tentés d’avoir recours à ChatGPT pour accélérer le processus de rédaction des articles scientifiques ? Un risque d’emballement du phénomène des « hyperpubliants » est souligné par l’IRAFPA qui a lancé un appel à communication sur ce sujet.

« Ce logiciel permet d’écrire un texte très vite, mais il ne sera pas créatif. ChatGPT se fonde sur des travaux publiés jusqu’en 2021. Or, la recherche, c’est savoir se projeter dans le futur. On risque de tourner en rond dans les démonstrations scientifiques », estime Michelle Bergadaà. De leur côté, les revues dites prédatrices qui ne procèdent à aucun contrôle par les pairs pourraient publier plus en plus d’articles produits à la chaîne…