Évaluation des compétences dans l’ESR : comment l’IA redéfinit les règles du jeu
Gain de temps, précision et objectivité inégalées : l’intelligence artificielle révolutionne l’évaluation des compétences. Comment en saisir au mieux les opportunités pour les acteurs du supérieur ? Tel était le sujet du webinaire organisé par Campus Matin le 26 mars avec son partenaire Isograd.
Cycle : Campus Matin
Un an et demi à peine depuis l’arrivée de l’intelligence artificielle (IA) générative, l’enseignement supérieur s’en est massivement emparé. Partout, la question est aujourd’hui de savoir comment utiliser cet outil d’une puissance inédite, en particulier à des fins d’évaluation des étudiants.
Une révolution éducative en expérimentation
« L’arrivée de l’IA générative a été un bouleversement, mais dont notre écosystème s’est emparé très rapidement et avec enthousiasme, témoigne Laurent Barbin, ingénieur pédagogique à l’École supérieure des sciences commerciales d’Angers (Essca). Il y a une multitude de choses à inventer, que nous sommes en train d’expérimenter avec nos étudiants. »
Une dynamique également de mise dans les universités. « Nous sommes dans une phase géante d’expérimentation, étudiants comme enseignants », confirme Eve-Marie Rollinat-Levasseur, maitresse de conférences à Sorbonne Nouvelle et ancienne secrétaire de l’association des vice-présidents numériques dans l’enseignement supérieur (VP-Num).
Un outil qui remet à plat l’évaluation
L’évaluation par l’IA s’appuie sur des solutions développées par des fournisseurs spécialisés, comme Isograd. « L’enseignant ne peut pas s’appuyer sur une simple chatbox : l’évaluation nécessite de mettre à sa disposition une plateforme dédiée et ergonomique », pointe Marc Alperovitch, CEO et fondateur d’Isograd.
Des performances inédites
« L’IA permet de déterminer en un temps record, à partir d’un panel de questions, les compétences d’une personne, en allant au-delà du simple score », détaille Marc Alperovitch.
Elle dispense aussi des recommandations individualisées de formations complémentaires. « L’IA peut « augmenter » le correcteur, en allant chercher des concepts clés dans une copie, voire même pointer le biais de l’évaluateur», observe Laurent Barbin.
Des limites encore nombreuses
L’évaluation des questions ouvertes est encore problématique. « L’IA marche parfaitement pour les sujets très précis comme les langues. Mais elle pêche encore largement sur la notation de dissertation », détaille Marc Alperovitch.
La plus-value de l’IA est également encore à confirmer pour ce qui est de l’évaluation par compétences ou de celle des soft skills. Par ailleurs, l’outil présente des biais qui peuvent grever la qualité de l’évaluation.
La nécessité d’imaginer des solutions
Solution préconisée par Marc Alperovitch : utiliser plusieurs IA simultanément. « Certaines de nos fonctionnalités permettant de donner des réponses ouvertes devraient d’ici peu s’appuyer sur la multicorrection, avec en sus le regard d’un humain en cas de divergence », précise-t-il.
Limiter la « triche »
Selon Marc Alperovitch, il n’y a que deux méthodes pour garantir un rendu « zéro IA » : soit la surveillance, soit la dissuasion, en prévenant les étudiants que l’examen comportera un point auquel l’IA ne saura pas répondre.
Toutefois, l’IA ne fait pas tout : « Un travail pauvre reste un travail pauvre », note Eve-Marie Rollinat-Levasseur.
Apprécier l’enjeu pour mettre ou non l’IA ou non aux manettes
« Pour de simples quizz de validation de cours, cela vaut le coup de miser sur l’IA, gain de temps appréciable à l’appui. En revanche, sur des examens à enjeu, il peut être hasardeux de laisser à une IA la latitude de décerner une note couperet de la réussite ou de l’échec de l’étudiant », relève Marc Alperovitch.
Plusieurs pistes de vigilance
Ils sont de trois ordres. Primo, la souveraineté : « Comment faire en sorte que cet usage n’instaure pas une nouvelle forme de norme imposée par des modèles américains ? », interroge Eve-Marie Rollinat-Levasseur.
Secundo, la sécurité. « Seule parade à la fuite des données : utiliser des modèles autohébergés », recommande Jérémy Pillevesse, responsable pédagogique à l’École de data et d’intelligence artificielle (Enesia).
Tertio, la sobriété. « Une requête ChatGPT coûte 60 fois plus d’énergie qu’une requête Google », pointe Laurent Barbin. Pour limiter cet impact environnemental, il faut bien choisir son moteur d’IA parmi les gammes multiples, plus ou moins performantes et consommatrices d’énergie, proposées par les fournisseurs.
Investissements conséquents à prévoir
Pour Eve-Marie Rollinat-Levasseur, « Il nous faut investir massivement, car c’est une vague qui arrive et il vaut mieux en être. »
Se former
« L’IA générative reste un monde très flou pour le commun des mortels, avec beaucoup de termes techniques, observe Jérémy Pillevesse. Il y a encore un gros travail à faire pour accompagner le changement. »
Garder un regard critique
Il faut garder en tête que l’IA rime avec risque de renforcement des inégalités (sociales, de genre…). Et rester conscient de ses limites techniques. « Même sur ChatGPT, l’une des IA les plus performantes, on relève toujours de nombreuses hallucinations », remarque Jérémy Pillevesse.
Eve-Marie Rollinat-Levasseur ajoute : « L’utilisation de l’IA nous oblige à être extrêmement agiles, à nous adapter en permanence : c’est à la fois stimulant et un peu inquiétant. »
Laisser l’humain au centre
« Aucun risque, pour le moment, que l’humain soit détrôné par l’IA », rassure Jérémy Pillevesse. Et pas seulement pour des raisons techniques. « L’aspect « relation humaine » reste essentiel dans la motivation des étudiants », déclare Eve-Marie Rollinat-Levasseur.
Conserver les fondamentaux
Il faut aussi continuer à apprendre aux étudiants à travailler sans l’IA. « Objectif : former des managers responsables, dotés d’un esprit critique », expose Laurent Barbin.