Intelligence artificielle : des étudiants prennent les rênes du débat
En plein Sommet de Paris pour l’action sur l’IA, l’ENS-PSL a réuni environ 70 étudiants, issus de l’école et des autres établissements de l’Université PSL, pour former une assemblée citoyenne et formuler des propositions qui répondent aux enjeux de l’IA. Un événement en partenariat avec l’équipe d’Hélène Landemore, professeure de sciences politiques à l’Université de Yale, et l’agence de conseils Missions publiques. Campus Matin a assisté à une partie des échanges.

Une session de réflexion collective pour un développement soutenable de l’IA
Après avoir échangé avec des experts de l’intelligence artificielle d’institutions publiques et privées, mardi 11 février, l’assemblée citoyenne étudiante réunie par l’ENS-PSL s’est répartie en groupes de discussion. Au sein de chaque groupe de cinq ou six étudiants, un « facilitateur » étudiant de l’école encadre les échanges. L’objectif est de proposer des actions pour un développement soutenable de l’intelligence artificielle : d’une part au niveau national et d’autre part au sein l’établissement.
Dans un groupe de cinq personnes, en fin de concertation, une idée qui marquera les esprits émerge. Elle est proposée par Camille, un étudiant tout juste diplômé de master : créer un laboratoire de recherche dédié aux LLM. En effet, les large language models qui nourrissent les IA ne sont pas encore bien compris. « Il manque une science des LLM, pas pour les augmenter, mais pour les comprendre et les analyser », explique-t-il. Un autre étudiant de l’Université Paris Dauphine-PSL rebondit : « Ce projet pourrait permettre des collaborations avec des acteurs privés, qui ont de petites équipes et peu de personnes dédiées à la R&D, comme l’IA française Mistral. »
Ce projet sera retenu pour être présenté lors d’une conférence, plus tard dans la soirée. Mais avant cela, les idées de chaque groupe sont partagées. Parmi elles : former à l’IA et créer une plateforme de ressources et de prévention au niveau européen.
Avant de rejoindre l’amphithéâtre Jean Jaurès pour présenter ces propositions à une plus large audience, Leila partage son ressenti sur l’initiative d’assemblée citoyenne étudiante : « Nous n’avons pas eu beaucoup d’informations en amont sur le déroulé de cette journée, mais le thème m’intéressait, notamment parce que l’IA est omniprésente dans mon alternance. J’ai aimé échanger avec un expert IA de Doctolib et d’une institution publique. Si je devais porter une demande en particulier, ce serait que la formation au numérique, et pas seulement à l’IA, soit repensée. »
Un large panel de propositions
Plusieurs propositions sur les enjeux globaux de l’IA ont été rapportées par les étudiants :
- Intégrer les limites planétaires dans l’utilisation de l’IA en réduisant les usages. Sensibiliser via des campagnes et renforcer l’éducation. Une COP sur l’IA pourrait établir un cadre réglementaire.
- Introduire plus de démocratie participative dans la gouvernance de l’IA, via l’Office parlementaire d’évaluation des choix scientifiques et technologiques (Opecst) en incluant des citoyens aux côtés des sénateurs et députés.
- Proposer un « Livret IA » sur le modèle du livret A, permettant d’investir dans des entreprises d’IA avec une part limitée à 49 %.
- Explorer le concept des « IA bonds » (inspirés des « green bonds ») pour plus de clarté et de transparence sur les sources de financement derrière chaque projet.
- En entreprise, recommander ou rendre obligatoires deux heures de formation par an sur l’impact écologique et éthique de l’IA.
- Créer une IA souveraine au niveau européen.
« L’idée d’une IA souveraine européenne est excellente. Aujourd’hui les LLM sont majoritairement entraînés en anglais, puis traduits. Une IA européenne permettrait de préserver la diversité culturelle qui se reflète dans les langues locales », a réagi Tania Perelmutter, co-fondatrice de la Fondation Abeona.
Répondre aux enjeux pour l’enseignement supérieur et la recherche
Si certaines idées sont pensées pour le débat public, d’autres concernent directement l’ENS-PSL. Tristan constate une zone de flou : « Il y a un vrai manque de clarté sur l’usage de l’IA à l’université. Est-ce qu’on l’utilise trop ou pas assez ? Est-ce considéré comme de la triche ? Un consensus est nécessaire entre élèves et enseignants : les recruteurs attendent que les étudiants utilisent l’IA, mais les enseignants sont parfois plus réticents. »
De son côté, Léo propose d’utiliser une IA locale propre à l’ENS-PSL, à partir des ressources académiques déposées par les enseignants. Il détaille : « Ce serait une IA interne qui pourrait synthétiser les cours et répondre aux questions des étudiants. Ainsi, les enseignants n’auront pas à se soucier de se faire voler leurs cours. »
Mathias Girel, maître de conférences en philosophie à l’ENS-PSL, met cependant en garde : « Une IA basée sur les documents de PSL pose des questions intellectuelles et politiques : que doit-on y inclure ? Où fixer les limites ? »
Autre idée : former une assemblée citoyenne étudiante et de faire sondage des étudiants sur les usages de l’IA pour promouvoir une utilisation responsable et transparente.
Développer une IA : un travail accessible aux étudiants
Mark Graeves, directeur exécutif de l’entreprise philanthropique Schmidt Futures, analyse : « Nous ne savons pas encore assez de choses sur l’IA pour les rendre robustes et fiables. L’IA évolue tout le temps, et nous ne savons pas toujours comment différencier le vrai du faux. Au début, on pensait que les universités ne pourraient pas vraiment contribuer au développement de l’IA, mais en un an, cela a changé : désormais, construire une IA n’est pas si difficile, c’est à la portée des étudiants.
Dans de nombreux domaines, les propositions des étudiants concernent l’IA et la culture, en d’autres termes l’IA et ce qui fait de nous des humains. La France excelle dans ces réflexions. Schmidt Futures finance des projets sur l’IA et l’art, notamment au Louvre et autour de Delacroix, pour mieux comprendre ces liens. Peut-être que les étudiants ici présents pourront trouver comment aborder la question de la sécurité et de l’alignement de l’IA.
Le monde va voir émerger plusieurs IA différentes. Mon conseil : utilisez l’IA. Expérimentez, entraînez-la, jouez avec elle. Ne voyez pas l’IA comme quelque chose qui vous est imposé, mais comme quelque chose que vous pouvez façonner et utiliser. »
Critiques
En réponse à ces questions, dans la salle une critique, partagée par une des étudiantes qui a participé à l’assemblée citoyenne étudiante, se fait entendre : « Hier encore, nous parlions des risques de l’IA, et aujourd’hui, nous cherchons surtout des solutions… qui impliquent son utilisation. »
Hélène Landemore, professeure à Yale et co-organisatrice de l’événement, reconnaît des limites : « Cet exercice n’était pas complètement démocratique, car nous l’avons créé, et en peu de temps. L’idéal aurait été que vous puissiez prendre en main la réflexion avec vos propres questions. Mais ce travail est un début. »
Elle ajoute : « Au niveau politique, l’IA est un fait accompli, tout comme l’a été la mondialisation. Si nous voulons préserver des espaces sans IA, il va falloir réfléchir à comment le faire de manière collective et démocratique. »
Autre point d’attention apporté par Emmanuel Dupoux, chercheur du laboratoire de sciences cognitives d’ENS-PSL : « L’IA est un outil puissant pour la recherche scientifique, mais il y a un risque de privilégier des sujets parce que l’IA peut les traiter, et non parce qu’ils sont les plus importants. »
Une démarche à généraliser, pour le rapporteur de la mission IA du ministère de l’ESR
François Taddéi, qui dirige la mission sur l’intelligence artificielle dans les pratiques pédagogiques lancée par le précédent ministre de l’ESR Patrick Hetzel, a exprimé son envie de répliquer l’initiative d’assemblée citoyenne étudiante.
« Nous avons besoin de ce genre d’initiatives, c’est quelque chose à répliquer que ce soit sur l’IA ou d’autres sujets comme la fin de vie ou le climat. Dans un monde qui change toujours plus vite, il faut réinventer nos modèles de dialogue démocratique. Ces processus, non seulement sur l’IA, mais aussi augmentés par l’IA, pourraient permettre de restaurer un dialogue et une confiance entre les citoyens et les institutions. »
Sur les critiques et craintes exprimées dans la salle, il indique : « Si on s’intéresse aux questions philosophiques que pose l’IA, on en vient forcément à s’interroger sur notre propre éthique. La peur de l’IA est souvent une peur de nous-mêmes : comment une intelligence supérieure traite-t-elle une intelligence inférieure ? Dans l’histoire de l’humanité, cela ne s’est pas toujours bien passé. Cette peur de créer une intelligence supérieure reflète nos propres inquiétudes. Si nous apprenons à vivre en symbiose avec ces différentes formes d’intelligence, nous pourrons être plus sereins face à leur développement. »
Quelles suites ?
L’assemblée citoyenne permettra de nourrir la coalition pour une gouvernance inclusive de l’IA menée par l’Université de Stanford et le cabinet de conseil Missions publiques.
Antoine Vergne, directeur des partenariats stratégiques de Missions publiques, annonce que ces réflexions irrigueront le questionnaire qui sera partagé en amont de la coalition. « Nous sommes au début du processus. Nous allons travailler avec nos partenaires pour affiner les questions à poser aux citoyens. »
L’ENS-PSL, qui a annoncé le lancement d’un Observatoire mondial sur l’impact environnemental de l’intelligence artificielle le 2 février dernier, s’engage à regarder ces propositions de près. Virginie Bonnaillie-Noël, directrice adjointe sciences de l’ENS-PSL, évoque un point d’étape avant l’été.
« L’université pourrait jouer un rôle clé dans la formation et la recherche sur l’IA, mais aussi dans la mise en garde sur ses risques. Nous devons réfléchir à la façon de financer d’autres recherches grâce aux bénéfices générés par l’IA », ajoute-t-elle.
Elle poursuit : « Nous constatons que le sujet de l’IA devient moins tabou, mais que chacun agit encore trop souvent dans son coin. Il faudrait établir une charte avec des mises en garde claires et communes. La charte de l’Université d’Orléans pourrait être une base de réflexion. Des formations communes sur l’IA doivent être mises en place afin d’assurer une approche cohérente et partagée entre les établissements. »
Mathias Girel annonce en outre : « Paris school of AI et PSL veulent se doter d’une spécialisation IA et d’un outil IA propre. Le budget est un défi, mais cela renforcerait la visibilité de l’école. »