Éducation. Un an d’IA à l’université, un an de chaos et de confusionhttps://www.courrierinternational.com/article/education-un-an-d-ia-a-l-universite-un-an-de-chaos-et-de-confusion
Éducation. Un an d’IA à l’université, un an de chaos et de confusion
Vu des campus, il est à peu près impossible de distinguer les usages légitimes de l’intelligence artificielle et ses utilisations frauduleuses. Le concepteur de jeux vidéo et universitaire Ian Bogost en fait le constat pour le magazine américain “The Atlantic” : plus personne ne sait ce qu’est la pédagogie à l’ère des IA génératives.
“Cent pour cent intelligence artificielle” (IA). Voilà la conclusion du logiciel concernant la copie d’un étudiant. Un enseignant du cursus que je dirige [en cinéma, médias et ingénierie à l’université Washington, à Saint-Louis] est tombé sur ce résultat et m’a demandé quoi faire. Un deuxième a fait remonter le même constat – 100 % IA – pour un autre devoir du même étudiant, et s’est demandé : “Qu’est-ce que ça veut dire ?” Je n’en savais rien. Je ne sais toujours pas.
La question en appelle quantité d’autres : peut-on être certain qu’un étudiant a eu recours à une IA ? Que signifie au juste “utiliser une IA” pour composer un texte ? À partir de quel niveau cela relève-t-il de la tricherie ? Sans compter que le logiciel qui avait incriminé l’étudiant n’est pas exempt d’interrogations de notre part : Canvas, notre plateforme pour l’enseignement, fonctionne avec Turnitin, un programme bien connu de détection du plagiat qui vient d’intégrer un nouvel algorithme d’identification de l’IA. Les accusations de tricherie émanent donc elles-mêmes d’un assemblage de boîtes noires de technologies pour l’éducation.
Voilà à quoi ressemble la fin de cette première année universitaire de l’ère ChatGPT : un maelstrom d’incriminations et de confusion. Ces dernières semaines, j’ai discuté avec des dizaines de professeurs et d’étudiants aujourd’hui confrontés à un déferlement de “tricheries à l’IA”. Leurs récits m’ont laissé pantois. Vu des campus, tout semble indiquer qu’il est à peu près impossible de différencier les usages légitimes de l’IA de ses utilisations frauduleuses, ou d’identifier les tricheurs.
L’aide aux devoirs dans les choux
Il fut un temps où les étudiants se passaient des copies de devoir ou d’examen. Puis, avec Internet, ils ont commencé à sous-traiter leurs exercices. Plusieurs services en ligne ont commercialisé ces prestations. Aujourd’hui, des élèves peuvent acheter des réponses auprès d’un site d’“aide aux devoirs” comme Chegg – une pratique qu’ils appellent “chegging”. L’arrivée à l’automne dernier des chatbots dopés à l’IA a ringardisé ces méthodes de tricherie. “Nous pensons que [ChatGPT] affecte notre taux de croissance”, a reconnu le PDG de Chegg au début de mai. L’entreprise a depuis perdu près de 1 milliard de dollars de sa valeur sur le marché.
Ce bouleversement pourrait toutefois être une aubaine pour d’autres sociétés. En 2018, Turnitin engrangeait déjà plus de 100 millions de dollars de recettes annuelles en aidant les professeurs à détecter la tricherie. Son logiciel, intégré à la plateforme sur laquelle les étudiants soumettent leurs devoirs, compare chaque copie avec une base de données (comprenant les devoirs d’autres étudiants déjà transmis à Turnitin) et signale les éventuels copieurs. Turnitin, qui revendique plus de 15 000 institutions et établissements utilisateurs dans le monde, a été racheté en 2019 pour 1,75 milliard de dollars [1,63 milliard d’euros]. Le mois dernier, il a intégré un module de détection d’IA à son logiciel. Les mesures pour contrer l’IA se mettent en place – avec le concours d’autres IA.
Alors que s’achève le premier semestre des chatbots, le nouveau logiciel de Turnitin signale un déluge de tricheries : cette copie a été “rédigée à 18 % par une IA”, celle-là est “100 % IA”. Mais que signifient réellement ces chiffres ? Aussi étrange – et même stupéfiant – que cela puisse paraître, on ne sait pas vraiment. Dans tous les cas de devoirs “100 % IA” qui m’ont été signalés, les étudiants affirment ne pas avoir laissé ChatGPT ou toute autre IA rédiger la totalité de leur travail.
98 % de certitude
Turnitin soutient pourtant que ce signalement signifie effectivement que 100 % du document – c’est-à-dire chacune des phrases qui le composent – a été généré par un programme informatique. Avec un degré de certitude de 98 %. Une porte-parole de l’entreprise reconnaît par e-mail que “les textes rédigés avec des programmes utilisant des algorithmes ou d’autres outils informatiques”, notamment des correcteurs de syntaxe et des traducteurs automatiques, peuvent être signalés à tort comme frauduleux. De même que certains écrits “authentiques” peuvent ressembler à s’y méprendre à des contenus générés par des IA. “Certaines personnes écrivent juste de manière très prévisible”, précise-t-elle. Le logiciel tient-il compte de toutes ces limites quand il annonce 98 % de certitude ?
Mais peut-être n’est-ce pas là le problème, car Turnitin décline toute responsabilité quant aux conclusions tirées de ses signalements. “Nous ne donnons qu’un chiffre censé aider l’enseignant à déterminer si une copie nécessite un examen plus approfondi ou une discussion avec l’élève”, précise la porte-parole.
“L’enseignement reste une activité fondamentalement humaine.”
L’entreprise propose donc un guide pour aider les humains à gérer le risque “minime” de faux positifs. Et, évidemment, elle recommande l’utilisation d’autres services de Turnitin.
Autrement dit, l’étudiant de mon cursus dont les copies ont été signalées “100 % IA” a utilisé un peu d’IA, beaucoup d’IA ou peut-être une dose intermédiaire. Mais pour ce qui est des questions sous-jacentes – de quelle manière l’étudiant a-t-il eu recours à l’IA ? et a-t-il eu tort de le faire ? – nous, enseignants, sommes comme toujours livrés à nous-mêmes.
Certains étudiants s’appuient probablement à 100 % sur une IA pour faire tout le travail sans avoir à fournir le moindre effort. Mais bon nombre utilisent ChatGPT ou autres outils du même tonneau pour générer des idées, recevoir une aide lorsqu’ils se sentent coincés, reformuler des paragraphes délicats ou corriger la syntaxe.
Aux examens, “tout sauf l’IA”
Où se situe la limite ? Matthew Boedy, professeur d’anglais à l’université de Géorgie du Nord, m’a parlé d’un étudiant tellement désinvesti qu’il lui arrivait d’assister aux cours en pyjama. Lorsque, au printemps, ce dernier lui a remis une dissertation particulièrement bien ficelée, Matthew Boedy a soupçonné qu’un chatbot était en jeu, ce que l’outil de vérification d’OpenAI [l’entreprise derrière ChatGPT] a confirmé. Interrogé, l’étudiant a admis qu’il ne savait pas par où commencer et avait donc demandé à ChatGPT de rédiger une introduction puis de lui recommander des sources. En l’absence d’une charte établie sur la tricherie à l’IA, Boedy a parlé du sujet de la dissertation avec l’étudiant et lui a attribué une note sur la base de cette conversation.
Un étudiant en sciences informatiques à l’université Washington de Saint-Louis, où j’enseigne, a observé une évolution quelque peu paradoxale des consignes d’examen : au début de la pandémie, les étudiants pouvaient avoir leurs livres et leurs notes pendant l’épreuve, aujourd’hui on peut utiliser “n’importe quoi, sauf l’IA”. (Je ne divulgue par les noms des étudiants de sorte qu’ils parlent en toute franchise de leurs usages de l’IA.) Cet étudiant, qui est également professeur assistant, sait parfaitement que les machines peuvent faire à peu près tous les devoirs et exercices techniques de son cursus, et même certains travaux conceptuels. Mais tirer parti de ces technologies lui paraît “moins immoral que de payer pour Chegg ou ce genre de service”, m’explique-t-il. Un étudiant qui utilise un chatbot effectue un minimum de travail – et se prépare au monde de demain.
L’IA est si tentante
Un autre étudiant, en sciences politiques à l’université Pomona [en Californie], m’explique qu’il utilise l’IA pour tester ses idées. Pour un devoir sur le colonialisme au Moyen-Orient, il a formulé une thèse et demandé à ChatGPT ce qu’il en pensait. “Il m’a dit que j’avais tort, alors j’ai commencé à débattre avec lui, et ChatGPT m’a donné des contre-arguments sérieux, que j’ai ensuite pris en compte dans mon travail.” Cet étudiant se sert également du bot pour trouver des sources. “Je considère ChatGPT à la fois comme un collaborateur et comme un interlocuteur intéressé”, résume-t-il.
Son usage de l’IA semble à la fois malin et parfaitement honnête. Sauf que s’il emprunte un peu trop de réponses à l’IA, Turnitin risque de signaler son travail comme frauduleux. Un enseignant n’a pas les moyens de savoir si ses étudiants ont fait un usage nuancé de la technologie ou si leurs devoirs sont une pure escroquerie. Pas de problème, me direz-vous, il suffit de développer une relation de confiance mutuelle et d’aborder le sujet ouvertement avec eux. Cela ressemble à une bonne idée, mais l’IA risque fort de faire apparaître des divergences d’intérêt entre enseignants et étudiants. “L’IA est dangereuse parce qu’elle est extrêmement tentante”, résume Dennis Jerz, professeur à l’université Seton Hill, à Greensburg, en Pennsylvanie. Pour les étudiants qui ne sont pas investis dans leurs études, les résultats n’ont même pas à être bons, il suffit qu’ils soient passables, et rapides à obtenir.
“L’IA facilite surtout la production de travail médiocre.”
Du côté des enseignants, on redoute déjà de voir les étudiants remettre en question l’intérêt même de faire des devoirs. De fait, leur travail n’en devient que plus difficile. “C’est tellement démoralisant, confirme un professeur d’anglais installé en Floride. En septembre dernier, j’adorais mon travail, en avril, j’ai décidé d’arrêter complètement.” Les devoirs qu’il proposait étaient tout ce qu’il y a de plus classique : dissertation, bibliographie, exposé, essai. De son point de vue, l’IA a ouvert une bataille entre étudiants et professeurs où l’absurde le dispute à l’inutile. “Avec des outils comme ChatGPT, les étudiants pensent qu’ils n’ont plus aucune raison de développer des compétences”, résume l’enseignant. Et tandis que certains de ses étudiants reconnaissent se servir de ChatGPT pour faire leurs devoirs – l’un d’eux a même admis s’en servir systématiquement –, lui se demande pourquoi il perd son temps à noter des textes rédigés par une machine que ses étudiants n’ont peut-être même pas pris la peine de lire. La sensation d’inutilité mine sa pédagogie.
“Je suis effondré. J’adore enseigner et j’ai toujours aimé être en classe, mais avec ChatGPT plus rien n’a de sens.”
Le sentiment de perte qu’il décrit est trop profond et existentiel pour être compensé par une quelconque forme d’intégrité académique. Il témoigne de la fin d’une relation particulière – certes déjà sur le déclin – entre élèves et professeurs. “L’IA a déjà tellement bouleversé notre manière d’être en classe que je ne m’y retrouve plus”, dit-il. À l’en croire, l’IA marque moins le début d’une ère nouvelle qu’elle n’est le coup de grâce porté à un métier déjà à genoux en raison des coupes budgétaires, des violences par arme à feu, de l’interventionnisme d’État, du déclin économique, de la course aux diplômes et tout le reste. Cette nouvelle technologie déferle sur un secteur gravement fragilisé et semble transformer l’école en un lieu absurde où l’enseignement n’est plus qu’un rouage dans une grande machine.
Retrouver l’humain
On répète à l’envi que l’IA va obliger les enseignants à s’adapter. Athena Aktipis, professeure en psychologie à l’université d’État de l’Arizona, y a effectivement vu l’occasion de restructurer son enseignement pour laisser la part belle au débat et aux projets définis par les étudiants eux-mêmes. “Les élèves me disent qu’ils se sentent plus humains dans ce cours que dans n’importe quel autre”, explique-t-elle.
Reste que pour de nombreux étudiants l’université n’est pas seulement le lieu où rédiger des travaux, et la possibilité de prendre parfois la tangente offre une autre manière de se sentir humain. L’étudiant au devoir “100 % IA” a reconnu avoir passé son texte au correcteur de syntaxe et demandé à ChatGPT d’améliorer certains passages. Il semblait avoir fait passer l’efficacité avant la qualité. “Parfois, j’ai envie d’aller faire du basket, parfois, j’ai envie de faire de la musculation”, répond-il alors que je lui demande de partager ses impressions sur l’IA pour cet article. Cela peut sembler choquant : on va à l’université pour apprendre, et cela implique de faire des devoirs ! Sauf qu’un mélange de facteurs de stress, de coûts et autres causes extérieures ont créé une vaste crise de la santé mentale sur les campus. Et pour cet étudiant, l’IA est un des rares moyens de réduire ce stress.
Cela vaut également pour les professeurs. Eux aussi peuvent être tentés d’utiliser les chatbots pour se simplifier la vie ou les dispenser de certaines tâches qui les détournent de leurs objectifs. Reste que la plupart s’inquiètent de voir leurs étudiants finir en dindons de la farce – et fulminent d’être pris entre deux feux. Selon Julian Hanna, enseignant en culture à l’université de Tilbourg, aux Pays-Bas, les étudiants qui utilisent l’IA de manière sophistiquée sont ceux qui en tireront le plus de bénéfices – mais ce sont aussi ceux qui avaient déjà le plus de chances de réussir, tandis que les autres risquent d’être encore plus désavantagés. “Je pense que les meilleurs élèves n’en ont pas besoin ou craignent d’être repérés – ou les deux.” Les autres risquent d’apprendre moins qu’avant. Autre facteur à prendre en considération : les étudiants dont l’anglais n’est pas la langue maternelle sont plus susceptibles d’utiliser des correcteurs de syntaxe ou de demander à ChatGPT de reformuler leurs textes. Le cas échéant, ils seront aussi surreprésentés parmi les tricheurs présumés.
Quoi qu’il en soit, la course aux armements ne fait que commencer. Les étudiants seront tentés d’abuser de ChatGPT, et les universités tenteront de les en empêcher. Les professeurs pourront accepter certains recours à l’IA et en interdire d’autres, mais leurs choix seront influencés par le logiciel qu’on leur donnera.
Les universités aussi peineront à s’adapter. La plupart des théories sur l’intégrité académique reposent sur la reconnaissance du travail des personnes, non des machines. Il va falloir mettre à jour le code d’honneur de la vieille école, et les examinateurs chargés d’enquêter sur les copies suspectes devront se pencher sur les mystères des “preuves” logicielles de détection des IA. Et puis, tout changera à nouveau. Le temps de mettre au point un nouveau mode de fonctionnement, la technologie, aussi bien que les pratiques, aura probablement évolué. Pour rappel : ChatGPT n’est là que depuis six mois.
Ian Bogost Lire l’article original "AI ‘Cheating’ Is More Bewildering Than Professors Imagined - The Atlantic"