Promue par des élites techno-béates, sans stratégie pédagogique préalable et sans preuve de son efficacité, l’intelligence artificielle s’impose dans la sphère éducative, tant du côté des élèves que des professeurs. Les risques sont pourtant nombreux : frein au développement cérébral, à l’acquisition des compétences, erreurs manifestes, triche généralisée…
L’arrivée de l’intelligence artificielle générative (IAG) s’inscrit dans un paysage éducatif marqué, d’une part, par la dépendance des élèves aux écrans ; d’autre part, par l’enthousiasme techno-béat des instances ministérielles. Tout débat sur l’intérêt pédagogique de ces systèmes semble apparemment inutile. Il nous apparaît pourtant qu’un peu d’esprit critique serait ici le bienvenu. L’actuelle cacophonie d’annonces en tous genres, promettant l’avènement d’un grand soir pédagogique, devrait nous imposer de revenir aux faits. Que disent les études sur les effets cognitifs de l’apprentissage assisté par l’IAG ? Quels usages les jeunes générations en font-elles ? Et, finalement, ces usages ne constituent-ils pas davantage une menace qu’une promesse pour une institution scolaire déjà fragilisée ?
« Les mêmes enthousiasmes débridés s’exprimaient il y a quinze ans à propos du numérique “classique”. »
Poser ces questions semble d’autant plus important que les discours laudateurs actuels ne sont en rien nouveaux. Les mêmes enthousiasmes débridés s’exprimaient il y a quinze ans à propos du numérique « classique ». Le moins que l’on puisse dire, c’est que les résultats n’ont pas été à la hauteur des espérances. Des milliards d’euros ont été dilapidés en vain, sans réflexion pédagogique ni études d’efficience préalables. Les pays qui ont le plus dépensé en la matière, nous disent les études Pisa, sont ceux qui ont vu leurs élèves afficher les évolutions les plus décevantes. Même l’Éducation nationale, citée dans un récent rapport de la Cour des comptes évoquant « un système éducatif en échec », a fini par concéder que « les études réalisées jusqu’à présent n’ont pas établi de manière tranchée la plus-value des technologies de l’information et de la communication s’agissant des pratiques d’enseignement et des apprentissages ». Qu’en termes élégants ces choses-là sont dites !
À lire aussi : La pédagogie de la vérité contre l’autorité des machines
Ne sommes-nous pas en train de reproduire, avec l’IAG, les errements passés du numérique ? Ne devrait-on pas s’inquiéter, comme l’a récemment montré une enquête de la cellule investigation de Radio France, de la proximité entre certains experts influents de l’Éducation nationale et les entreprises de l’EdTech (Educational Technology) ? Toute voix qui, non pas s’oppose, mais interroge les déploiements en cours est presque systématiquement accusée de réaction ou de technophobie par ceux-là mêmes qui, depuis des années, assurent la promotion d’un numérique récréatif largement stérile et nous vendent aujourd’hui la promesse d’une IAG omnipotente. Il faut, nous disent ces « experts », assurer un déploiement massif de l’IAG pour les élèves et les enseignants, à nouveau sans recul, sans preuves et sans projet pédagogique défini.
Un cerveau en jachère
Le cerveau est plastique, c’est-à-dire qu’il se développe et se construit en réponse aux pressions environnementales qu’il subit. Un fort niveau de sollicitation construit l’intelligence tandis qu’un défaut de stimulation réduit l’effort et l’apprentissage. Autrement dit : quand des activités cognitives fondamentales sont transférées à des acteurs externes, on observe une sous-stimulation cognitive qui, à terme, pénalise le développement cérébral. Dans ce contexte, l’utilisation de l’IAG ne se résume pas à une simple question morale ou culturelle. Elle constitue un réel problème éducatif, dans le sens où une majorité d’élèves lui demandent, non de les aider, mais d’effectuer le travail à leur place. Une récente étude de synthèse montre, sans surprise, que cette pratique affaiblit l’intelligence notamment dans les champs essentiels de l’esprit critique et du raisonnement analytique. En choisissant la facilité et l’immédiateté, le cerveau se prive de son terreau nourricier. Avec l’IAG, nos neurones ne travaillent plus : au pire, ils abdiquent et s’amoindrissent ; au mieux (lorsque l’expertise est suffisante), ils supervisent et s’étiolent.
« Les IAG répondent à un agenda commercial et se trouvent limitées par les biais idéologiques de leurs concepteurs. »
Ce second point est absolument crucial, car tout le monde semble considérer que les IAG sont fiables et objectives. Pourtant, ces dernières ne sont pas neutres. Elles répondent à un agenda commercial et se trouvent limitées par les biais idéologiques de leurs concepteurs. Il est peu probable, par exemple, que des IAG chinoises ou américaines aient le même point de vue sur la question des Ouïgours. En outre, la nature probabiliste de ces systèmes les rend profondément faillibles. Même sur des sujets simples, les erreurs, biais, inventions, contrevérités et « hallucinations » restent nombreux. Les dernières évaluations de la société OpenAI montrent que ChatGPT-5 fournit des réponses erronées à des questions factuelles faciles, entre une fois sur deux (GPT-5-main) et une fois sur quatre (GPT-5-thinking-mini). Un phénomène d’autant plus inquiétant que l’outil est doté d’un fort pouvoir de persuasion.
Cela signifie que ces systèmes peuvent sans doute nous faire gagner du temps, mais à condition que nous soyons suffisamment experts du sujet abordé pour pouvoir repérer et corriger les erreurs produites. En d’autres termes, la capacité à utiliser ces systèmes s’acquiert en grande partie en dehors de l’espace numérique. Les études Pisa montrent, par exemple, que l’aptitude à lire des textes complexes est le meilleur prédicteur de la maîtrise numérique des élèves. Il en va de même pour les enseignants : un professeur contractuel projeté dans une classe de terminale pourra sans doute gagner du temps si son cours porte sur un sujet qu’il connaît bien mais, si ce n’est pas le cas et qu’on l’incite, comme le proposait la ministre de l’Éducation nationale Élisabeth Borne, à s’appuyer sur une IAG, il aura toutes les chances de raconter n’importe quoi à ses élèves ou de perdre un temps considérable à vérifier les réponses données par l’outil. L’utilisation d’un bon vieux manuel linéaire constitue alors, n’en déplaise aux thuriféraires du numérique, un choix infiniment plus rationnel.
De manière intéressante, le projet de Mme Borne a été mis en œuvre dans d’autres pays, dont les États-Unis. La réussite est loin d’être frappante. Des étudiants et professeurs dénoncent déjà les piteuses performances des IAG pour préparer un cours ou corriger des copies. Comme le rapporte le New York Times, une étudiante de la Northeastern University (à Boston) est allée jusqu’à réclamer le remboursement de ses frais de scolarité après avoir constaté la piètre qualité de cours à l’évidence générés grâce à l’IAG… par un enseignant qui demandait à ses élèves de ne pas l’utiliser. Qu’adviendra-t-il lorsque les élèves apprendront que leurs professeurs ne font que régurgiter des cours réalisés par l’IAG ? Quand des erreurs grossières circuleront sur les réseaux sociaux ? À la suspicion généralisée des enseignants envers les élèves répondra en miroir celle des élèves envers leurs professeurs. Au fond, le problème est toujours le même : des investissements pharaoniques sont réalisés sans vision pédagogique établie ni évaluation d’impact préalable au profit d’une EdTech omniprésente.
Des études mal ficelées
L’application de l’IAG au domaine éducatif est évidemment récente, mais les études sur le sujet sont pourtant déjà nombreuses. Malheureusement, ce n’est pas bon signe. Précipitation et rigueur scientifique font rarement bon ménage, comme l’a montré un article de synthèse récemment publié dans le Journal of Computer Assisted Learning. Après avoir disséqué les 62 études incluses dans une méta-analyse ayant permis de conclure que ChatGPT améliorait la performance académique, les auteurs constatent : « Des traitements vaguement définis, des groupes de contrôle inadéquats ou opaques, ainsi que des indicateurs de résultats dont le lien avec l’apprentissage durable reste flou obscurcissent les affirmations causales de cette littérature émergente. Les progrès observés ne peuvent, à ce stade, être attribués avec certitude à ChatGPT. Selon nous, des avancées nécessiteront des protocoles rigoureux, une transparence dans la communication des résultats et une posture critique face à la “science expéditive”. »
En réalité, la plupart des études mises en avant sous le sigle « apprentissage » mesurent des paramètres indirects sans lien avec ledit apprentissage. On estimera, par exemple, que l’usage de ChatGPT favorise le sentiment d’autonomie des élèves lors de cours virtuels ou que des apprentis traducteurs rendent de meilleures copies lorsqu’ils peuvent s’appuyer sur une IAG. Même dans les cas impliquant un réel apprentissage, on peut s’interroger sur la portée d’études montrant, notamment, que des étudiants améliorent leurs capacités rédactionnelles quand on leur demande de réécrire des textes générés par ChatGPT – il est probable que des textes produits par Balzac ou des journalistes du Monde auraient a minima le même effet. Ce genre de biais est tellement manifeste que des chercheurs ont demandé, fait éminemment rare, le retrait d’une récente méta-analyse particulièrement médiatisée, parue dans Humanities and Social Sciences Communications, qui avait conclu à un impact largement positif de ChatGPT sur l’apprentissage.
« Lorsque ChatGPT leur est retiré, les étudiants s’en sortent moins bien que leurs camarades ayant appris à l’ancienne. »
À ce stade, force est de constater que les travaux bien conduits se révèlent peu rassurants. Ils montrent, comme cette étude concernant l’expression écrite publiée par des chercheurs du MIT (Massachusetts Institute of Technology), ou cette autre sur les mathématiques réalisée par l’université de Pennsylvanie, que ChatGPT améliore la performance des étudiants mais détériore l’apprentissage à long terme. Lorsque ChatGPT leur est retiré, les étudiants s’en sortent moins bien que leurs camarades ayant appris à l’ancienne, sans le « tutorat » de l’IAG. Conclusion des chercheurs de l’université de Pennsylvanie : « Nos résultats constituent une mise en garde quant au déploiement de tuteurs fondés sur GPT [Generative Pre-trained Transformer, transformeur génératif pré-entraîné] dans les environnements éducatifs. Bien que les outils d’IAG comme ChatGPT puissent considérablement faciliter certaines tâches pour les humains, ils présentent le risque d’affaiblir notre capacité à acquérir efficacement certaines compétences nécessaires à la résolution de ces tâches. » Une tendance d’autant plus inquiétante, confirment les chercheurs, que, comme nous l’avons souligné plus haut, « ChatGPT est très peu fiable et fournit souvent des réponses incorrectes. Nos résultats suggèrent que les étudiants sont soit incapables de détecter ces erreurs, soit peu disposés à fournir l’effort nécessaire pour vérifier la justesse de l’information ».
Les inquiétudes grandissantes face à l’usage des IAG peuvent surprendre. Pourtant, dès avril 2020, un étudiant étasunien a fait parler de lui dans les médias en racontant qu’il avait utilisé GPT-2 pour faire ses devoirs. À l’été suivant, alors que la presse anglo-saxonne relatait les possibilités de triche offertes par ce système, GPT-3 signait une tribune fracassante dans The Guardian intitulée « Cet article a été entièrement rédigé par un robot. Tu as peur, humain ? ». À peu près au même moment, deux universitaires alertaient, dans The Conversation, sur les risques de plagiat au sein de l’enseignement supérieur. Incapable d’anticiper et encore moins de réagir, le monde académique est partagé entre la soumission, le renoncement et l’aveuglement. Là se concentre tout le hiatus entre ce que pourrait être un usage profitable des IAG et ce qu’est leur utilisation effective.
Brave New World
En 2025, au Royaume-Uni, 92 % des étudiants de premier cycle ont eu recours à l’IAG, contre 66 % en 2024. Pour les évaluations, 88 % l’utilisaient, dont 18 % inséraient le texte sans modification. Regardons quelques cas représentatifs pour donner corps à cette réalité. Parmi les témoignages d’étudiants, certains illustrent en effet remarquablement les tendances actuelles. Il y a peu, Alex confiait au New Yorker : « Pour n’importe quelle forme d’écrit dans la vie, j’utilise l’IAG. » À savoir : Claude, pour la recherche ; DeepSeek, pour le raisonnement ; Gemini, pour les images ; ChatGPT, pour le reste, et même pour ses échanges préparatoires avec la journaliste venue l’interroger ! Pour un devoir d’histoire de l’art, quelques photos envoyées à Claude lui avaient suffi pour obtenir un A-, mais notre étudiant admet que si des détails lui avaient été demandés, il aurait été « complètement foutu ». Comme pour nombre de ses camarades, les écrits qu’il produit en savent plus que lui-même. Ses partiels de fin d’année lui ont pris entre trente minutes et une heure au lieu des huit ou neuf heures normalement nécessaires. « Je n’ai rien retenu », admet-il, alors qu’il a obtenu un A- et un B+. Pas sûr que son humanité en sorte grandie…
May, étudiante à l’université de Georgetown (Washington), a d’abord résisté à ChatGPT, raconte encore le New Yorker, non par éthique mais par confiance en ses capacités : « Le temps gagné n’en valait pas la peine. » Peu à peu, cependant, la tentation s’est renforcée : de la relecture à la rédaction administrative, ChatGPT s’est imposé dans presque tous ses cours. Dans une tentative de jugement rétrospectif, elle estime que ses capacités de rédaction n’ont pas souffert mais qu’elle est devenue moins patiente, elle qui passait jadis des heures à peaufiner chaque mot. Son investissement se concentre aujourd’hui sur les seuls cours qui la passionnent, mais jusqu’à quand ?
Plus proche de nous, comme l’explique une enquête de BFMTV, une enseignante parisienne a tendu un piège à ses lycéens. Au programme, une série documentaire d’Arte portant sur les auteurs romantiques. Parmi les items abordés, une question dont la réponse ne se trouvait pas dans le documentaire. Résultat : un seul élève avait visionné les épisodes. Les 34 autres avaient utilisé ChatGPT pour répondre aux questions à leur place. Brave New World.
« Des élèves utilisent même ChatGPT pour formuler les questions qu’ils posent à l’oral en classe. »
Deux anecdotes personnelles de l’un des auteurs du présent texte sont frappantes. Une étudiante en master devait réaliser une fiche de lecture sur l’ouvrage l’Homme diminué par l’IA, de Marius Bertolucci. Le document remis trahissait clairement l’usage de ChatGPT et contenait nombre d’erreurs flagrantes (date de publication, éditeur, etc.). L’étudiante n’y a vu aucun problème. Tricher est devenu la norme. Autre cas : un étudiant sérieux, qui souhaitait travailler sur l’IAG à l’université pour son mémoire de licence, a rendu un texte truffé de références inventées. En guise de « sanction », il a été invité à commenter un article traitant de ce sujet. Il a une nouvelle fois eu recours à ChatGPT et a encore mentionné des citations inventées. L’erreur est humaine, dit l’adage, mais persévérer est diabolique.
Côté enseignants, écoutons le témoignage de Megan Fritts, professeure de philosophie à l’université de l’Arkansas. Après avoir demandé aux étudiants de se présenter, elle leur a proposé d’exposer leurs attentes quant à son cours d’éthique des technologies. Résultat : une majorité de textes générés par ChatGPT, un système que ses élèves utilisent même pour formuler les questions qu’ils posent à l’oral en classe. Fritts l’écrit sans ambages : « Les défenseurs de l’usage des LLM (large language models) dans les salles de classe devraient être gênés. Les élèves n’utilisent pas seulement ces systèmes comme “outils de résolution de problèmes” ou autres balivernes, ils les utilisent pour oublier comment parler. » Plus inquiétant encore, les étudiants n’ont pas compris son refus de l’IAG, tant cette dernière est déjà perçue comme banale et naturelle.
Des sphères de vacuité
L’IAG est si efficiente, nous expliquent ses adulateurs, qu’elle finira forcément par remplacer l’enseignant. Fini l’humain, vive la machine ! Le rapport de la commission de l’intelligence artificielle remis en mars 2024 au Premier ministre Gabriel Attal est de ce point de vue assez saisissant. Intitulé « IA : notre ambition pour la France », il indique, après avoir proposé de « dédiaboliser » [sic] l’IA, que cet outil « pourrait faciliter l’évolution d’un enseignant “sachant” (expert disciplinaire) vers un enseignant “accompagnant” l’élève, hors du paradigme historique de la transmission monodisciplinaire ». Les déclarations de la ministre de l’Éducation Élisabeth Borne sur l’assistance des enseignants par l’IAG soutiennent ce double mouvement de déqualification et de délégitimation des professeurs. Ce discours n’est pas nouveau. Il y a quinze ans, le député (UMP) Jean-Michel Fourgous prédisait déjà dans un rapport parlementaire que, grâce aux technologies numériques, les enseignants allaient devenir des « guides », des « médiateurs » ou autres « metteurs en scène du savoir ». Des personnels moins nombreux, moins bien formés, moins bien payés… À défaut d’aider les élèves, cela ravira le ministère des Finances.
« On ne perd pas seulement une méthode, on détruit un monde ; car de notre intelligence dépendent notre santé démocratique et notre prospérité économique. »
La mentalité technicienne, écrivait le philosophe Jacques Ellul, c’est de vouloir tout et tout de suite. La morale « ancienne » n’a plus qu’à suivre. Que dire lorsque les institutions éducatives plient face à un système de tricherie généralisé ? Quelle considération accorder aux diplômes académiques à l’heure où les IAG, plus que les élèves, sont évaluées ? En croyant s’équiper d’un simple outil, les écoles et les universités mettent en réalité en œuvre leur dilution dans ce que Günther Anders appelait la « mégamachine » et Jacques Ellul le « système technicien ». Face à ces évolutions, il est à craindre que les structures d’enseignement cessent d’être un lieu d’élévation des esprits pour devenir des sphères de vacuité. La perte d’autonomie vis-à-vis des acteurs privés de l’EdTech est aussi fondamentale que dangereuse, tant pour les personnes et les institutions que pour les communautés nationales. On ne perd pas seulement une méthode, on détruit un monde ; car de notre intelligence dépendent notre santé démocratique et notre prospérité économique. N’ayons pas l’audace d’oublier, comme le martelait Danton, qu’« après le pain, l’éducation est le premier besoin d’un peuple ».






