L’intelligence artificielle fragmente l’apprentissage et le temps qu’on y consacre. On peut accéder au savoir partout, tout le temps. Elle permet aussi d’individualiser l’enseignement. Mais, à outrance, cette personnalisation isolera les élèves dans des bulles algorithmiques, les privant de toute confrontation avec la différence. L’école saura-t-elle se refonder face à ce chaos ?
L’irruption de l’intelligence artificielle dans le domaine éducatif représente un bouleversement aussi majeur que l’invention de l’imprimerie au XVe siècle ou l’apparition d’Internet dans les années 1990. Mais contrairement à ces révolutions, qui ont démocratisé l’accès à l’information, l’IA modifie la nature même de l’apprentissage, du rapport au savoir et des processus cognitifs mobilisés par les élèves. Cette transformation redéfinit les modalités de formation, la transmission des savoirs et les pratiques pédagogiques. Mais surtout, elle affecte (au sens médical du terme) le développement des capacités cognitives des élèves, étudiants et autres « apprenants ».
« L’IA peut suivre simultanément des milliers d’apprenants, identifiant pour chacun ses lacunes spécifiques. »
L’un des apports majeurs de l’IA réside dans sa capacité à adapter l’enseignement au profil de chaque élève. Les systèmes d’apprentissage adaptatif, comme Khan Academy ou Duolingo, analysent en temps réel les performances, le rythme d’apprentissage et les difficultés rencontrées afin d’ajuster automatiquement la difficulté des exercices et proposer des parcours sur mesure, sans contraintes temporelles ou spatiales. Sans arrêts maladie ou mouvements sociaux. Sans risques d’altérité subie ou d’agressions possibles. Le meilleur des mondes éducatifs possibles dans une période chaotique et dangereuse, face à d’imprévisibles prédateurs issus du monde confessionnel comme de la sphère publique.
Apprentissage microdosé
Cette personnalisation était auparavant impossible à grande échelle. Un enseignant face à 30 élèves ne peut offrir qu’une différenciation limitée. L’IA, elle, peut suivre simultanément des milliers d’apprenants, identifiant pour chacun ses lacunes spécifiques, ses modes d’apprentissage préférentiels (visuel, auditif, kinesthésique) et son moment optimal de concentration. Cependant, cette individualisation comporte un revers majeur : poussée à l’extrême, elle isole l’élève dans une bulle algorithmique éducative, le privant de la confrontation à des perspectives différentes et de l’émulation collective qui caractérisent traditionnellement l’apprentissage en groupe.
À lire aussi : Avec l’IA, en route vers l’intelligence humaine dégénérative
Les chatbots éducatifs sont disponibles à toute heure, offrant une assistance immédiate pour résoudre un problème de mathématiques à minuit ou comprendre un concept complexe pendant les vacances. Les applications d’apprentissage mobile enrichies par l’IA transforment également les temps morts – comme les transports ou les files d’attente – en opportunités d’apprentissage microdosé. Cette fragmentation de l’apprentissage en micro-sessions peut favoriser la mémorisation par répétition espacée, mais pose la question de la construction d’une pensée structurée qui nécessite temps long et concentration soutenue.
Cette disponibilité permanente transforme l’événement éducatif ponctuel (limité aux heures de classe) en un processus continu et fluide, mais également isolé et dépendant des éléments inclus dans l’apprentissage de l’IA et des large language models (LLM). Certains, très pointus, et donc coûteux, évitent de nombreuses « hallucinations » (en langage IA, des informations incorrectes). Mais la plupart se construisent en fonction de la manière dont leur algorithme a été conçu, permettant la transmission de données erronées, d’interprétations tendancieuses et mettant en péril le concept même de vérité – en particulier scientifique, et plus encore historique.
Le choix de la facilité
Même si la vérité, en tant que concept fondateur du bien et du mal, est depuis toujours remise en question dans le domaine politique – et depuis longtemps par les médias –, la crise du Covid a permis, avec la complicité de nombreux collègues présents sur les chaînes de divertissement en continu (l’auteur de ces lignes n’échappant pas totalement à l’attrait des plateaux), de démolir la vérité scientifique et le pouvoir de la démonstration. Toutes les hypothèses se valent désormais, qu’il s’agisse de la rondeur de la planète Terre, de l’existence d’expéditions vers la Lune ou… du contrôle politique du monde par les reptiliens. Le suicide médiatique de la science a parfaitement été réalisé.
À lire aussi : La pédagogie de la vérité contre l’autorité des machines
Face à ces évolutions brutales et non maîtrisées (pas plus par les professeurs que par les psychiatres, semble-t-il), les élèves choisissent la facilité en oubliant que la confrontation au réel se réalise souvent dans des conditions dégradées, sans qu’il soit possible de demander à ChatGPT et consorts de prendre une décision (ce qu’ils évitent soigneusement) ou de prendre le risque de déplaire (ce qui semble contraire à leur programmation).
L’IA bouleverse le rôle traditionnel de l’enseignant comme détenteur et transmetteur de connaissances. Lorsqu’un élève peut interroger l’IA pour obtenir une explication détaillée sur n’importe quel sujet, la fonction de « dispensateur de savoir » perd de sa pertinence, voire met en lumière les failles de la formation des professeurs confrontés à une encyclopédie universelle et instantanée.
« Le professeur, bien que dévalorisé et privé de son piédestal, doit devenir un architecte d’expériences d’apprentissage. »
Le professeur, bien que dévalorisé et privé de son piédestal, doit devenir un architecte d’expériences d’apprentissage, un guide qui aide l’élève à naviguer dans l’océan d’informations, à développer son esprit critique face aux contenus générés par l’IA et à cultiver les compétences que les machines ne maîtrisent pas encore : créativité contextuelle, intelligence émotionnelle, questionnement éthique, pensée systémique.
Cette transition n’est pas sans tensions. Elle exige des enseignants qu’ils redéfinissent leur identité professionnelle et acquièrent de nouvelles compétences, alors même que leur formation initiale ne les a souvent pas préparés à cette mutation. Quand bien même ils y parviendraient par eux-mêmes, l’expérience des savoirs acquis perd de sa pertinence face à la mise en scène des histoires par leur version « fictionnalisée », à travers les séries ou les jeux.
L’IA promet, certes, une démocratisation sans précédent de l’accès au savoir. Les barrières géographiques, économiques et linguistiques s’amenuisent grâce aux traductions instantanées et aux tuteurs virtuels. Mais, paradoxalement, cette même technologie risque de créer de nouvelles fractures. Une « fracture algorithmique » sépare ceux qui savent utiliser l’IA comme outil d’apprentissage approfondi de ceux qui l’emploient comme simple machine à réponses.
Plus préoccupant encore, l’IA fragmente le savoir en unités atomisées, optimisées pour la consommation rapide, au détriment d’une compréhension systémique. Les algorithmes de recommandation privilégient l’engagement à court terme plutôt que l’apprentissage structuré à long terme, favorisant une connaissance superficielle et morcelée au détriment d’une compréhension approfondie et interconnectée.
Externalisation de la mémoire
L’IA fonctionne comme une mémoire externe et un processeur cognitif délocalisé. Cette externalisation n’est pas nouvelle – l’écriture elle-même est une technologie qui externalise la mémoire – mais son ampleur est inédite. Des études neuroscientifiques suggèrent que l’effort de rappel actif et la lutte contre la difficulté cognitive sont essentiels à la consolidation mémorielle. Si l’IA élimine systématiquement ces efforts, elle compromet les mécanismes naturels d’apprentissage. Les élèves développent des stratégies de scannage efficaces mais peuvent perdre la capacité à s’engager dans une lecture profonde et soutenue, essentielle à la compréhension de textes complexes et au développement de la pensée critique.
« Une génération habituée à des réponses instantanées pourrait développer une “atrophie attentionnelle” rendant difficile la concentration prolongée. »
L’attention, ressource cognitive précieuse, est particulièrement affectée. Les interfaces IA sont conçues pour favoriser la réactivité immédiate, renforçant une attente de gratification instantanée, incompatible avec les processus d’apprentissage qui nécessitent du temps, de la patience et une certaine tolérance à la frustration.
Les neurosciences révèlent que la capacité d’attention soutenue se travaille comme un muscle. Une génération habituée à des réponses instantanées pourrait développer une « atrophie attentionnelle » rendant difficile la concentration prolongée nécessaire à la résolution de problèmes complexes.
L’IA menace aussi dangereusement la pensée critique. S’il est parfois demandé aux élèves de constamment évaluer la fiabilité, la pertinence et les biais des contenus générés, l’autorité apparente de l’IA (renforcée par sa fluidité linguistique et son assurance) peut inhiber le questionnement. À tel point que l’IA devient même « l’amie » naturelle et la confidente des élèves en quête d’amour ou de reconnaissance.
L’élève, plus infantilisé que jamais ?
L’IA peut certes émanciper l’élève de la dépendance à un enseignant pour progresser et favoriser l’autodidaxie, mais elle crée simultanément une nouvelle dépendance technologique et peut infantiliser en fournissant un guidage si détaillé qu’il ne reste plus d’espace pour l’exploration autonome et la découverte par essai-erreur.
Les systèmes d’IA éducative collectent des données intimes sur les processus cognitifs des élèves : leurs erreurs, leurs hésitations, leurs temps de réaction, leurs schémas d’apprentissage. Cette « neuroéducation quantifiée » pose de graves questions de vie privée. Un dossier algorithmique suit un individu toute sa vie, cristallisant des évaluations précoces potentiellement erronées ou biaisées.
L’IA générative bouleverse par ailleurs les notions d’intégrité académique imposant une réévaluation de ce qu’on évalue. Si une machine peut produire une dissertation standard, c’est que ce format d’évaluation n’est plus pertinent, en tout cas seul. L’éducation doit se réorienter vers des évaluations qui testent l’application contextuelle, la créativité originale, la pensée critique – des compétences plus difficiles à déléguer à l’IA. Et surtout par un grand retour de l’oral, qui permet de découvrir, facilement mais brutalement, les écarts entre la production écrite sous-traitée à l’IA et la capacité à intégrer des connaissances dans un processus de démonstration.
« L’éducation n’est pas qu’une transmission de compétences ; c’est aussi un processus de socialisation, de construction identitaire, d’inscription dans une culture et une histoire. »
Le risque ultime est celui d’une éducation déshumanisée, où l’efficacité algorithmique prime sur la relation pédagogique, où l’optimisation des performances mesurables éclipse les objectifs éducatifs moins quantifiables : développement de l’esprit critique et de la curiosité, formation du caractère, éducation à la citoyenneté.
L’éducation n’est pas qu’une transmission de compétences ; c’est aussi un processus de socialisation, de construction identitaire, d’inscription dans une culture et une histoire. Les interactions avec les pairs et les enseignants, les rituels collectifs et même les moments d’ennui participent d’un apprentissage holistique de l’être-au-monde que l’IA ne peut remplacer.
Depuis longtemps, le débat entre pédagogues défendant l’éducation contre l’instruction, la transmission des savoirs ou la construction des citoyens, le b.a.-ba ou les nouvelles méthodes pédagogiques, a fait rage dans un ministère dont les hussards noirs ont peu à peu laissé la place à des collègues de plus en plus difficiles à recruter et au statut dévalorisé, face à des parents devenus des consommateurs négociant l’avenir de leurs enfants au son du canon.
Chacune ou chacun devenant HPI par nature, l’idée même de conserver un cadre de formation a abouti à des dispositifs diversifiés et concurrentiels dont l’IA réussira sans doute à uniformiser les parcours en retenant un processus de sélection utilitariste qui préserve ses propres intérêts.
S’inspirer d’Isaac Asimov ?
Entre Matrix, Terminator et Robocop, l’IA s’adapte en fait à une réalité mouvante, de plus en plus dystopique, où la facilité du moment sert à préparer les moments les plus difficiles : ceux où l’emploi humain aura disparu, mettant fin par définition aux besoins éducatifs, faute de débouchés. Les premières victimes de ces réductions massives sortent déjà de l’univers de la tech. Les développeurs et autres ingénieurs qui ont brillamment vérolé les logiciels qu’ils avaient eux-mêmes créés ainsi que tous les secteurs intermédiaires et intellectuels sont touchés par vagues : juristes, journalistes, comptables, enseignants, codeurs, etc.
Isaac Asimov, en écrivant Fondation (à partir de 1942), racontait comment Hari Seldon, un psychohistorien, prévoyait l’effondrement de l’Empire galactique. Et tentait non pas d’empêcher le chaos, inévitable, mais de réduire sa durée de trente mille ans à mille années seulement. L’IA a commencé inéluctablement à générer le chaos. Il est plus que temps de construire une fondation.







